Příliš korektní a woke. Model Gemini od Googlu generuje nesmyslné fotky lidí
- Google má problémy se svou umělou inteligencí Gemini
- Technologický gigant jí musel zakázat generovat obrázky lidí
- Co nastalo za problém a jaké podrobnosti jsme se dozvěděli?

Problémy hned na startu? Google musel pozastavit generování obrázků v rámci své umělé inteligence Gemini. Ta se během jen několika dní dopustila mnoha faux pas. Co jsme se o celé situaci dozvěděli a jaké je vyjádření samotného Googlu?
Google Gemini nefunguje správně
Teprve před pár dny americký technologický gigant poslal do světa novou funkci v rámci své umělé inteligence Gemini, která je schopná díky zadanému textovému popisu vytvořit obrázek. No a dnes ji už Google musel oficiálně pozastavit.
Společnost koná po silném nátlaku poté, co byla na sociálních sítích kritizována za vytváření obrázků, které prostě neodpovídají faktům a historii. Veřejnosti se nelíbí například indiánský papež nebo černoští Vikingové a nacisté.
Až příliš korektní
Nemalá část uživatelů tak Gemini označila za hyperkorektní a woke nástroj. Informatik a bývalý zaměstnanec Googlu, Debarghya Das, pak dokonce napsal, že je opravdu těžké přesvědčit Gemini, že existují i bílí lidé. Po internetu nakonec začaly kolovat i konspirační teorie o tom, že tak Google činí schválně.

Čtěte také: Efektivnější a výkonnější než kdykoliv předtím. Google představil Gemini 1.5
Google pracuje na nápravě
Technologický gigant funkci generování obrázků v rámci Gemini pozastavil a uvedl, že pracuje na nápravě problému. Podle Googlu jsou algoritmy, které stojí za modely generování obrázků, velmi složité a stále se vyvíjejí. Přirozeně tak mohou mít potíže s pochopením historického kontextu. K nepřesným výstupům mělo docházet právě z tohoto důvodu.
Podle vyjádření společnosti se však funkce zase velmi brzy vrátí a Google nás o tom bude okamžitě informovat. Generování obrázků je totiž klíčové k tomu, aby mohla umělá inteligence Gemini nadále konkurovat OpenAI či Copilotu od Microsoftu.