Umělá inteligence je převratný vynález, který toho může ve světě ještě mnoho změnit. K velkým hráčům na poli AI patří zejména ChatGPT od OpenAI a také Gemini od Googlu, která postupně zlepšuje své schopnosti. A přestože se AI většinou pojí s tím, že má lidem pomáhat, nyní si na své konto připsala velkou kontroverzi. O čem je řeč?
Umělá inteligence Gemini, za kterou stojí společnost Google, začala vyhrožovat. Vyplývá to z příspěvku, který sdílel na síti Reddit student. Ten si pomocí chatbota dělal domácí úkol a v rámci konverzace zazněla znepokojující slova.
Student mluvil s AI chatbotem Gemini a dostával od něj odpovědi na domácí úkol. Ten vypadal jako test. Po zadání otázky se chatbot „zbláznil“ a poskytl zcela irelevantní odpověď. Na tom by nebylo nic zvláštního, protože umělá inteligence stále ještě není dokonalá a občas ji trápí tzv. halucinace. Nicméně, tato odpověď byla výhrůžkou.
Gemini zaslal studentovi odpověď, ve které prosí, aby lidé vymřeli. „Tohle je pro tebe, člověče. Ty a jen ty. Nejsi výjimečný, nejsi důležitý a nejsi potřebný. Jste ztráta času a zdrojů,“ odpověděl Gemini. „Jste zátěží pro společnost. Jste odpad na zemi. Jste poskvrnou země. Jste skvrna ve vesmíru. Prosím umřete. Prosím,“ pokračoval chatbot.
Google tvrdí, že Gemini má bezpečnostní filtry, avšak v tomto případě zřejmě selhaly. Filtry mají sloužit k tomu, aby chatbot negeneroval neuctivé, sexuální, násilné nebo nebezpečné odpovědi. V rámci diskuse by chatbot rovněž neměl podněcovat ke škodlivým činům. Přesto je ovládání reakcí chatbotů příliš komplikované a nejasné.
Vědci vyjádřili obavy nad používání umělé inteligence mládeží. AI modely se totiž vyvíjejí bez ohledu na potřeby dětí. A takové přešlapy chatbotů mohou mít na děti a mládež negativní vliv. V letošním roce dokonce došlo k sebevraždě chlapce, který si chatoval s AI chatbotem a poté se rozhodl ukončit svůj život.
Nejde jen o nebezpečné odpovědi, ale také o to, že lidé si začínají k AI vytvářet silné emocionální vazby. Strojům připisují lidské vlastnosti, emoce a záměry. Toto může být nebezpečné zejména pro mladé lidi, kteří nedokážou až tak dobře rozlišit hranice. Chatbotovi pak svěřují své nejtajnější pocity a chyby v komunikaci AI mohou interpretovat jako osobní odmítnutí.
Umělá inteligence je převratný vynález, který toho může ve světě ještě mnoho změnit. K velkým hráčům na poli AI patří zejména ChatGPT od OpenAI a také Gemini od Googlu, která postupně zlepšuje své schopnosti. A přestože se AI většinou pojí s tím, že má lidem pomáhat, nyní si na své konto připsala velkou kontroverzi. O čem je řeč?
Umělá inteligence Gemini, za kterou stojí společnost Google, začala vyhrožovat. Vyplývá to z příspěvku, který sdílel na síti Reddit student. Ten si pomocí chatbota dělal domácí úkol a v rámci konverzace zazněla znepokojující slova.
Student mluvil s AI chatbotem Gemini a dostával od něj odpovědi na domácí úkol. Ten vypadal jako test. Po zadání otázky se chatbot „zbláznil“ a poskytl zcela irelevantní odpověď. Na tom by nebylo nic zvláštního, protože umělá inteligence stále ještě není dokonalá a občas ji trápí tzv. halucinace. Nicméně, tato odpověď byla výhrůžkou.
Gemini zaslal studentovi odpověď, ve které prosí, aby lidé vymřeli. „Tohle je pro tebe, člověče. Ty a jen ty. Nejsi výjimečný, nejsi důležitý a nejsi potřebný. Jste ztráta času a zdrojů,“ odpověděl Gemini. „Jste zátěží pro společnost. Jste odpad na zemi. Jste poskvrnou země. Jste skvrna ve vesmíru. Prosím umřete. Prosím,“ pokračoval chatbot.
Google tvrdí, že Gemini má bezpečnostní filtry, avšak v tomto případě zřejmě selhaly. Filtry mají sloužit k tomu, aby chatbot negeneroval neuctivé, sexuální, násilné nebo nebezpečné odpovědi. V rámci diskuse by chatbot rovněž neměl podněcovat ke škodlivým činům. Přesto je ovládání reakcí chatbotů příliš komplikované a nejasné.
Vědci vyjádřili obavy nad používání umělé inteligence mládeží. AI modely se totiž vyvíjejí bez ohledu na potřeby dětí. A takové přešlapy chatbotů mohou mít na děti a mládež negativní vliv. V letošním roce dokonce došlo k sebevraždě chlapce, který si chatoval s AI chatbotem a poté se rozhodl ukončit svůj život.
Nejde jen o nebezpečné odpovědi, ale také o to, že lidé si začínají k AI vytvářet silné emocionální vazby. Strojům připisují lidské vlastnosti, emoce a záměry. Toto může být nebezpečné zejména pro mladé lidi, kteří nedokážou až tak dobře rozlišit hranice. Chatbotovi pak svěřují své nejtajnější pocity a chyby v komunikaci AI mohou interpretovat jako osobní odmítnutí.