Dnešní smartphony nabízejí čím dál rychlejší procesory, více paměti, dokonalejší fotoaparáty a displeje s až zbytečně vysokým rozlišením. Co však velká spousta uživatelů přehlíží, je nástup umělé inteligence do tohoto segmentu spotřební elektroniky. Například iPhone X se učí rozeznávat vaši tvář, Google vám za chvíli bude retušovat právě pořízenou fotografii ještě před tím, než ji uloží na cloud.
AI však čas od času dokáže, že umí i věci, ke kterým nebyla původně vytvořena. Obvykle jde spíše o jakýsi vedlejší produkt jejího primárního účelu. Přesvědčila se o tom i jedna teenagerka z USA, která ráda nakupovala v obchodní síti Target. Ten s vámi rád vymění pár slevových kuponů, které vám bude průběžně zasílat, za pár nevinných osobních údajů. Tyto údaje se potom přiřadí k ID zákazníka společně s číslem kreditní karty.
Pokročilý algoritmus poté sleduje vaše nákupní zvyky a vyhodnocuje, co asi tak budete potřebovat v blízké budoucnosti a zašle vám slevové kupony, abyste si pro to přišli do toho “správného” obchodu. A tak se stalo, že v nákupech výše zmíněné teenagerky systém rozpoznal jistý vzor, odpovídající spíše nákupním zvyklostem těhotných žen. Na základě toho dotyčná začala dostávat slevové kupony na dětské oblečení, pleny a podobně.
To ovšem neuniklo jejímu otci, který to nechtěl nechat bez povšimnutí a rozhodl se, že to vytmaví manažerovi nejbližšího obchodu Target. Tomu vyčetl, jaké slevy jeho dceři nabízejí, když ještě ani nedokončila střední školu, a že to skoro vypadá, jako nabádání k tomu, aby skutečně otěhotněla. Manažer situaci prověřil, aby se následně jménem obchodu omluvil za toto politováníhodné nedopatření.
Jak naivní ve skutečnosti otec byl, zjistil až ve chvíli, kdy si s dcerou vážně promluvil a ta mu prozradila, že predikce AI byla pravdivá. Otec obratem zavolal manažerovi s omluvou a oznámil mu, že se za jeho zády odehrála patrně velmi vášnivá noc, která rozhodně nezůstala bez následků.
Tento příběh se skutečně odehrál a to v roce 2012 (!), kdy umělá inteligence nebyla oproti dnešku zdaleka tak rozšířená. V budoucnu se téměř jistě dočkáme dalších podobných, ale i méně radostných zpráv. I díky wearables máme možnost dávat nejrůznějším algoritmům k dispozici i naše zdravotní data. Až vám jednou přijde do mailu nabídka slev na rakve, případně pohřební služby, možná nebude od věci zajít k lékaři.
Problém však nastane, až se vývojem prokutáme k té skutečné AI. Ta, kterou máme teď, je jen takový odvárek. Zatím nemáme natolik pokročilé algoritmy, aby si dokázaly prohrabat big data, z nich vytáhnout jen to, co potřebují a na základě toho třeba učinit nějaký vědecký průlom. Tak daleko ještě rozhodně nejsme, ale rozhodně se blížíme a pravděpodobně k tomuto bodu v příštích dekádách i dojdeme.
Co však AI nezvládá, jsou emoce. Ano, umí rozpoznat, jestli se mračíte, smějete nebo začínáte usínat při řízení, ale nepočítá s tím, že její závěry mohou lidem emočně ubližovat. Jejím cílem je efektivita. Dokáže například osekat náklady a naplánovat výrobu tak, aby bylo potřeba co nejméně pracovníků. Neuvažuje ale tak komplexně, aby zároveň vyřešila i situaci těch, které o práci připraví. A i kdyby jim náhodou dokázala najít jinou práci, tak se může stát, že ji dotyčný pracovník z jakéhokoliv důvodu nepřijme a tím finančně zatíží stát. Emoce a lidské chování je značně nepředvídatelné, příliš individuální a těžko se kvantifikuje.
Dalším problémem je totiž lidský faktor. AI uvažuje v jistých hranicích. Pokud ji necháte řídit auto, nenechá se strhnout vidinou široké a přehledné silnice a nepřekročí rychlost. Když vyhlásí v budově požární poplach, tak nebude počítat s tím, že vy se domníváte, že je to zase jen nějaké cvičení a v klidu si dokončíte práci. Pokud při požáru dojde k destrukci kamerového okruhu a AI o vás nebude vědět, tak vám s klidem zabouchne protipožární dveře před nosem. Protože předpokládá, že i vy dodržujete pravidla a tudíž jste ze třetího poschodí už dávno stihli doběhnout ven.
A co teprve, když AI nebude mít na výběr a bude se muset rozhodovat, která z možností je nejmenší zlo, protože žádná “dobrá možnost” existovat nebude. Na tento problém se zaměřuje web Moral Machine, kde si můžete zkusit, jak těžké je rozhodnout, koho zabít a koho nechat žít. V několika modelových situacích musíte učinit rozhodnutí, které vždy někoho bude stát život. Pokud budeme uvažovat ještě dál, tak když si umělá inteligence bude mít možnost v rychlosti projít data lidí o jejichž životě či smrti bude rozhodovat, může se lehce stát, že vás vyhodnotí jako méně společensky prospěšné. Třeba proto, že máte o stupeň nižší vzdělání, nebo o jednu pokutu za parkování víc, než váš “soupeř”.
To nejhorší co může nastat (a mám obavy, že je to velice pravděpodobný scénář) je, že AI dostane skutečnou moc. Tak velkou, že bude mít možnost tvořit zákony, případně i udělovat tresty za prohřešky proti nim. Pak se totiž může velice lehce stát, že lidstvo obecně vyhodnotí, jako neprospěšné a jednoduše ho zlikviduje. Pokud se domníváte, že tohle půjde zastavit nějakým stiskem červeného tlačítka, tak pravděpodobně nepůjde. To už totiž bude okamžik, se kterým AI dopředu počítala a dávno učinila protiopatření. Proto by možná bylo dobré se na chvíli zastavit, zamyslet a určit si hranice, kam až necháme tento pokrok zajít. Protože na téhle cestě může přijít tzv. Point of no return, za kterým už bude pozdě čehokoliv litovat.
Dnešní smartphony nabízejí čím dál rychlejší procesory, více paměti, dokonalejší fotoaparáty a displeje s až zbytečně vysokým rozlišením. Co však velká spousta uživatelů přehlíží, je nástup umělé inteligence do tohoto segmentu spotřební elektroniky. Například iPhone X se učí rozeznávat vaši tvář, Google vám za chvíli bude retušovat právě pořízenou fotografii ještě před tím, než ji uloží na cloud.
AI však čas od času dokáže, že umí i věci, ke kterým nebyla původně vytvořena. Obvykle jde spíše o jakýsi vedlejší produkt jejího primárního účelu. Přesvědčila se o tom i jedna teenagerka z USA, která ráda nakupovala v obchodní síti Target. Ten s vámi rád vymění pár slevových kuponů, které vám bude průběžně zasílat, za pár nevinných osobních údajů. Tyto údaje se potom přiřadí k ID zákazníka společně s číslem kreditní karty.
Pokročilý algoritmus poté sleduje vaše nákupní zvyky a vyhodnocuje, co asi tak budete potřebovat v blízké budoucnosti a zašle vám slevové kupony, abyste si pro to přišli do toho “správného” obchodu. A tak se stalo, že v nákupech výše zmíněné teenagerky systém rozpoznal jistý vzor, odpovídající spíše nákupním zvyklostem těhotných žen. Na základě toho dotyčná začala dostávat slevové kupony na dětské oblečení, pleny a podobně.
To ovšem neuniklo jejímu otci, který to nechtěl nechat bez povšimnutí a rozhodl se, že to vytmaví manažerovi nejbližšího obchodu Target. Tomu vyčetl, jaké slevy jeho dceři nabízejí, když ještě ani nedokončila střední školu, a že to skoro vypadá, jako nabádání k tomu, aby skutečně otěhotněla. Manažer situaci prověřil, aby se následně jménem obchodu omluvil za toto politováníhodné nedopatření.
Jak naivní ve skutečnosti otec byl, zjistil až ve chvíli, kdy si s dcerou vážně promluvil a ta mu prozradila, že predikce AI byla pravdivá. Otec obratem zavolal manažerovi s omluvou a oznámil mu, že se za jeho zády odehrála patrně velmi vášnivá noc, která rozhodně nezůstala bez následků.
Tento příběh se skutečně odehrál a to v roce 2012 (!), kdy umělá inteligence nebyla oproti dnešku zdaleka tak rozšířená. V budoucnu se téměř jistě dočkáme dalších podobných, ale i méně radostných zpráv. I díky wearables máme možnost dávat nejrůznějším algoritmům k dispozici i naše zdravotní data. Až vám jednou přijde do mailu nabídka slev na rakve, případně pohřební služby, možná nebude od věci zajít k lékaři.
Problém však nastane, až se vývojem prokutáme k té skutečné AI. Ta, kterou máme teď, je jen takový odvárek. Zatím nemáme natolik pokročilé algoritmy, aby si dokázaly prohrabat big data, z nich vytáhnout jen to, co potřebují a na základě toho třeba učinit nějaký vědecký průlom. Tak daleko ještě rozhodně nejsme, ale rozhodně se blížíme a pravděpodobně k tomuto bodu v příštích dekádách i dojdeme.
Co však AI nezvládá, jsou emoce. Ano, umí rozpoznat, jestli se mračíte, smějete nebo začínáte usínat při řízení, ale nepočítá s tím, že její závěry mohou lidem emočně ubližovat. Jejím cílem je efektivita. Dokáže například osekat náklady a naplánovat výrobu tak, aby bylo potřeba co nejméně pracovníků. Neuvažuje ale tak komplexně, aby zároveň vyřešila i situaci těch, které o práci připraví. A i kdyby jim náhodou dokázala najít jinou práci, tak se může stát, že ji dotyčný pracovník z jakéhokoliv důvodu nepřijme a tím finančně zatíží stát. Emoce a lidské chování je značně nepředvídatelné, příliš individuální a těžko se kvantifikuje.
Dalším problémem je totiž lidský faktor. AI uvažuje v jistých hranicích. Pokud ji necháte řídit auto, nenechá se strhnout vidinou široké a přehledné silnice a nepřekročí rychlost. Když vyhlásí v budově požární poplach, tak nebude počítat s tím, že vy se domníváte, že je to zase jen nějaké cvičení a v klidu si dokončíte práci. Pokud při požáru dojde k destrukci kamerového okruhu a AI o vás nebude vědět, tak vám s klidem zabouchne protipožární dveře před nosem. Protože předpokládá, že i vy dodržujete pravidla a tudíž jste ze třetího poschodí už dávno stihli doběhnout ven.
A co teprve, když AI nebude mít na výběr a bude se muset rozhodovat, která z možností je nejmenší zlo, protože žádná “dobrá možnost” existovat nebude. Na tento problém se zaměřuje web Moral Machine, kde si můžete zkusit, jak těžké je rozhodnout, koho zabít a koho nechat žít. V několika modelových situacích musíte učinit rozhodnutí, které vždy někoho bude stát život. Pokud budeme uvažovat ještě dál, tak když si umělá inteligence bude mít možnost v rychlosti projít data lidí o jejichž životě či smrti bude rozhodovat, může se lehce stát, že vás vyhodnotí jako méně společensky prospěšné. Třeba proto, že máte o stupeň nižší vzdělání, nebo o jednu pokutu za parkování víc, než váš “soupeř”.
To nejhorší co může nastat (a mám obavy, že je to velice pravděpodobný scénář) je, že AI dostane skutečnou moc. Tak velkou, že bude mít možnost tvořit zákony, případně i udělovat tresty za prohřešky proti nim. Pak se totiž může velice lehce stát, že lidstvo obecně vyhodnotí, jako neprospěšné a jednoduše ho zlikviduje. Pokud se domníváte, že tohle půjde zastavit nějakým stiskem červeného tlačítka, tak pravděpodobně nepůjde. To už totiž bude okamžik, se kterým AI dopředu počítala a dávno učinila protiopatření. Proto by možná bylo dobré se na chvíli zastavit, zamyslet a určit si hranice, kam až necháme tento pokrok zajít. Protože na téhle cestě může přijít tzv. Point of no return, za kterým už bude pozdě čehokoliv litovat.