Na technologickém bezpečnostním summitu pořádaném britským ministerským předsedou Rishi Sunkem sdělil technologický magnát a badatel v oboru umělé inteligence Dario Amodei děsivou prognózu. Existuje šance až 25 %, že AI bude stát za naprostou zkázou lidského druhu.
Jeden ze čtyř scénářů
Podle vedoucího technologického experta je právě umělá inteligence jednou ze čtyř možností, jak bude lidstvo nakonec zničeno. Existují v zásadě dvě možností. Buď se sama technologie vymkne kontrole a bude nás likvidovat jako nepolapitelná hrozba, nebo ji zneužije přímo člověk.
„Šance, že se něco katastrofálně pokazí na takové úrovni, že to bude zkáza lidské civilizace, je 10 až 25 %,“ uvedl Amodei. Sám je spoluzakladatelem a CEO společnosti Anthropic, která stojí za sérií jazykových AI modelů Claude. Předtím byl viceprezidentem výzkumu v OpenAI.
Jak se tomu můžeme vyhnout?
„Jestli se dovedeme vyhnout úskalím, pak tahle věc může pomoct vyléčit rakovinu, prodloužit délku dožití člověka, vyřešit věci jako mentální choroby. Ale zkáza lidstva rozhodně patří do rejstříku možného,“ prohlásil Dario Amodei.
Prohlášení se následně dočkalo odezvy od zastánců kampaně za kontrolu AI. Podle nich stejné firmy, u kterých bylo riziko, že jejich vlastní produkty mohou člověka zabít, volaly právě po regulaci AI modelů.
Největší rizika AI
Protože je AI vytvořena člověkem, je tak naším odrazem se všemi pozitivy i negativy. V zásadě je to obrovská armáda tupých prográmků, které stávají zbraní úměrně vůli jejich tvůrce či uživatele.
Halucinace
Tímto pojmem jsou myšleny chyby, které modely provázejí. Přes pokročilost totiž spoléhají na zadané informace, jejichž spolehlivost a také přesnost výkladu není zaručena. Cvičná data tak mohou nakonec způsobit chyby, jejichž prvopočátek je jen obtížně rozeznatelný. Problém přichází v momentě, kdy tyto nuance rozhodují třeba o životě.
Deepfake
Asi nejzřetelnější a už velmi zaběhnutý způsob využití AI k napodobování podoby nebo hlasu osob. Začalo to virálem papeže v nafukovací bundě nebo generovanými písněmi. Tak se mohou šířit falešná prohlášení, prezidentské projevy a celé soubory falešných videí nebo fotek. A i při jasném označení nemusí každý věřit, že jde o podvrh.
Ochrana osobních dat
Protože je AI krmena uživatelskými daty, vyvstává samozřejmě otázka jejich ochrany. Právě to byl hlavní faktor, který v Itálii vedl k zákazu ChatGPT a prohlášení, že OpenAI nemá legální právo sbírat data uživatelů.
Kyberbezpečnost
Další možností využití AI je generování samotného kódu. A při pokusu o zneužití se prakticky komukoli dostává do rukou extrémně rychlá možnost programování i velmi komplexních aplikací.
Poskytovatelé aplikací zaručují uživatelům odolnost AI vůči zákeřným požadavkům. Jenže obvykle se stačí chatbota jen zeptat trochu jinak a základ pro zločin není problém, například výroba bomby.
Je to jako v tom starém vojenském vtipu:
Reportér: „Kolik lidí má vaše armáda?“
Generál: „To je vojenské tajemství.“
Reportér: „A pro kolik osob připravujete jídlo?“
Generál s úsměvem: „Tak to vám řeknu naprosto přesně.“
Zdroje: AnomAlien, SpomocnikRVP, DailyMail