Polícia v Las Vegas zverejnila nové detaily o výbuchu, ktorý otriasol mestom a vyvolal vlnu otázok o bezpečnosti generatívnej umelej inteligencie. Výbuch nastal pred Trumpovým hotelom, pred ktorým sa odpálilo vozidlo Tesla Cybertruck. Útočníkom bol vojak americkej armády, Matthew Livelsberger, ktorý podľa polície použil nástroj ChatGPT na získanie informácií o výbušninách a ich použití. O téme sme informovali v tomto článku, na nové zistenia upozornil portál The Verge.

Teroristický útok mu naplánoval ChatGPT

Vyšetrovatelia odhalili, že Livelsberger na svojom telefóne uchovával dokumenty, ktoré zahŕňali „možný manifest“, znepokojujúce e-maily a rôzne poznámky. Jednou z kľúčových stôp boli otázky smerované na ChatGPT, kde sa pýtal na nákup výbušnín, zbrane a ohňostroj, ako aj na spôsoby ich odpálenia.

Zverejnené snímky z ChatGPT zahŕňali konkrétne otázky o tom, ako zapáliť výbušniny streľbou, a kde možno na trase zakúpiť potrebný materiál. Hoci model ChatGPT je navrhnutý tak, aby odmietal poskytovať škodlivé inštrukcie, podľa hovorcu OpenAI, Liz Bourgeoisová, odpovedal informáciami, ktoré sú voľne dostupné na internete, pričom obsahoval varovania pred nezákonným použitím.

ChatGPT naplánoval teroristický útok, polícia zverejnila dôkazy

„Sme hlboko znepokojení týmto incidentom a naďalej pracujeme na tom, aby boli naše nástroje používané zodpovedne,“ uviedla Bourgeoisová. „Spolupracujeme s orgánmi činnými v trestnom konaní na vyšetrovaní prípadu.“

Livelsberger bol zachytený na videu, ako pred výbuchom nalieva palivo na Cybertruck a následne vozidlo premiestňuje pred hotel. Polícia uviedla, že podozrivý nemal predchádzajúci trestný záznam, no jeho aktivity, vrátane údajného sledovania polície, naznačovali prípravu na násilný čin.

Experti opísali výbuch ako deflagráciu, teda pomalší typ výbuchu, čo je v súlade s dôkazmi o zapálení výparov paliva a zápalných šnúr ohňostrojov. Výbušný materiál v aute mohol byť iniciovaný výstrelom z pištole, čo zodpovedá niektorým z podozrivých otázok na ChatGPT.

Zneužitie AI vyvoláva obavy

Prípad vyvolal diskusie o rizikách umelej inteligencie a jej potenciálnom zneužití. Skutočnosť, že polícia dokázala spätne získať otázky kladené na ChatGPT a použiť ich ako dôkaz, otvára otázky o ochrane súkromia a transparentnosti AI nástrojov.

Hoci sa podobné informácie dajú získať aj bežným vyhľadávaním na internete, použitie ChatGPT na takéto účely zdôrazňuje potrebu prísnejších „ochranných mantinelov“ v AI modeloch. Incident navyše podčiarkuje význam sledovania a regulácie týchto technológií v reálnom svete.

Výbuch, pri ktorom zahynul jeden človek a sedem ďalších utrpelo zranenia, je tragickou pripomienkou toho, ako sa moderné technológie môžu stať nástrojom zla, ak padnú do nesprávnych rúk. Polícia v spolupráci s odborníkmi na AI pokračuje vo vyšetrovaní, pričom zdôraznila, že podobným incidentom sa bude možné vyhnúť len za cenu vyššej zodpovednosti výrobcov týchto nástrojov a dôslednejších kontrol.

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP