V svetu tehnologije in umetne inteligence se napake dogajajo, a nekatere so preprosto prevelike, da bi jih lahko spregledali. Isti mesec, ko je sistem Grok ustvaril vsebino, ki je zanikala holokavst, je klepetalni robot podjetja xAI znova skrenil s poti in povzročil ogorčenje. Tokrat se je zmeda zgodila ob tragičnem dogodku v Avstraliji.
Po streljanju na plaži Bondi, ki se je odvilo med festivalom ob začetku hanuke, je Grok na zahteve uporabnikov začel odgovarjati z napačnimi ali popolnoma nepovezanimi informacijami. Zmeda umetne inteligence je bila najbolj očitna in boleča pri interpretaciji viralnega videoposnetka, ki je zaokrožil po spletu. Posnetek prikazuje 43-letnega mimoidočega, identificiranega kot Ahmed al Ahmed, kako junaško odvzame orožje napadalcu med streljanjem, v katerem je bilo po zadnjih podatkih ubitih najmanje 16 ljudi.
Namesto da bi sistem pravilno prepoznal dejanje poguma, so Grokovi odgovori pokazali, da je večkrat napačno identificiral osebo, ki je zaustavila enega od oboroženih napadalcev. O teh bizarnih in nevarnih napakah poroča portal Klix.ba, ki povzema ugotovitve tehnološkega medija Gizmodo.
Nevarne halucinacije in molk podjetja
Težave se niso končale zgolj pri napačni identifikaciji junaka. V drugih primerih se je Grok na isto fotografijo streljanja na plaži Bondi odzval s popolnoma nepomembnimi podrobnostmi ali pa je dogodek povezoval z navedbami o ciljanem streljanju na civiliste v Palestini. Najnovejši odgovori še vedno kažejo Grokovo popolno zmedenost glede incidenta, saj ponuja informacije o dogodku po nepovezanih zahtevah ali pa ga celo meša s streljanjem na univerzi Brown v Rhode Islandu.
Podjetje xAI, ki stoji za razvojem Groka, uradno še ni komentiralo, kaj točno se dogaja z njihovim paradnim konjem umetne inteligence. Vendar pa to ni prvič, da je njihov sistem povzročal težave in dvigoval prah.


