Slatke male laži veštačke inteligencije: Njujorški advokat suočava se sa sankcijama nakon što je koristio ChatGPT za pisanje podneska
Advokat sa sedištem u Njujorku suočava se sa potencijalnim sankcijama nakon što je koristio OpenAI ChatGPT za pisanje pravnog podneska koji je dostavio sudu. Problem? AI Chatbot je ispunio podnesak citatima izmišljenih slučajeva, simptom AI četbotova koji se naziva „halucinacija“. U izjavi, advokat je tvrdio: „Nisam znao za mogućnost da sadržaj [ChatGPT-a] može biti lažan“.
Engadget izveštava da je advokat Stiven Švarc iz advokatske firme Levidov, Levidov i Oberman koristio veštačku inteligenciju da mu pomogne u tužbi protiv kolumbijske avio-kompanije Avianca u revolucionarnom slučaju, ističući potencijalne nedostatke veštačke inteligencije u pravnoj praksi. Međutim, rezultujući pravni podnesak pripremljen uz pomoć ChatGPT-a bio je ispunjen referencama na sudske presude koje jednostavno nisu postojale.
Roberto Mata, koji tvrdi da je povređen na letu na međunarodni aerodrom Džon F. Kenedi u Njujorku, zastupa Švarcova advokatska firma. Švarc je podneo podnesak od 10 stranica u kojem se zalaže za nastavak tužbe kao odgovor na Avianca zahtev da se slučaj odbaci.
U dokumentu je citirano više desetina sudskih presuda, uključujući „Miller protiv Junajted erlajnsa“, „Martinez protiv Delta erlajnsa“ i „Vargeze protiv Kine sautern erlajnza“. Ove sudske presude, međutim, nigde nisu pronađene jer ih je ChatGPT, AI, u potpunosti izmislio. Kada AI čet botovi kao što je ChatGPT sastavljaju informacije, to se u tehnološkoj industriji naziva „halucinirajućim“. ChatGPT i drugi slični alati koji pate od takvih „halucinacija“ su izuzetno česta pojava.
👉 Globalno zagrevanje?! Australijanci prolaze kroz najhladniji maj IKAD dok temperature padaju širom zemlje- https://t.co/QzFuMRpyBY
— Nulta Tačka (@NultaTackaSrb) May 30, 2023
Švarc je u izjavi pod zakletvom tvrdio da je koristio chatbot da „dopuni“ svoje istraživanje u vezi sa slučajem. „Nisam bio svestan mogućnosti da sadržaj koji ChatGPT kreira može biti lažan“, napisao je on. Švarcovi snimci ekrana otkrivaju da je ispitivao ChatGPT o istinitosti slučajeva koje je citirao. U svom potvrdnom odgovoru, AI je tvrdio da se presude mogu naći u „renomiranim pravnim bazama podataka“, kao što su Westlaw i LexisNexis.
Izražavajući svoje žaljenje, Švarc je izjavio: „Veoma mi je žao što koristim ChatGPT i nikada to neću učiniti u budućnosti bez apsolutne provere njegove autentičnosti“.
Slučaj je privukao pažnju u pravnoj zajednici jer je to prvi put da se veštačka inteligencija koristi na ovaj način. Sudija koji nadgleda slučaj zakazao je ročište za razmatranje mogućih kazni za Švarcove postupke za 8. jun. Ovaj slučaj služi kao oštar podsetnik na potrebu za oprezom i verifikacijom kada se koriste alati jer se pravna profesija bori da integriše veštačku inteligenciju.