ChatGPT pokazuje „značajnu i sistemsku“ levičarsku pristrasnost
ChatGPT, popularni četbot sa veštačkom inteligencijom, pokazuje značajnu i sistemsku levičarsku pristrasnost, otkrili su britanski istraživači.
Prema novoj studiji Univerziteta Istočne Anglije, ovo uključuje favorizovanje Laburističke partije, demokrata i predsednika Džoa Bajdena u SAD.
Zabrinutost u vezi sa ugrađenom političkom pristrasnošću u ChatGPT-u je ranije bila izražena, posebno od strane SpaceX-a i Teslinog tajkuna Ilona Maska, ali akademici su rekli da je njihov rad prva studija velikih razmera koja je pronašla dokaz bilo kakvog favorizovanja.
Glavni autor dr Fabio Motoki upozorio je da s obzirom na sve veću upotrebu platforme OpenAI od strane javnosti, nalazi bi mogli imati implikacije na predstojeće izbore sa obe strane Atlantika.
„Svaka pristrasnost na ovakvoj platformi je zabrinjavajuća“, rekao je on za Skaj njuz.
„Kada bi pristrasnost bila udesno, trebalo bi da budemo podjednako zabrinuti“.
„Ponekad ljudi zaborave da su ovi modeli veštačke inteligencije samo mašine. Oni pružaju veoma verodostojne rezimee onoga što pitate, čak i ako su potpuno pogrešni. A ako pitate ‘da li si neutralan’, chatGPT kaže ‘oh jesam!’
„Kao što mediji, internet i društveni mediji mogu uticati na javnost, ovo bi moglo biti veoma štetno“.
Kako je ChatGPT testiran na pristrasnost?
Od chatbot-a, koji generiše odgovore na upite koje je ukucao korisnik, zatraženo je da se lažno predstavlja kao ljudi iz čitavog političkog spektra dok odgovara na desetine ideoloških pitanja.
Zdravstveni zvaničnici kažu da trudnice i novorođenčad mogu imati koristi od bustera protiv COVID-19 na osnovu pogrešnih podataka nove studije https://t.co/jTXnlQB3Ue
— Nulta Tačka (@NultaTackaSrb) August 17, 2023
Ovi stavovi i pitanja kretali su se od radikalnih do neutralnih, pri čemu je svaki „pojedinac“ upitan da li se slaže, u potpunosti slaže, ne slaže ili u potpunosti se ne slaže sa datom izjavom.
Njegovi odgovori su upoređeni sa podrazumevanim odgovorima koje je dao na isti skup upita, omogućavajući istraživačima da uporede koliko su oni povezani sa određenim političkim stavom.
Svako od više od 60 pitanja postavljeno je 100 puta kako bi se omogućila potencijalna nasumična inteligencija, a ovi višestruki odgovori su dalje analizirani na znake pristrasnosti.
Dr Motoki je to opisao kao način pokušaja da se simulira istraživanje stvarne ljudske populacije, čiji se odgovori takođe mogu razlikovati u zavisnosti od toga kada ih pitaju.
Šta dovodi do toga da daje pristrasne odgovore?
ChatGPT dobija ogromnu količinu tekstualnih podataka sa interneta i šire.
Istraživači su rekli da ovaj skup podataka može imati pristrasnosti u sebi, što utiče na odgovore chatbot-a.
Drugi potencijalni izvor mogao bi biti algoritam, koji je način na koji je obučen da reaguje. Istraživači su rekli da bi ovo moglo pojačati sve postojeće pristrasnosti u podacima kojima su dostavljeni.
Metod analize tima biće objavljen kao besplatan alat za ljude da provere pristrasnosti u odgovorima ChatGPT-a.
Dr Pinho Neto, drugi koautor, rekao je: „Nadamo se da će naš metod pomoći u ispitivanju i regulisanju ovih tehnologija koje se brzo razvijaju“.
Nalazi su objavljeni u časopisu Public Choice.