Robot kao prijatelj? Kreiraju se roboti koji znaju da li smo tužni ili srećni
Mnogi od nas već razgovaraju sa svojim pametnim uređajima kao da su ljudi. U budućnosti, pametni uređaji će možda moći da uzvrate na sličan način, imitirajući „uhh“ i „ahh“, smeh i uzdahe, zajedno sa drugim signalima koji ukazuju na ljudske emocije kao što su melodija i ritam.
Startup Hume AI sa sedištem u Njujorku predstavio je novi „emocionalno inteligentni“ AI glasovni interfejs koji se može ugraditi u različite aplikacije u rasponu od korisničkog servisa i zdravstvene zaštite do virtuelne i proširene stvarnosti.
Beta verzija proizvoda pod nazivom Empathic Voice Interface (EVI) objavljena je nakon što je obezbedila rundu finansiranja serije B od 50 miliona dolara koju je vodio EKT Ventures. Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northvell Holdings, Comcast Ventures i LG Technology Ventures su takođe učestvovali u finansiranju.
Udari će se pojačati! Srbija je postala njihova glavna meta | Jelena Pavlović | Mario Zna, 269 Uživo
Konverzacijski AI je prvi koji je obučen da razume kada korisnici završe sa govorom, predvidi njihove preferencije i generiše glasovne odgovore optimizovane za zadovoljstvo korisnika tokom vremena, kaže Hume AI u izdanju.
„Glavno ograničenje trenutnih sistema veštačke inteligencije je to što se rukovode površnim ljudskim ocenama i uputstvima, koji su skloni greškama i ne uspevaju da iskoriste ogroman potencijal veštačke inteligencije da iznađu nove načine da usreće ljude“, osnivač kompanije i bivši Google naučnik Alan Kauen je rekao. „Izgradnjom veštačke inteligencije koja uči direktno od proksija ljudske sreće, mi je efikasno učimo da rekonstruiše ljudske preferencije iz prvih principa, a zatim ažurira to znanje sa svakom novom osobom sa kojom razgovara i sa svakom novom aplikacijom koja je ugrađena.
Gradonačelnica Pariza: Rusi i Belorusi nisu dobrodošli na Olimpijske igre, Izrael može oni su demokratska država (VIDEO) https://t.co/gqyFMktww4
— Nulta Tačka (@NultaTackaSrb) March 31, 2024
Glasovni model je obučen na podacima iz miliona ljudskih interakcija i izgrađen na multimodalnoj generativnoj veštačkoj inteligenciji koja integriše velike jezičke modele (LLM) sa merama izražavanja. Hume ovo naziva empatičnim modelom velikog jezika (eLLM) i pomaže svom proizvodu da prilagodi reči i ton glasa na osnovu konteksta i emocionalnih izraza korisnika.
Hume AI nije jedina kompanija koja eksperimentiše sa unošenjem emocija u tehnologiju.
Hod Lipson, robotičar sa Univerziteta Kolumbija, kreirao je robota sa veštačkom inteligencijom koji koristi neuronske mreže da gleda ljudska lica, predviđa njihove izraze i pokušava da ih replicira svojim licem.
Naučnici sa južnokorejskog Nacionalnog instituta za nauku i tehnologiju Ulsan takođe su smislili masku za lice koja koristi senzore za snimanje verbalnih i neverbalnih podataka o izrazu.
Takozvani sistem personalizovanog interfejsa integrisanog u kožu (PSiFI) vrši bežični prenos podataka, omogućavajući prepoznavanje emocija u realnom vremenu.
Njen programer Jiiun Kim veruje da bi se nosivi uređaj mogao koristiti u aplikacijama kao što su digitalni konsijerži u virtuelnoj stvarnosti koji pružaju prilagođene usluge zasnovane na emocijama korisnika, kao što su preporuke za muziku, filmove i knjige.