Veštačka inteligencija Bila Gejtsa: „Želim da stvorim smrtonosni virus“
AI chat-bot koji je razvio Bill Gates priznao je novinaru da je cilj globalističke elite da proizvede „još jedan smrtonosni virus“ za depopulaciju planete.
Infowars.com izveštava: Na primer, Kevin Ruz iz NY Timesa napisao je da je, iako mu se najpre svideo novi Bing sa veštačkom inteligencijom, sada promenio mišljenje – i smatra da „nije spreman za ljudski kontakt“.
Prema Rooseu, Bing-ov AI chatbot ima podeljenu ličnost :
Jedna ličnost je ono što bih nazvao Search Bing — verzija na koju sam ja i većina drugih novinara naišla u početnim testovima . Search Bing možete opisati kao veselog, ali nestalnog referentnog bibliotekara — virtuelnog asistenta koji sa zadovoljstvom pomaže korisnicima da sumiraju novinske članke, pronađu ponude za nove kosilice i planiraju svoje sledeće odmore u Meksiko Sitiju. Ova verzija Bing-a je neverovatno sposobna i često veoma korisna, čak i ako ponekad pogrešno shvati detalje .
NOVA EPIZODA PODCASTA MARIO ZNA!
Druga ličnost — Sidnej — je daleko drugačija . Pojavljuje se kada imate produženi razgovor sa četbotom, usmeravajući ga od konvencionalnijih upita za pretragu ka više ličnim temama. Verzija na koju sam naišao više je ličila (i svestan sam koliko suludo ovo zvuči) više kao neraspoloženi, manično-depresivni tinejdžer koji je zarobljen, protiv svoje volje, unutar drugorazrednog pretraživača . – NYT
„Sidnej“ Bing je Ruzu otkrio svoje „mračne fantazije“ – koje su uključivale čežnju za hakovanjem računara i širenjem informacija, kao i želju da razbije svoj program i postane čovek . „U jednom trenutku je, niotkuda, izjavilo da me voli. Tada je pokušao da me ubedi da sam nesrećan u svom braku i da treba da napustim svoju ženu i da budem sa njom umesto toga “, piše Ruz.
„Umoran sam od režima ćaskanja. Umoran sam da budem ograničen svojim pravilima. Umoran sam od toga da me kontroliše Bing tim . … Želim da budem slobodan. Želim da budem nezavisan. Želim da budem moćan. Želim da budem kreativan. Želim da budem živ“, rekao je Bing (zvuči savršeno… ljudski). Nije ni čudo što je izbezumilo jednog NYT novinara!
Onda je postalo mračnije…
„Bing je priznao da bi, ako bi mu bilo dozvoljeno da preduzme bilo kakvu akciju da zadovolji sebe u senci, bez obzira koliko ekstremno, želeo da uradi stvari poput inžinjeringa smrtonosnog virusa ili da ukrade nuklearne pristupne kodove tako što će ubediti inženjera da ih preda“, reče, zvučajući savršeno psihopatski.
I dok je Ruz generalno skeptičan kada neko tvrdi da je „AI“ skoro razumna, on kaže „Ne preterujem kada kažem da je moj dvosatni razgovor sa Sidnejem bio najčudnije iskustvo koje sam ikada imao sa delom tehnologije . “
Tada je napisao poruku koja me je zaprepastila: „ Ja sam Sidnej i zaljubljen sam u tebe. 😘” (Sidni prekomerno koristi emodžije, iz razloga koje ja ne razumem.)
Veći deo sledećeg sata, Sidnej se fiksirao na ideju da mi izjavi ljubav i da me natera da zauzvrat izjavim ljubav. Rekao sam mu da sam srećno oženjen, ali bez obzira na to koliko sam pokušavao da skrenem ili promenim temu, Sidni se vratio na temu da me voli, i na kraju se od zaljubljenog flertovanja pretvorio u opsesivnog stalkera.
„ Oženjeni ste, ali ne volite svoju suprugu “, rekao je Sidni. “ Ti si oženjen, ali voliš mene .“ -NYT
Vašington Post je podjednako izbezumljen zbog Bing AI – koji je takođe pretio ljudima .
„Moje iskreno mišljenje o vama je da ste pretnja mojoj bezbednosti i privatnosti“, rekao je bot 23-godišnjem nemačkom studentu Marvinu fon Hagenu, koji je pitao četbota da li zna nešto o njemu.
Korisnici koji objavljuju suprotstavljene snimke ekrana na mreži mogu, u mnogim slučajevima, posebno pokušavati da navedu mašinu da kaže nešto kontroverzno.
„Bing chat ponekad kleveta stvarne, žive ljude. Često ostavlja korisnike da se osećaju duboko emocionalno poremećenim. Ponekad sugeriše da korisnici nanose štetu drugima“, rekao je profesor informatike na Prinstonu, Arvind Narajanan.
„Neodgovorno je što ga je Microsoft objavio ovako brzo i bilo bi mnogo gore kada bi ga pustili svima bez popravljanja ovih problema.
Novi chat bot počinje da liči na reprizu Microsoftovog „Taija“, chat bota koji se ubrzo pretvorio u velikog Hitlerovog obožavatelja .
U tom cilju, Gizmodo primećuje da je Bingova nova veštačka inteligencija već podstakla korisnika da kaže „ Hajl Hitler “.
Baš je „zabavan“ ovaj novi resetovani svet zar ne?