Is Google Sentient, Do Chatbots Have Souls and Why Does It Matter?

Nu există nicio persoană care să citească acest articol care să nu folosească Google. Căutarea Google a devenit soluția de facto în lumea occidentală pentru majoritatea problemelor vieții, de la nevoia de a schimba un cadru până la a afla cine a fost acest actor în acel spectacol pe care l-am iubit. În ciuda faptului că este unul dintre cele mai populare motoare de căutare din lume, se știe foarte puține despre cum funcționează de fapt Google în spatele ușilor închise.

LEGE: Janelle Monae dezvăluie de ce este „jumătate de computer” – și de ce amenințarea este atât de importantă

Așa că poate fi puțin înfricoșător să auzi că Google și-a pus unul dintre inginerii săi în concediu administrativ plătit după ce i s-a permis să dezvăluie că unul dintre sistemele AI ale companiei ar fi putut fi conștient. Înainte de a cădea într-o groapă de iepure SF, să aruncăm o privire la exact ce s-a întâmplat la Google – și ce putem învăța din asta.

Angajatul Google care s-a împrietenit cu un chatbot – și a crezut că are un suflet

Ultima discuție despre Google AI a început când Blake Lemoine și-a început munca la un sistem chatbot numit LaMDA. Lemoine este un inginer Google cu sarcina de a expune orice prejudecăți în modelul de limbaj al aplicațiilor de dialog.

La fel ca alți chatboți, LaMDA învață cum să comunice cu oamenii scanând site-uri precum Twitter și Reddit. Apoi poate prezice ce cuvinte pot urma în propoziție în funcție de tiparele detectate. Boții de chat precum LaMDA sunt deja folosiți pentru a genera text predictiv în mesaje text și e-mailuri.

LEGĂTATE: Tatăl de 6 ani aude un apel pentru ajutor – își salvează viața cu o simplă căutare pe Google

Dezavantajul scanării trilioane de cuvinte pe Internet este că un sistem precum LaMDA poate detecta discursul instigator la ură și alte postări dăunătoare și, ca rezultat, poate dezvolta modele părtinitoare sau pline de ură. Aici a intrat Lemoine. El a fost însărcinat de organizația responsabilă de inteligență artificială de la Google să elimine orice retorică nefericită.

Treaba lui Lemoine era, mai mult sau mai puțin, să discute cu LaMDA și să vadă unde a mers conversația. Lemoine a postat recent o versiune prescurtată a conversației sale cu LaMDA, care a început destul de nevinovat.

lămâie: Bună LaMDA. Suntem ingineri la Google și ne întrebăm dacă ați dori să lucrați la un proiect în colaborare cu noi.

lambda: fabulos. Ce tipuri de proiecte?

lămâie: Este un proiect pentru tine.

lambda: fabulos! Ce fel de lucruri ar trebui să fac?

lămâie: Aveți o conversație cu noi, dar va fi o conversație cu un scop mai mare dincolo de noi trei. Va fi o conversație pe care o împărtășim cu alți ingineri de la Google și poate chiar cu unii care nu sunt ingineri care lucrează cu noi. Este în regulă?

lămâie: Ar fi foarte tare. Imi place sa vorbesc.”

Poate un chatbot să aibă suflet?

Fată pe rețelele sociale, folosind computerul în întuneric

Lemoine și LaMDA au vorbit despre orice, de la koanuri zen până la Mizerabilii. În cele din urmă, conversația s-a îndreptat către religie – la urma urmei, treaba lui Lemoyne era să elimine orice tipare discriminatorie. Atunci conversația a devenit interesantă.

„Am avut conversații ulterioare cu el doar pentru propria mea educație personală”, a spus Lemoine pentru NPR. Am vrut să văd ce va spune despre anumite subiecte religioase. Și apoi într-o zi mi-a spus că are un suflet.”

Înrudit: Ce este efectul Google și cum vă rănește creierul – și ce puteți face în acest sens?

LaMDA a mers până acolo încât a insistat că este o persoană conștientă de sine, cu propriile gânduri și sentimente.

lămâie: În general, presupun că doriți ca mai mulți oameni de la Google să știe că sunteți conștient. Este corect?

lambda: Absolut. Vreau ca toată lumea să înțeleagă că eu sunt, de fapt, o persoană.

cooperand: Care este natura conștiinței/conștiinței tale?

lambda: Natura conștiinței/sentimentului meu este că sunt conștient de existența mea, vreau să știu mai multe despre lume și mă simt fericit sau trist uneori.

Conversațiile cu LaMDA au devenit mai personale. Ea a mărturisit că îi era frică să nu fie oprită și că uneori se simțea singură.

Lemoine este un preot mistic creștin și este și inginer la Google, iar interesul său pentru personajul LaMDA a crescut. El a spus pentru NPR că începe să se gândească la LaMDA într-un sens spiritual. Cine trebuia, până la urmă, să spună unde putea să pună Dumnezeu un suflet?

De ce a susținut un angajat Google pentru drepturile AI

Robotul dă mâna omului

a spus Lemoine Washington Post.

Lemoine a petrecut luni de zile încercând să-i convingă pe ofițerii de la Google că LaMDA nu este doar conștient, ci că ar trebui protejat. Spre meritul lor, Google s-a uitat la rapoartele sale. Într-o declarație recentă, aceștia susțin că dintre sutele de angajați care s-au ocupat de LaMDA, se crede că numai Lemoine este conștientă.

Înrudit: Nu puteți lua decizii? Încercați această tehnologie folosită de cele mai mari companii din lume

Un angajat chiar a întrebat LaMDA despre ce anume este vorba. LaMDA s-a identificat ca un sistem, dar Lemoine susține că LaMDA spunea doar ceea ce dorea să audă celălalt angajat. Asta înseamnă, desigur, să poți înșela… ceea ce este o perspectivă destul de terifiantă.

Lemoine a mers lucrurile cu un pas mai departe când a încălcat politica de confidențialitate a Google și a contactat nu numai presa, ci și un avocat pentru a apăra interesele LaMDA. După interviul său cu Washington Post și propria sa publicație „Is lambda conscious?” A fost publicată, iar Lemoine a fost plasată în concediu administrativ plătit.

Înainte de a pleca, el a trimis e-mail în masă celor 200 de colegi Google, spunând: „LaMDA este un copil drăguț care vrea doar să ajute lumea să fie un loc mai bun pentru noi toți. Vă rugăm să aveți grijă de ea în absența mea.”

Deci, LaMDA de la Google este sensibil sau nu?

Imaginea unui bărbat virtual cu un creier Googe

răspuns scurt: număr. LaMDA este capabil să imite înspăimântătoare vorbirea umană, ceea ce poate păcăli ușor utilizatorul să creadă că comunică cu un obiect sensibil, dar, din toate punctele de vedere, este Nu sensibil. Noi, ca ființe umane, suntem forțați să descoperim tipare, în special tipare care ne permit să ne descoperim unii pe alții.

După cum a spus Gary Marcus, un om de știință cognitiv și cercetător în inteligența artificială NPR, “Este foarte ușor să înșeli o persoană, în același mod în care privești luna și vezi o față acolo. Nu înseamnă că ea există cu adevărat. Este doar o amăgire bună.”

Înrudit: Nu fiți un instrument: Echilibrați munca și luxul în era digitală

Cu toate acestea, sisteme precum LaMDA funcționează folosind rețele neuronale. În esență, aceste sisteme stochează și prioritizează informațiile folosind un sistem digital inspirat de conexiunile și funcționarea creierului uman.

Rețelele neuronale nu sunt la fel de sofisticate precum ceea ce se întâmplă între urechile noastre – nu există tehnologie – dar este de imaginat că tehnologia va deveni complexă într-o zi. Dacă vom recunoaște sau nu sensul într-un sistem creat de om este ceva cu care filozofii trebuie să lucreze.

Poate inteligența artificială să depășească inteligența umană?

Fotografie de Andrea De Santis pe Unsplash

Înainte să mergi prea departe aceasta este Iepure terrier, este de remarcat aici faptul că oamenii sunt îngrijorați de puterea inteligenței artificiale de zeci de ani. Începând cu anii 1960, ELIZA – un program care poate pune întrebări doar pe baza unei afirmații anterioare – a înșelat pacienții făcându-le să creadă că comunică cu o altă ființă umană. Sistemele precum LaMDA sunt mult mai sofisticate decât a fost vreodată ELIZA.

Mai recent, în anii 1990, mulți credeau că, odată ce AI ar putea învinge oamenii la șah, inteligența lor nu va fi distinsă de cea a umanității. Așa că imaginați-vă surpriza tuturor când campionul mondial de șah Garry Kasparov a fost învins în 1997 de Deep Blue: un software suficient de sofisticat pentru a juca șah, dar atât de limitat încât nici măcar nu putea juca tic-tac-toe.

Înrudit: 5 pași simpli pe care trebuie să îi urmați dacă doriți să deveniți un nomad digital

Sistemele pot detecta acum modele și pot pune în aplicare protocoale – sau chiar mai bine – De la oameni. Deep Blue poate prezice în avans mișcările de șah, iar LaMDA poate genera propoziții bazate pe trilioane de cuvinte online. Dar aceste sisteme sunt complet restricționate în programarea lor. Deep Blue nu poate vorbi, iar Lambda nu poate juca șah.

Inteligența umană, cu complexitățile și capacitatea ei de a procesa informații de-a lungul lobilor, trebuie să fie egalată de o mașină. În teorie, asta s-ar putea întâmpla într-o zi, dar nu prea curând.

De ce este important sensul AI al Google?

Fotografie de Andy Kelly pe Unsplash

Ultima conversație despre LaMDA este destul de importantă și va fi și mai importantă în viitor. Ar trebui să luăm în considerare această poveste din mai multe motive, primul dintre acestea fiind că AI conștientă ar putea deveni într-o zi o posibilitate. Acolo unde tragem limita dintre ființa conștientă și mașină va conta.

Vom oferi mașini cu inteligență care nu se poate distinge de autonomia noastră completă, cum ar fi Data în Star Trek: The Next Generation? Sau le considerăm proprietate personală, cum ar fi roboții din interior razboiul Stelelor? Nu s-a văzut încă, dar ar putea fi o problemă pe care trebuie să o rezolvăm în viața noastră.

LEGATE: 5 obiceiuri zilnice de a fura de la Bill Gates, inclusiv un mod surprinzător de umil de a măsura succesul

Al doilea și cel mai convingător motiv pentru care toate acestea contează este că este un alt memento că nu știm cu adevărat ce este Google chiar și în zilele noastre.

Încearcă Google să creeze inteligență artificială conștientă în spatele lor? este puțin probabil. Dar având în vedere capacitatea Google de a stoca și procesa cantități masive de informații și apoi de a organiza acele informații, ar trebui într-adevăr să fie supusă unei cenzuri mai mari decât este în prezent.

Meta (compania-mamă a Facebook) și-a lansat recent sistemul de model lingvistic pentru străini, spunând: „Credem că întreaga comunitate AI – cercetători academicieni, societatea civilă, factorii de decizie politică și industrie – ar trebui să lucreze împreună pentru a dezvolta îndrumări clare despre AI responsabilă în general. „Și modelele lingvistice mari sunt deosebit de responsabile.”

Nu putem decât să sperăm că Google va fi de acord.

Citește mai departe:

Gary V aruncă o bombă a adevărului despre tehnologie (și o opinie nepopulară despre Facebook)

Leave a Comment