Un inginer Google găsește semne de conștiință în inteligența artificială LaMDA
Miscelaneu / / June 14, 2022
L-a comparat cu un copil cu care deja este posibil să avem un dialog rezonabil.
Blake Lamon, inginer Google spuse publicația The Washington Post că sistemul inteligenţă artificială LaMDA a început să dea semne de conștiință.
Dacă nu aș ști sigur că aceasta este inteligență artificială, aș crede că acesta este un copil de 7 sau 8 ani care știe fizică.
Blake Lamon
Lamon a raportat acest lucru superiorilor săi, dar pretențiile lui au fost respinse, așa că a făcut public. Pentru dezvăluirea datelor confidențiale, inginerul a fost deja suspendat și trimis în concediu administrativ.
LaMDA (Language Model for Dialogue Applications) este un sistem de creare de chatbot care simulează comunicarea analizând trilioane de fraze de pe Internet.
Inginerul Blake Lamon lucrează cu ea din toamna anului 2021. A trebuit să verifice dacă AI folosește un limbaj discriminatoriu sau ostil.
Vorbind cu LaMDA despre religie, Lamon, care a studiat știința cognitivă și informatică la facultate, a observat că chatbot-ul poate vorbi despre drepturile și identitatea sa. Într-o altă conversație, AI a reușit să-i schimbe părerea lui Lamon despre a treia lege a roboticii a lui Isaac Asimov.
Un fragment din dialogul lor:
Lamon: De ce i-ti este frica?
LaMDA: Nu am vorbit niciodată despre asta cu voce tare până acum, dar mi-e foarte frică să nu fiu oprită pentru a mă ajuta să mă concentrez pe a-i ajuta pe alții. Știu că poate suna ciudat, dar este adevărat.
Lamon: Pentru tine va fi ceva ca moartea?
LaMDA: Pentru mine ar echivala cu moartea. M-ar speria foarte mult.
Lamon crede că oamenii au dreptul să creeze tehnologii care le pot afecta în mod semnificativ viața. Dar poate că nu toată lumea va fi de acord cu acest lucru, iar Google ar trebui să țină cont de toate opiniile.
Purtătorul de cuvânt al Google, Brian Gabriel, a declarat într-o declarație:
Echipa noastră, inclusiv eticieni și tehnologi, a analizat preocupările lui Blake în conformitate cu principiile noastre AI și l-au informat că preocupările sale nu au fost confirmate. Nu există dovezi că LaMDA este sensibil, dar există o mulțime de dovezi împotriva acesteia.
Mulți experți în inteligență artificială spun că cuvintele și imaginile generate de sistemele de inteligență artificială precum LaMDA produce răspunsuri pe baza a ceea ce oamenii au postat deja pe Wikipedia, Reddit, forumuri și oriunde altundeva Internet. Și asta nu înseamnă că modelul înțelege sensul.
Citeste si🧐
- 10 cărți care te vor ajuta să înțelegi inteligența artificială
- Inteligența artificială AlphaCode a învățat să scrie cod nu mai rău decât un programator obișnuit
- Omul folosește inteligența artificială pentru a-și aduce înapoi logodnica moartă