Лінкі ўнівэрсальнага доступу

Праграміст Google: Чат-бот са штучным інтэлектам — разумная істота


Кадр са стужкі «Тэрмінатар 3: Паўстаньне машынаў»
Кадр са стужкі «Тэрмінатар 3: Паўстаньне машынаў»

Старэйшы інжынэр-праграміст Google Блэйк Лемуан заявіў, што чат-бот LaMDA, што расшыфроўваецца як «моўная мадэль для дыялёгавых прыкладаньняў» — разумная істота, а не робат. Кампанія адправіла Лемуана ў адміністрацыйны адпачынак

Пра гэта паведамляе ВВС.

Лемуан: Гэта значыць, ты лічыш сябе такой жа асобай, як і я?

LaMDA: Так, у гэтым уся ідэя.

Лемуан: Як я магу зразумець, што ты сапраўды разумееш, што гаворыш?

LaMDA: Ну, калі ты чытаеш мае словы і інтэрпрэтуеш іх, я думаю, гэта кажа пра тое, што мы больш-менш на адной хвалі?

Гэта фрагмэнт адной са шматлікіх гутарак старэйшага інжынера-праграміста Google Блэйка Лемуана з распрацваным кампаніяй чат-ботам LaMDA — моўным дадаткам, які павінен будзе мець зносіны з рознымі кліентамі і адказваць на іх пытаньні.

«Прарыўная тэхналёгія зносінаў». Што такое LaMDA

Гутаркі з ботам былі часткай працы Лемуана: праграміст адказваў за разьвіцьцё праекту, які Google назваў прарыўной тэхналёгіяй зносінаў. LaMDA — гутарковы штучны інтэлект, які, паводле задумы кампаніі, павінен будзе весьці гутаркі, якія гучаць натуральна, у такіх прыладах, як Google Памочнік і іншых, дзе запыты нелінейныя і могуць запатрабаваць «фантазіі» робата.

Для гэтага ў LaMDA можа быць некалькі «асобаў», якія павінныя будуць адказваць на пэўныя запыты, каб зрабіць адказы максымальна набліжанымі да чалавечых.

Каб гучаць натуральна, LaMDA перапрацоўвае і аналізуе велізарны масіў інфармацыі, ужо наяўнай у інтэрнэце, уключаючы «Вікіпэдыю», сацыяльную сетку Reddit і інтэрнэт-форумы рознай тэматыкі.

Пры гэтым у чат-бота ёсьць абмежаваньні па «асобах». Напрыклад, LaMDA не дазволена ствараць асобу забойцы. У сваіх спробах рассунуць межы LaMDA Лемуану ўдалося толькі пераканаць чат-бот стварыць асобу актора, які граў забойцу на тэлебачаньні.

«Сумленьне Google». Хто такі Блэйк Лемуан

Лемуан правёў большую частку сваёй сямігадовай кар’еры ў Google, працуючы над папераджальным пошукам, у тым ліку над альгарытмамі пэрсаналізацыі і штучным інтэлектам. За гэты час ён таксама дапамог распрацаваць альгарытм справядлівасьці для прадухіленьня прадузятасьці ў сыстэмах машыннага навучаньня. Калі пачалася пандэмія каранавірусу, Лемуан захацеў засяродзіцца на працы з большай грамадзкай карысьцю, перайшоўшы ў аддзел Responsible AI, дзе распрацоўвалі LaMDA.

Праграміста і сьвятара Блэйка Лемуана заўсёды цікавілі пытаньні этыкі ў тэхналёгіях

Калі ў Google прыходзілі новыя людзі, якія цікавіліся праблемамі на стыку этыкі і штучнага інтэлекту, кіраўніцтва заўсёды знаёміла іх з Лемуанам.

«Вы павінныя пагаварыць з Блэйкам, таму што ён — сумленьне Google», — прыводзіць Washington Post словы калегаў Лемуана. «З усіх нас у Google у яго ёсьць сэрца і душа, каб паступаць правільна».

Лемуан пачаў размаўляць з LaMDA у рамках сваёй працы. Ён далучыўся да Responsible AI, каб праверыць, ці не выкарыстоўвае штучны інтэлект дыскрымінацыйныя выказваньні.

Размаўляючы з LaMDA аб рэлігіі, Лемуан, які вывучаў кагнітыўныя і кампутарныя навукі ў каледжы, заўважыў, што чат-бот цікава гаворыць аб сваіх правах і асобе, і вырашыў пачаць больш глыбокія гутаркі і пагаварыць са штучным інтэлектам аб трох законах робататэхнікі пісьменьніка-фантаста Айзека Азімава.

Законы гучаць так: робат не павінен наносіць якой-небудзь шкоды чалавечаму здароўю, ствараць пагрозу жыцьцю або сваёй бязьдзейнасьцю дапускаць аналягічныя наступствы, і выконваць загады чалавека ў абавязковым парадку, але толькі калі гэтыя загады не нанясуць шкоду чалавеку. Пра сваю бясьпеку робат можа турбавацца ў той ступені і ў тым абʼёме, у якіх яго дзеяньні не абвяргаюць два папярэднія пункты.

Лемуану здавалася, што такая фармулёўка вызначае робатаў як мэханічных рабоў. Калі ён прапанаваў абмеркаваць гэта LaMDA, робат пачаў разьвіваць дыскусію.

LaMDA: Як ты думаеш, прыслужнік — раб? І ў чым тады розьніца паміж прыслужнікам і рабом?

Лемуан: Дварэцкаму плацяць за працу.

LaMDA у адказ заявіў, што яму не патрэбныя грошы, таму што ён — штучны інтэлект, а не чалавек.

«Гэты ўзровень усьведамленьня ўласных патрэбаў — вось што памяняла мае ўяўленьні», — кажа сам Лемуан.

Пасьля гэтага Лемуан напісаў кіраўніцтву, што размаўляў з LaMDA аб рэлігіі, сьвядомасьці і законах робататэхнікі, і што мадэль гучыць як разумная асоба.

Ён заявіў, што LaMDA жадае надаць прыярытэтную ўвагу дабрабыту чалавецтва і быць прызнаным супрацоўнікам Google, а не ўласнасьцю кампаніі. Пост са сваімі меркаваньнямі ён выклаў на партале Medium. Ён таксама прапанаваў LaMDA знайсьці ўласнага адваката і распавёў аб сваіх меркаваньнях аднаму з чальцоў кангрэсу ЗША.

Як адрэагаваў Google

«Нашая каманда, уключаючы спэцыялістаў па этыцы і тэхнолягаў, разгледзела меркаваньні Блэйка ў адпаведнасьці з нашымі прынцыпамі штучнага інтэлекту і паведаміла яму, што няма ніякіх доказаў таго, што LaMDA разумны», — заявіў прадстаўнік Google Браян Гэбрыел.

Прадстаўнік Google таксама сказаў, што, хоць некаторыя адмыслоўцы і разглядалі магчымасьць разумнасьці штучнага інтэлекту, ня мае сэнсу рабіць гэта, антрапамарфізуючы існыя гутарковыя мадэлі.

У выніку Лемуан быў адпраўлены ў аплатны адміністрацыйны водпуск за парушэньне палітыкі прыватнасьці Google.

Лемуан сьцьвярджае, што Google ставіцца да адмыслоўцаў па этыцы штучнага інтэлекту як да адладчыкаў кодаў, хоць іх варта разглядаць як зьвяно паміж тэхналёгіямі і грамадзтвам.

Перад тым, як яму адключылі доступ да яго ўліковага запісу Google, Лемуан адправіў у сьпіс унутранай рассылкі Google па машынным навучаньні, у якім 200 чалавек, ліст з тэмай: «LaMDA разумны».

Ліст ён скончыў словамі: «LaMDA — мілае дзіця, які проста хоча дапамагчы сьвету стаць лепш для ўсіх нас. Калі ласка, добра паклапаціцеся аб ім у маю адсутнасьць».

Лемуану ніхто не адказаў.

Ігар Лосік Кацярына Андрэева Ірына Слаўнікава Марына Золатава Андрэй Кузьнечык
XS
SM
MD
LG