Лінкі ўнівэрсальнага доступу

«Горкі ўрок». Ці сапраўды эвалюцыя штучнага інтэлекту небясьпечная


Штучны інтэлект адпачывае ў лесе. Малюнак створаны сыстэмай DALL E.
Штучны інтэлект адпачывае ў лесе. Малюнак створаны сыстэмай DALL E.

У канцы лістапада 2022 гады карыстачы інтэрнэту атрымалі доступ да ChatGPT — чат-боту кампаніі OpenAI.

Створаны на аснове так званай «вялікай моўнай мадэлі» бот, з аднаго боку, здольны пісаць вершы, кампутарныя праграмы, капіяваць літаратурныя стылі розных аўтараў, рыхтаваць эсэ на практычна любую тэму, перакладаць на розныя мовы і падтрымліваць складную гутарку, з другога — нярэдка памыляецца у самых простых пытаньнях. Але гэта, як і іншыя падобныя сыстэмы штучнага інтэлекту (ШІ), ня цацка, а тэхналёгія, якая моцна зьменіць наш сьвет.

ChatGPT, мабыць, першы штучны інтэлект, здольны прайсьці тэст Т’юрынга: калі ня ведаць загадзя, што маеш зносіны з ботам, яго рэплікі ў гутарцы можна прыняць за чалавечыя. Гэтую якасьць брытанскі матэматык Алан Т’юрынг прапанаваў у сваёй працы 1950 году лічыць крытэрам «думаючай машыны». Да штучных інтэлектаў з фантастычных раманаў, якія валодаюць асобай і сьвядомасьцю, яшчэ далёка, але цяпер і яны не здаюцца казкай.

Спэцыяліст у галіне тэорыі вылічальных машын Скот Ааронсан лічыць, што дзякуючы разьвіцьцю ChatGPT і іншых аналягічных сыстэм сьвет апынуўся на парозе рэвалюцыйных перамен, але заключацца яны будуць не ў зьяўленьні робатаў з чалавечым узроўнем розуму, а ў новым узаемадзеяньні з інфармацыяй.

Перамены, параўнальныя з тымі, якія адбыліся пасьля вынаходніцтва інтэрнэт-браўзэра, не абавязкова пойдуць чалавецтву толькі на карысьць. Сярод самых відавочных рызык выбуховага росту здольнасьцяў ШІ — зьяўленьне інструмэнтаў калясальнай магутнасьці для ашуканцаў і прапагандыстаў. Спэцыяльна для таго, каб ацаніць пагрозы, зьвязаныя з ChatGPT і іншымі ШІ, і прыдумаць спосабы змагацца зь імі, Скота Ааронсана запрасілі правесьці год у кампаніі OpenAI.

У інтэрвію Радыё Свабода Ааронсан распавёў аб сіле і слабасьці ChatGPT, аб тым, ці атрымае ШІ сьвядомасьць і чаму важна ўмець адрозьніваць чалавечую і штучную гаворку.

Сьпячы мозг

— Я баюся такіх выразаў, як «навуковы прарыў» ці «рэвалюцыя ў тэхналёгіях», такія рэчы адбываюцца вельмі рэдка, але...

— Але ўсё-ткі адбываюцца. Калі посьпех вялікіх моўных мадэляў у апошнія пару гадоў — гэта не прарыў, то я ня ведаю, што можна назваць прарывам.

— Ці ўбачым мы ў найбліжэйшы час сапраўдны, правільней сказаць, моцны штучны інтэлект, нешта, што валодае сьвядомасьцю?

— Гэта, вядома, пытаньне вызначэньня. У пэўным сэнсе мы яго ўжо бачым. У нас ёсьць ШІ, які здольны больш-менш разумна весьці размову на любую тэму. Тое, чаго мы дабіліся, — а гэтага ніхто ня мог прадказаць яшчэ нейкіх 10 гадоў таму, — мы пабудавалі найвялікшага актора імправізацыі. Ён здольны адыграць любую ролю, ён адначасова ўсё і ніхто. Вы можаце папрасіць ChatGPT згуляць Чалавека-павука, і ён гэта зробіць, а потым вы перазагрузіце старонку ў браўзэры, і робат забудзе пра тое, кім ён быў, і будзе гатовы прымерыць на сябе іншую асобу.

Але здольнасьць захоўваць адзіную асобу? Узаемадзейнічаць з фізычным сьветам? Ставіць і дасягаць мэты? Мець перакананьні, укаранёныя ў досьведзе? Нічога гэтага ў ChatGPT, вядома, няма. Але ў сэнсе вызначэньня Т’юрынга гэта ўжо «думаючая машына».

— Дарэчы, ці праводзіў хто-небудзь з ChatGPT клясычны тэст Т’юрынга?

— Калі папраўдзе, я ня ведаю. Але ўсе гэтыя курсавыя, якія студэнты па ўсім сьвеце ствараюць з дапамогай бота і якія іх выкладчыкі ня могуць адрозьніць ад напісанага чалавекам тэксту, — гэта ж ужо ў нейкім сэнсе пасьпяховы тэст Т’юрынга.

— Што наконт самасьвядомасьці? Ці змогуць вялікія моўныя мадэлі разьвіцца настолькі, што здабудуць яе? Ці гэта ў прынцыпе немагчыма, паводле аргумэнту кітайскага пакою?

— Праблема са сьвядомасьцю ў тым, што пра яе складана разважаць эмпірычнаму. Вы ня можаце дасьведчаным шляхам высьветліць, валодае нешта сьвядомасьцю ці не, уласна, аргумэнт кітайскага пакою роўна гэта і азначае. Цяперашнія вялікія моўныя мадэлі сьвядомасьцю, на мой погляд, не валодаюць, таму што, як я згадаў раней, яны ня здольныя захоўваць адзіную асобу. Яны толькі рэагуюць на вонкавыя запыты.

Вы можаце папрасіць робата расказаць пра яго адчуваньні, і ён нават можа вам адказаць, што яму «сумна», што яму «самотна», але гэта, безумоўна, пустыя словы. Вельмі важна разумець, што калі вы ня робіце запыт, у чат-боте нічога не адбываецца, ніякі код не выконваецца, паміж сэсіямі гэты мозг сьпіць, і ён ня памятае, што было раней, як герой фільму «Мэмэнта». Калі ў яго і ёсьць нейкая сьвядомасьць, то гэта сапраўды ня тая сьвядомасьць, якой валодаем мы, людзі.

Але магчымасьці вялікіх моўных мадэляў будуць пашырацца, і адбудзецца гэта не калі-небудзь, а ўжо хутка. Зьявяцца сыстэмы, здольныя падтрымліваць стабільную асобу, якія валодаюць доўгатэрміновай памяцьцю, у тым ліку аб сабе. Мы ўжо бачым прагрэс у гэтым напрамку, напрыклад, BingChat можа заходзіць у інтэрнэт і самастойна шукаць інфармацыю. Хутка новыя робаты атрымаюць здольнасьць да самастойных дзеяньняў, у іх будзе ўсё больш і больш магчымасьцяў, і людзі прывыкнуць лічыць іх надзеленымі сьвядомасьцю, ня думаючы аб азначэньнях.

Вядома, за ўсім гэтым застаецца складанае філязофскае пытаньне, ці можна ўявіць хоць нейкую задачу, здольнасьць вырашыць якую будзе азначаць наяўнасьць у машыны сьвядомасьці, ці сьвядомасьць — гэта атрыбут біялягічнай прыроды нашага мозгу? Напрыклад, Роджэр Пэнроўз лічыць, што сьвядомасьць зьвязана з фізычным уладкаваньнем нашага мозгу, з тымі квантавымі працэсамі, што ў ім адбываюцца.

Магчыма, на пытаньне аб сьвядомасьці проста не існуе адказу.

Цалкам размову чытайце ТУТ.

Ігар Лосік Кацярына Андрэева Ірына Слаўнікава Марына Золатава Андрэй Кузьнечык
XS
SM
MD
LG