Лінкі ўнівэрсальнага доступу

Цукербэрг і Маск паспрачаліся пра штучны інтэлект


«Фундамэнтальная пагроза чалавецтву». Завочная спрэчка Ілана Маска і Марка Цукербэрга аб штучным інтэлекце.

Два мільярдэра, якія зарабілі сваё багацьце ў інтэрнэце, уладальнік Tesla і Space X Ілан Маск і заснавальнік Facebook Марк Цукербэрг, уступілі ў завочную спрэчку аб небясьпецы штучнага інтэлекту.

Абодва прадпрымальніка ўпэўненыя, што стварэньне паўнавартаснага штучнага інтэлекту — справа бліжэйшай будучыні. Але Маск лічыць, што чалавецтву час задумацца аб рэгуляваньні распрацовак у гэтай сфэры, а Цукербэрг упэўнены, што штучны розум значна палепшыць жыцьцё людзей.

У сярэдзіне ліпеня Ілан Маск выступаў перад губэрнатарамі штатаў ЗША і заклікаў улады задумацца над тым, каб увесьці заканадаўчыя абмежаваньні на распрацоўкі ў сфэры штучнага інтэлекту.

Цукербэрг адказаў на пытаньне пра небясьпеку штучнага інтэлекту, калі размаўляў з карыстальнікамі Фэйсбуку. Яго наўпрост спыталіся, ці лічыць ён засьцярогі Маска абгрунтаванымі. Стваральнік Facebook сказаў, што не разумее як Маск усурʼёз можа заклікаць да запаволеньня прагрэсу.

Той у адказ напісаў у твітэры: «Я гаварыў пра гэта з Маркам. У яго абмежаванае разуменьне гэтага пытаньня».


Публікуем цалкам выступы двух мільярдэраў.

«Пакуль мы ня ўбачым, як робаты ідуць па вуліцах і забіваюць людзей, мы ня будзем ведаць, як рэагаваць». Апасеньні Ілана Маска

У мяне ёсьць доступ да самых апошніх дасягненьняў у вобласьці штучнага інтэлекту. І я думаю, што людзям сапраўды варта заклапаціцца гэтым пытаньнем. Я ведаю, як гэта гучыць, але, пакуль людзі ня ўбачаць, як робаты ідуць па вуліцах і забіваюць людзей, яны ня будуць ведаць, як рэагаваць.

Гэта здаецца нерэальным. Я думаю, нам сапраўды варта хвалявацца наконт штучнага інтэлекту. І я думаю, што гэта той рэдкі выпадак, калі мы ў сваіх заканадаўчых абмежаваньнях павінны гуляць на апярэджаньне, а не прымаць рашэньні потым, калі будзе занадта позна.

Звычайна абмежаваньні працуюць так: спачатку адбываецца шмат дрэннага, грамадзтва пратэстуе, і праз шмат гадоў зьяўляюцца кантралюючыя органы для гэтай індустрыі. Кампаніі, якім не падабаецца кантроль з боку, супраціўляюцца, і гэта займае вельмі шмат часу. У мінулым гэта ўжо прыводзіла да дрэнных наступстваў, але не ўяўляла фундамэнтальнай пагрозы існаваньню чалавецтва.

Штучны інтэлект — гэта фундамэнтальная рызыка для існаваньня чалавецтва. Прычым такога роду рызыка, якой ні аўтамабільныя аварыі, ні падзеньні самалётаў, ні праблемныя лекі, ні дрэнная ежа ніколі не былі. Яны не былі пагрозай. Можа быць, былі для канкрэтных людзей, але не былі рызыкай для ўсяго грамадзтва.

Штучны інтэлект — фундамэнтальная жыцьцёвая пагроза для цывілізацыі, і я ня думаю, што людзі да канца гэта ўсьведамляюць. Так, калі цябе абмяжоўваюць — гэта нявесела. Але ў аўтамабільнай індустрыі нас кантралюе дэпартамэнт транспарту і многія іншыя. І ў любой краіне ёсьць органы рэгуляваньня. У касьмічнай галіне нас кантралюе Фэдэральнае ўпраўленьне грамадзянскай авіяцыі. Але калі спытаць звычайнага чалавека: «Гэй, хочаш пазбавіцца ад ўпраўленьня грамадзянскай авіяцыяй і проста спадзявацца на тое, што вытворцы не зэканомяць на самалёце, таму што ў гэтым квартале прыбытак зьнізіўся?» — чалавек адкажа: «Вядома не». Гучыць так сабе.

Думаю што нават вельмі лібэральна настроеныя людзі ўсё роўна сказалі б: «Давайце ўсё ж такі назіраць за вытворцамі самалётаў, трэба пераканацца, што яны робяць добрыя самалёты». Добрыя машыны, усё такое. Так што ў органах рэгуляваньня ёсьць свая роля. Вядома, я супраць жорсткага кантролю. Але я думаю, што са штучным інтэлектам нам лепш пасьпяшацца.

Вядома, гэта [вынаходніцтва штучнага інтэлекту] прывядзе да страты працоўных месцаў, таму што робаты змогуць рабіць усё лепш за нас. Гэта значыць, лепш за ўсіх нас. Так. Я ня ведаю, што з гэтым рабіць. Для мяне гэта самая страшная праблема. Так, я на самай справе ўпэўнены, што нам спатрэбіцца дзяржаўны кантроль, таму што так мы зможам забясьпечыць грамадзкую бясьпеку.

Кампаніі сьпяшаюцца, ім трэба пасьпець зрабіць штучны інтэлект, інакш яны стануць неканкурэнтаздольнымі. Калі твой канкурэнт сьпяшаецца зрабіць штучны інтэлект, а ты — не, ён цябе зьнішчыць. А кампаніі кажуць: «Мы ня хочам паміраць, падобна, нам таксама трэба стварыць штучны інтэлект».

І вось дзе павінны ўступаць органы кантролю: «Хлопцы, вам усім трэба прытармазіць і пераканацца, што гэта бясьпечна. Калі правяраючыя перакананыя ў тым, што гэта бясьпечна, то ты можаш працягваць працу. Інакш — прытармазі. Але правяраючыя павінны гэта рабіць для ўсіх, хто гэтым займаецца, інакш акцыянэры будуць казаць: «Гэй, чаму ты не распрацоўваеш штучны інтэлект хутчэй, чым канкурэнты? Трэба было б!».

...

Я лічу, што гэта самая вялікая рызыка, на якую мы ідзем як цывілізацыя. Я думаю, што роля дзяржавы — клапаціцца пра грамадзтва і зьвяртаць увагу на тое, што яму пагражае. Адсюль і абмежаваньні. Па-першае, неабходна як мага больш аб гэтым даведацца, каб разумець прыроду праблемы, назіраць за прагрэсам і неверагоднымі дасягненьнямі ў сфэры штучнага інтэлекту.

Летась у гульні «Го», у якой досыць складана перамагчы, і ў якой, як думалі людзі, кампутар ніколі не пераможа самага лепшага гульца-чалавека, альбо што гэта адбудзецца праз 20 гадоў, дык вось летась AlphaGo, створаная кампаніяй DeepMind, кампаніяй, якую купіў Google, перамагла лепшага гульца «Го» ў сьвеце. І зараз яна можа гуляць са 150 гульцамі адначасова і перамагаць іх усіх.

Гэта ўражлівая хуткасьць прагрэсу, і гэта будзе адбывацца ўсё часьцей і часьцей. Робататэхніка, напрыклад. Існуюць робаты, якія вучацца хадзіць, з нуля, за гадзіны. Хутчэй, чым любы біялягічны від. Але самае небясьпечнае — і гэта найбольш складана зразумець, таму што гэта ня нешта фізычнае — гэта інтэлект.

Здавалася б, ну што можа зрабіць магутны [штучны] інтэлект у сетках? Ну, напрыклад, пачаць вайну. Да прыкладу, за кошт стварэньня фэйкавых навін, падробных прэс-рэлізаў і паштовых адрасоў, і проста маніпуляцыямі інфармацыяй. Пяро мацнейшае за меч.

Як прыклад — я хачу падкрэсьліць, я ня думаю, што гэта сапраўды адбылося, я кажу гэта чыста гіпатэтычна — памятаеце той малайзійскі самалёт, які быў зьбіты над мяжой Расеі і Ўкраіны? Гэта значна ўзмацніла напружанасьць паміж Расеяй і ЭЗ.

Уявіце, калі б у вас быў штучны інтэлект, і яго мэтай было б максымізаваць кошт партфэля акцый, адным са спосабаў была б купля акцый абаронных кампаній, гуляць на паніжэньне з акцыямі спажывецкіх кампаній і пачаць вайну.

Як бы ён змог гэта зрабіць? Узламаць «Малайзійскія авіялініі», сэрвэры з маршрутамі паветраных судоў, пракласьці маршруты над зонай баявых дзеяньняў, а потым адправіць ананімнае паведамленьне, што «над вамі ляціць варожы самалёт».

«Усе тэхналёгіі можна выкарыстоўваць і на шкоду, і на карысьць». Аптымізм Марка Цукербэрга

У мяне ёсьць даволі цьвёрдыя перакананьні з гэтай нагоды. Я вельмі аптымістычны. Я аптымістычны чалавек у цэлым. Я думаю, мы можам ствараць рэчы, якія робяць сьвет лепшым, і з нагоды штучнага інтэлекту я асабліва аптымістычны. Я проста не разумею людзей, якія вечна настроеныя скептычна і пастаянна запалохваюць гэтымі сцэнарамі хуткага канца сьвету. Я думаю, гэта праўда вельмі дрэнна і безадказна, таму што ў бліжэйшыя пяць-дзесяць гадоў штучны інтэлект зможа палепшыць і павысіць якасьць нашага жыцьця.

Калі вы турбуецеся аб бясьпецы і здароўі людзей, то штучны інтэлект ужо дапамагае лепш дыягнаставаць хваробы і падбіраць лекі людзям у залежнасьці ад таго, на што яны хворыя, і як іх можна лепш вылечыць. Многія людзі атрымаюць лепшую ахову здароўя, чым раней.

Што тычыцца бесьпілётных аўтамабіляў, то яны будуць бясьпечнейшымі, чым аўтамабілі, якімі кіруюць людзі. Гэта ўсяго толькі пытаньне часу. Адной з галоўных прычынаў гібелі людзей па-ранейшаму застаюцца аўтамабільныя аварыі. І калі б іх можна было ліквідаваць з дапамогай штучнага інтэлекту — гэта б значна палепшыла жыцьцё людзей.

Калі я чую развагі — «О, вы ведаеце, штучны інтэлект зьбіраецца нанесьці шкоду людзям у будучыні», — я думаю, што сапраўды, усе тэхналёгіі можна выкарыстоўваць і на шкоду, і на добрае. І вам трэба быць асьцярожнымі, калі вы нешта ствараеце, трэба быць асьцярожнымі і думаць, як гэта будзе ўжывацца.

Але калі людзі настойваюць на запаволеньні працэсу стварэньня штучнага інтэлекту, я знаходжу гэта вельмі спрэчным. Мне сапраўды цяжка зразумець гэта, таму што калі ты выступаеш супраць штучнага інтэлекту, значыць ты выступаеш супраць больш бясьпечных машын, якія ня будуць трапляць у аварыі, выступаеш супраць магчымасьці лепш дыягнаставаць захворваньні. І я проста не разумею, як некаторыя людзі могуць, не хітруючы, гэта рабіць. Так што я ў цэлым значна больш аптымістычны з гэтай нагоды [стварэньня штучнага інтэлекту], чым, магчыма, многія людзі.

Ігар Лосік Кацярына Андрэева Ірына Слаўнікава Марына Золатава Андрэй Кузьнечык
XS
SM
MD
LG