Защо изкуственият интелект ни плаши толкова много?

Pin
Send
Share
Send

Когато хората видят машини, които реагират като хората, или компютри, които изпълняват подвизи на стратегия и познание, имитиращи човешката изобретателност, понякога се шегуват за бъдеще, в което човечеството ще трябва да приеме господарите на роботи.

Но погребан в шегата е семе на безпокойство. Писането на научнофантастични и популярни филми, от "2001: Космическа одисея" (1968) до "Отмъстителите: Ерата на Ултрон" (2015), спекулира с изкуствения интелект (AI), който надхвърля очакванията на създателите му и избягва контрола им , в крайна сметка изпреварвайки и поробени хора или насочени към тях за изчезване.

Конфликтът между хората и AI е фронт и център в научнофантастичната поредица на AMC „Хората“, която се завърна за своя трети сезон във вторник (5 юни). В новите епизоди съзнателните синтетични хора се сблъскват с враждебни хора, които се отнасят към тях със подозрение, страх и омраза. Насилието се търкаля, тъй като Synths се борят не само за основните права, но и за самото си оцеляване, срещу онези, които ги разглеждат като по-малко от човешкото и като опасна заплаха.

Дори в реалния свят не всеки е готов да посрещне AI с отворени обятия. През последните години, докато компютърните учени изтласкаха границите на това, което AI може да постигне, водещи фигури в технологиите и науката предупреждават за настъпващите опасности, които изкуственият интелект може да представлява за човечеството, дори предполагат, че възможностите на ИИ могат да обрекат човешката раса.

Но защо хората са толкова обезпокоени от идеята за AI?

"Екзистенциална заплаха"

Елон Мъск е един от изтъкнатите гласове, който вдигна червени знамена за AI. През юли 2017 г. Мъск каза на присъстващите на среща на Националната асоциация на управителите: „Имам излагане на най-авангардния ИИ и смятам, че хората трябва да са наистина загрижени за това“.

"Продължавам да звуча звънеца на алармата", добави Мъск. "Но докато хората не видят роботи, които вървят по улицата, убиват хора, те не знаят как да реагират, защото изглежда толкова ефирно."

По-рано, през 2014 г., Мъск бе обявил AI „най-голямата ни екзистенциална заплаха“, а през август 2017 г. той заяви, че човечеството е изправено пред по-голям риск от AI, отколкото от Северна Корея.

Физикът Стивън Хокинг, който почина на 14 март, също изрази загриженост относно злонамерения AI, казвайки пред Би Би Си през 2014 г., че „развитието на пълен изкуствен интелект може да заклина края на човешката раса“.

Освен това е по-малко от успокояване, че някои програмисти - особено тези с MIT Media Lab в Кеймбридж, Масачузетс - изглежда са решени да докажат, че AI може да бъде ужасяващо.

Грациозната Барселона на Каса Мила изглежда много по-малко поканена след преминаване през Кошмара. (Кредитна снимка: Кошмарна машина)

Невронна мрежа, наречена „Nightmare Machine“, въведена от компютърните учени от MIT през 2016 г., преобрази обикновените снимки в невероятни, разтревожени ада. AI, който групата на MIT нарече „Шели“, съставя страшни истории, обучени на 140 000 приказки за ужас, които потребителите на Reddit публикуват във форума r / nosleep.

"Интересуваме се как AI предизвиква емоции - страх, в този конкретен случай", Мануел Чебриан, ръководител на научните изследвания в MIT Media Lab, по-рано каза Live Science в имейл за страшните истории на Шели.

Страх и отвращение

Отрицателните чувства към AI обикновено могат да бъдат разделени на две категории: идеята, че AI ще стане съзнателна и ще се стреми да ни унищожи, и идеята, че неморалните хора ще използват AI за зли цели, Килиан Вайнбергер, доцент в катедра „Компютърни науки“ в университета Корнел, каза Live Science.

„Едно нещо, от което хората се страхуват, е, че ако свръх интелигентният ИИ - по-интелигентен от нас - стане съзнателен, той би могъл да се отнася към нас като по-ниски същества, както ние се отнасяме към маймуните“, каза той. "Това със сигурност би било нежелателно."

Опасенията обаче, че AI ще развие осведомеността и ще свали човечеството, се основават на погрешни схващания за това какво е AI, отбеляза Вайнбергер. AI работи при много специфични ограничения, определени от алгоритмите, които диктуват неговото поведение. Някои видове проблеми се съпоставят добре с наборите от умения на AI, което прави някои задачи сравнително лесни за изпълнение на AI. „Но повечето неща не отговарят на това и не са приложими“, каза той.

Това означава, че макар AI да е способен на впечатляващи подвизи в внимателно очертани граници - например игра на шах на майсторско ниво или бързо идентифициране на обекти в изображения - това е мястото, където способностите му свършват.

"AI достигайки съзнание - няма абсолютно никакъв напредък в изследванията в тази област", каза Вайнбергер. "Не мисля, че това е никъде в близкото ни бъдеще."

Другата тревожна идея - че безскрупулен човек би впрегнал ИИ по вредни причини - за съжаление е много по-вероятно, добави Вайнбергер. Почти всеки тип машина или инструмент може да се използва за добри или лоши цели, в зависимост от намерението на потребителя, а перспективата за оръжие да използва изкуствен интелект със сигурност е плашеща и би се възползвала от строгото правителствено регулиране, каза Уайнбъргер.

Може би, ако хората могат да оставят настрана страховете си от враждебна ИИ, те биха били по-отворени да признаят ползите от нея, предложи Вайнбергер. Подобрените алгоритми за разпознаване на изображения например биха могли да помогнат на дерматолозите да идентифицират бенки, които са потенциално ракови, докато самоуправляващите се автомобили могат един ден да намалят броя на смъртните случаи от автомобилни инциденти, много от които са причинени от човешка грешка, каза той пред Live Science.

Но в света на „Човеците“ от самосъзнаващите се Synths, страховете от съзнателен AI разпалват жестоки конфронтации между Synths и хората и борбата между хората и AI вероятно ще продължи да се раздува и ескалира - поне през настоящия сезон.

Бележка на редактора: Това е последната характеристика в поредица от статии от три части, свързани с AMC "Хората". Третият сезон дебютира на 5 юни в 22:00. EDT / 9 p.m. CDT.

Pin
Send
Share
Send