Общият и повтарящ се възглед за най-новите пробиви в изследванията за изкуствен интелект е, че разумните и интелигентни машини са точно на хоризонта. Машините разбират словесни команди, различават картини, карат коли и играят игри по-добре от нас. Колко по-дълго може да мине, преди да тръгнат сред нас?
Новият доклад на Белия дом за изкуствения интелект възприема по подходящ начин скептично този сън. В него се казва, че през следващите 20 години вероятно машините не „показват широко приложима интелигентност, сравнима или превишаваща тази на хората“, въпреки че продължава да се твърди, че в следващите години „машините ще достигнат и надвишат човешките характеристики на повече и още задачи. " Но предположенията му за това как ще се развият тези способности пропуснаха някои важни точки.
Като изследовател на ИИ, ще призная, че беше хубаво моята собствена област да бъде изтъкната на най-високото ниво на американското правителство, но докладът се фокусира почти изключително върху това, което наричам „скучния вид ИИ“. Той отхвърли с половин изречение моя клон от изследвания на ИИ, как еволюцията може да помогне за развитието на непрекъснато усъвършенствани ИИ системи и как изчислителните модели могат да ни помогнат да разберем как се е развила нашата човешка интелигентност.
Докладът се фокусира върху това, което може да се нарече основни инструменти за ИИ: машинно обучение и задълбочено обучение. Това са видове технологии, които са успели да играят "Опасност!" добре, и победи човеците Go господари в най-сложната игра, изобретявана някога. Тези съвременни интелигентни системи са в състояние да обработват огромни количества данни и да правят сложни изчисления много бързо. Но им липсва елемент, който ще бъде ключов за изграждането на разумните машини, които представяме в бъдеще.
Трябва да правим повече от това да научим машините да се учат. Трябва да преодолеем границите, които определят четирите различни типа изкуствен интелект, бариерите, които отделят машините от нас - и нас от тях.
AI тип I: реактивни машини
Най-основните видове AI системи са чисто реактивни и нямат възможност нито да формират спомени, нито да използват предишен опит за информиране на текущите решения. Deep Blue, шахматният суперкомпютър на IBM, който победи международния гросмайстор Гари Каспаров в края на 90-те години, е идеалният пример за този тип машини.
Deep Blue може да идентифицира парчетата на шахматна дъска и да знае как се движи всеки. Той може да прогнозира какви движения могат да бъдат следващите за него и противника му. И тя може да избере най-оптималните движения измежду възможностите.
Но тя няма понятие от миналото, нито спомен за случилото се преди. Освен рядко използваното правило, характерно за шах, срещу повторение на един и същи ход три пъти, Deep Blue пренебрегва всичко преди настоящия момент. Всичко, което прави, е да погледне парчетата на шахматната дъска, както е в момента, и да изберете от възможни следващи ходове.
Този тип интелигентност включва компютъра, който възприема света пряко и действа върху това, което вижда. Не разчита на вътрешна концепция за света. В една семинарна книга, изследователят на AI Родни Брукс твърди, че трябва да изграждаме само машини като тази. Основната му причина беше, че хората не са много добри в програмирането на точни симулирани светове, за да могат да се използват компютри, което в AI стипендията се нарича „представителство“ на света.
Сегашните интелигентни машини, на които се удивляваме, или нямат такава концепция за света, или имат много ограничена и специализирана такава за нейните специфични задачи. Иновацията в дизайна на Deep Blue не беше да разшири обхвата на възможните филми, които компютърът смяташе. По-скоро разработчиците намериха начин да стеснят мнението си, да спрат да следват някои потенциални бъдещи ходове, въз основа на това как оцениха резултата си. Без тази способност Deep Blue би трябвало да бъде още по-мощен компютър, който всъщност да победи Каспаров.
По подобен начин, AlphaGo на Google, който победи топ експерти от Go Go, също не може да оцени всички потенциални бъдещи ходове. Методът му за анализ е по-сложен от този на Deep Blue, като използва невронна мрежа за оценка на развитието на играта.
Тези методи подобряват способността на AI системите да играят по-добре определени игри, но не могат да бъдат лесно променени или приложени в други ситуации. Тези компютърни въображения нямат концепция за по-широкия свят - което означава, че не могат да функционират отвъд конкретните задачи, които са им възложени и лесно се заблуждават.
Те не могат да участват интерактивно в света, както можем да си представим AI системите един ден. Вместо това тези машини ще се държат точно по същия начин всеки път, когато се натъкнат на една и съща ситуация. Това може да бъде много добре, за да се гарантира, че една AI система е надеждна: Искате автономният ви автомобил да бъде надежден водач. Но е лошо, ако искаме машини наистина да се ангажират и да реагират на света. Тези най-прости AI системи никога няма да скучаят, да се интересуват или да са тъжни.
Тип II AI: Ограничена памет
Този клас II съдържа машини, които могат да погледнат в миналото. Самоуправляващите се автомобили правят някои от това вече. Например те наблюдават скоростта и посоката на други автомобили. Това не може да се направи само за един момент, а по-скоро изисква идентифициране на конкретни обекти и наблюдение върху тях във времето.
Тези наблюдения се добавят към предварително програмираните представления на света за самостоятелно шофиране на автомобили, които включват също маркировка на лентата, светофари и други важни елементи, като завои на пътя. Те са включени, когато колата реши кога да смени лентите, за да избегне отрязването на друг водач или да бъде ударена от автомобил наблизо.
Но тези прости информации за миналото са само преходни. Те не са запазени като част от библиотеката с опит на колата, от която може да се поучи, по начина, по който човешките водачи събират опит през годините зад волана.
И така, как можем да изградим AI системи, които изграждат пълноценни представи, да си спомнят опита и да се научат как да се справят с нови ситуации? Брукс беше прав в това, че е много трудно да се направи това. Моите собствени изследвания на методи, вдъхновени от еволюцията на Дарвин, могат да започнат да компенсират човешките недостатъци, като оставям машините да изграждат собствени представи.
Тип III AI: Теория на ума
Може да спрем дотук и да наречем този момент важният разрез между машините, които имаме, и машините, които ще изградим в бъдеще. По-добре е обаче да бъдем по-конкретни, за да обсъдим типовете представителства, които машините трябва да формират, и какво трябва да правят.
Машините в следващия по-напреднал клас не само формират представи за света, но и за други агенти или образувания в света. В психологията това се нарича „теория на ума“ - разбирането, че хората, създанията и обектите в света могат да имат мисли и емоции, които влияят върху собственото им поведение.
Това е от решаващо значение за това как ние, хората, формирахме общества, защото ни позволиха да имаме социални взаимодействия. Без да разбираме мотивите и намеренията си един на друг и без да се съобразяваме с това, което някой друг знае или за мен, или за околната среда, да работим заедно е в най-добрия случай трудно, в най-лошия невъзможно.
Ако AI системите наистина някога се разхождат сред нас, те ще трябва да могат да разберат, че всеки от нас има мисли и чувства и очаквания за това как ще бъдем третирани. И съответно ще трябва да коригират поведението си.
AI тип IV: Самоосъзнаване
Последната стъпка от развитието на ИИ е изграждането на системи, които могат да формират представи за себе си. В крайна сметка ние, изследователите на AI, ще трябва не само да разберем съзнанието, но и да изградим машини, които го имат.
Това в известен смисъл е разширение на „теорията на ума“, притежавана от изкуствените интелекти тип III. Съзнанието също се нарича „самосъзнание“ с причина. („Искам този елемент“ е твърде различно твърдение от „Знам, че искам този елемент.“) Съзнателните същества са наясно със себе си, знаят за своите вътрешни състояния и са в състояние да предсказват чувствата на другите. Предполагаме, че някой, който ходи зад нас в трафика, е ядосан или нетърпелив, защото така се чувстваме, когато скачаме на другите. Без теория за ума не бихме могли да направим такива видове изводи.
Въпреки че ние вероятно сме далеч от създаването на машини, които са самоосъзнати, трябва да насочим усилията си към разбирането на паметта, ученето и способността да основаваме решенията на миналия опит. Това е важна стъпка за разбиране на човешката интелигентност сама по себе си. И е от решаващо значение, ако искаме да проектираме или развиваме машини, които са повече от изключителни при класифицирането на това, което виждат пред тях.
Аренд Хинце, доцент по интегративна биология и компютърни науки и инженерство, Michigan State University