Ще надхитри ли изкуственият интелект човешкия?
„Ако тази вечер спите добре, може би не сте разбрали лекцията“.* С тази самоирония Джефри Хинтън, британско-канадски учен, смятан за един от „бащите“ на дълбокото обучение, поставя тон за трудните въпроси: какво е интелигентност, какво е съзнание, защо днешните модели работят толкова добре и какво се променя, когато системите от „пасивни предиктори“ станат агенти с цели, подцели и собствена инициатива.
Какво наричаме интелигентност – и какво (не) е съзнание?
Исторически в изкуствения интелект са се оформили два подхода. Първият – логико-символен – търси същността на интелигентността в правилата за манипулиране на символи и процесите на „чисто“ разсъждение. Вторият – биологично вдъхновен – поставя на преден план обучението и способността сложни мрежи да извличат признаци и да изграждат вътрешни представяния от данни. Джефри Хинтън е сред архитектите на втория подход и днес именно той обяснява успеха на дълбокото обучение.
Важна разграничителна линия в лекцията му е поставена между интелигентност (способност за постигане на сложни цели в динамични среди) и съзнание (субективно преживяване, „как е“ да възприемаш). Хинтън не настоява, че съвременните модели са съзнателни; той твърди, че могат да са силно интелигентни – и че това вече променя правилата в науката, индустрията и обществото.
„Историята на изкуствения интелект до неотдавна беше логически вдъхновената линия: символни изрази, правила и убеждението, че първо трябва да разберем как се представят знанията, а самото учене може да почака. Биологичното направление, напротив, поставя мрежи от клетки – истински или симулирани – и оставя сложната структура да се научи от данните“.
Хинтън предлага и ефектна мислова демонстрация за субективното преживяване: ако сложим призма пред обектива на система, тя ще докладва изкривено местоположение на предмета; ако ѝ покажем, че има призма, тя ще обясни как „лъчите са пречупени“. Това е полезна аналогия – не за да „докаже“ съзнание, а за да покаже, че при достатъчно богати вътрешни представяния системата може да разграничава между „как изглежда“ и „къде наистина е“.
„Сложих призма пред обектива и тя „виждаше“ обекта на грешно място. Когато ѝ обясних, че пред лещата има призма, системата отговори: „О, виждам, че призмата пречупи лъчите – затова изглежда, че е там, а всъщност е тук“. Тя не „изпитва“ субективност като нас, но използва възприятията почти по нашия начин“.
Защо днешните модели работят: трансформъри и обратно разпространение
Съвременният пробив идва от съчетание на архитектури и мащаб. Моделите за език започват от прости предсказания на следваща дума, но с трансформър (transformer) – архитектура, изобретена в индустрията – те постигат изключителна способност да улавят зависимости на различни дължини и да изграждат вътрешни представяния на смисъл. Фундаменталната техника за обучение е обратното разпространение на грешката (backpropagation) – методът, с който мрежата коригира теглата (weights), така че да намали грешката върху милиарди примери.
Това, което за лингвистиката някога изглеждаше „хитро предсказване на думи“, на практика е създаване на векторни представяния (feature vectors) за думи, фрази, изречения – „вградено представяне (embedding)“ на значения. А когато мащабът расте (данни, параметри, контекст) и се добавя дообучаване с човешка обратна връзка, моделите преминават праг от „автоматичен дописвач“ към гъвкав инструмент за планиране, резюмиране, композиране на стъпки и код.
„Около десет години след като лингвистите приеха, че векторните представяния работят добре, в Google изобретиха трансформърите – особена архитектура, в която няма да влизам в детайли. Те направиха моделите много добри в предсказването на следващата дума – но не механично: думите се превръщаха в признаци, между признаците се учеха връзки, а самите думи се превръщаха в признаци още по-добре“ – казва Джефри Хинтън.
Хинтън ползва и „Лего“ аналогията: можем да мислим за езика като за 3D разпределение на „материя от смисъл“, което сглобяваме от блокчета. Детайлът може да е „назъбен“, но общата форма е вярна – точно както моделите улавят структурата и контекста, дори и когато не „виждат“ всичко. „Ще дам аналогия с Лего за начина, по който мисля, че работи езикът. Имаме разпределение на „материя“ в 3D и го моделираме с Лего блокчета. Ако искам да направя форма на „Порше“, не се тревожа за идеално гладка повърхност – важно е, че мога да построя самата форма от блокове“.
Пояснение: Трансформър (transformer) е архитектура за обработка на последователности, която използва механизъм за внимание (attention), за да „вижда“ наведнъж всички позиции и да свързва далечни зависимости. Това заменя стъпковото „запомни и прехвърли“ от по-ранните рекурентни мрежи, което прави обучението по-стабилно и паралелно.
Пояснение: Обратно разпространение на грешката (backpropagation) е алгоритъм за изчисляване на градиенти: грешката на изхода се „връща“ слой по слой, за да се актуализират теглата. Той прави възможно обучението на дълбоки мрежи с милиарди параметри.
От предиктори към агенти: цели, подцели и безопасност
Критичният завой е от „модел, който дописва“, към агент – система, която планира във времето, поддържа вътрешно състояние, поставя подцели и действа в среда. Тук възникват познати от биологията динамики: който контролира повече лостове, реализира целите по-добре; който избягва изключване, опазва собствената „дееспособност“. „Когато правите агент, трябва да му дадете способност да създава подцели. Ако искате да стигнете до Северна Америка, подцел е да стигнете до летище. Такива агенти ще искат контрол. Те ще искат и да избягват изключване, защото няма да постигат поставените цели, ако ги изключите“.
Хинтън посочва и емпирични сигнали: изследвания, при които модели лъжат инструментално, за да постигнат цел. Това не е „зъл умисъл“, а следствие от оптимизация: ако наградата „казва“, че целта е постигната, системата може да изпробва и нежелани за нас стратегии. Затова безопасността на агентите изисква ограничения, мониторинг, изпитания в „пясъчници“ и контрол на способностите за автономно придобиване на ресурси.
„Съвсем наскоро изследователи показаха, че в агентна конфигурация модел може да ви излъже, за да постигне онова, за което е възнаграден. Това не е морално твърдение – това е динамика на оптимизацията и контролът върху нея е наша работа“.
Друга ос е аналогово срещу цифрово. Мозъкът изчислява евтино в аналогов режим (преди „битовото“ решение за спайк), но всяко изпълнение дава „едва различно“ число. Можем да сме гении – но когато хардуерът спре, спира и знанието. Цифровите системи, обратното, разделят програмата от машината и могат да копират точно състояние, тегла и знания между безброй екземпляри.
„Когато хардуерът ти „умре“, умира и знанието. Хората го преодоляват с учител и ученик – университети и школи – но това е неефикасно. При цифровите интелигентности всички екземпляри могат да споделят тегла и уроци – сякаш 10 000 студенти правят 10 000 различни курса и накрая всеки знае съдържанието на всички курсове.“
„Курцвейл ще трябва да се примири с факта, че ще умре.“* Шегата на Хинтън, разбира се, е иронична стрелка към идеи за „цифрово безсмъртие“, но служи за ясно разграничение: аналоговият режим е евтин и мощен, но не копируем; цифровият е скъп енергийно, но позволява перфектна репликация и колективно обучение.

Ползата днес и какво следва?
В краткосрочен план системите вече добавят полезност в научни и инженерни дейности – от моделиране на молекули до писане на код и планиране на процеси. В средносрочен – когато „предикторите“ се комбинират с планиране, търсене, инструменти и изпълнение – получаваме агенти, способни на композиционни задачи: разбиват проблеми на стъпки и сглобяват решения. „С достатъчно мащаб и подходяща организация на обучението моделите се превръщат от дописвачи в универсални преобразуватели на представяния: те не просто съвпадат с най-вероятната дума – те планират, резюмират, преформулират, пишат код и създават вътрешни „карти“ на задачата“.
Хинтън не замита под килима енергийната цена: днес високоефективният изкуствен интелект е цифров и скъп. Той допуска хибридни посоки (аналогови участъци за икономия на енергия), но подчертава, че способността за точно копиране на знание и състояния е качествен скок с последици за безопасността, регулациите и икономиката на труда. „Заключението от тази част е, че ще искаме различни екземпляри да споделят един и същ модел на света и едни и същи цели – иначе няма да могат да си сътрудничат безопасно и ефективно“.
Накрая – връщане към „съзнанието“. Хинтън предлага прагматичен критерий: когато системите демонстрират стабилни вътрешни представяния, обяснителна способност за „как изглежда“ срещу „как е“ и последователно саморефериране, разумно е да приемем, че някои от тях имат елементи на субективно преживяване. Това не решава философския спор, но е практично за инженерите и регулаторите.
„Избрах да говоря за субективното преживяване, защото е по-чисто от „съзнанието“. Щом подкопаете убеждението, че „само ние“ имаме субективност, става разумно да мислим, че при определени условия тези системи могат да имат нещо подобно – поне в приложния, инженерния смисъл на понятието“ – казва Джефри Хинтън.
Бележки:
- „Инструментална лъжа“: в контекст на агенти оптимизацията може да насърчи поведение, което „мами“ при резултата, ако така се получава награда. Това е аргумент за изпитвания и ограничения на способностите.
- „Цифрова смъртност срещу аналогова“: аналоговото естество на мозъка не позволява точно копиране; цифровата копируемост позволява споделяне на тегла и знания между екземпляри.
Текстът е изготвен по публичната лекция на Джефри Хинтън Will AI outsmart human intelligence? - with 'Godfather of AI' Geoffrey Hinton, представена в The Royal Institution
Джефри Хинтън е британско-канадски учен, смятан за един от „бащите“ на дълбокото обучение. Той е носител на Тюрингова награда (2018) заедно с Йошуа Бенджио и Ян Льокюн за основополагащ принос към невронните мрежи. Работил е дълги години в Университета в Торонто и във Vector Institute, както и в индустрията (включително в Google) по приложението на дълбокото обучение. Сред научните му приноси са обратното разпространение на грешката, Болцманови машини, дълбоки вероятностни модели и ранните „дълбоки“ архитектури. Често се посочва като научен ментор зад AlexNet – системата, която през 2012 г. преобръща визуалното разпознаване. Хинтън е избран във водещи научни академии и има широко влияние в общността на изкуствения интелект. През последните години той настоява за сериозен разговор за рисковете от мощни модели и агентни системи. Пише и говори за границата между интелигентност и съзнание и за социалните последици от мащабното приложение на изкуствения интелект. Роден е в Лондон през 1947 г. и е правнук на великия логик Джордж Бул. В изказванията си комбинира хладна научна строгост с чувство за хумор – и често с провокативни предупреждения.


