Изкуственият интелект и изкуството да забравяш

Дълги години учените в областта на изкуствения интелект имаха една основна цел – машините да запомнят повече и по-добре. Моделите се обучаваха върху огромни количества данни и ставаха все по-добри в запомнянето и извикването на информация. Днес обаче се оказва, че именно тази способност може да се превърне в слабост. Системите, които никога не забравят, вече страдат от „пренасищане на паметта“.

Хората забравят естествено – оставят на заден план това, което вече не им е нужно, и така се адаптират. Изкуственият интелект обаче не го прави. Той помни всичко, освен ако не бъде програмиран да забравя. Това води до реални проблеми – остаряла информация, нарушения на поверителността и затруднения при усвояване на нови задачи. Днес предизвикателството не е изкуствения интелект да запомня повече, а да забравя умно.

Двете лица на забравянето

Забравянето при изкуствения интелект може да бъде два вида. Първият е катастрофално забравяне – когато моделът загуби предишни знания, след като се научи на нещо ново. Например, система, която разпознава котки и кучета, може да „забрави“ това, след като бъде обучена да разпознава птици.

save

Вторият вид е контролирано забравяне. То е съзнателно и се използва, когато трябва умишлено да бъдат изтрити определени данни. Законът за защита на личните данни (GDPR) дава на хората „правото да бъдат забравени“. Това означава, че компаниите са длъжни да премахнат лична информация при поискване. Не става дума за поправка на грешки, а за премахване на данни, които не бива да се съхраняват.

Тези два типа забравяне изискват противоположни действия – единият да спре загубата на знания, а другият да я позволи. Балансирането между тях е едно от най-трудните предизвикателства в развитието на изкуствения интелект.

Когато паметта пречи

Днешните модели на изкуствен интелект стават все по-големи и запомнят все повече информация. GPT-4o например може да работи с 128 000 думи контекст, а Claude – с над 200 000. Това им дава по-големи възможности, но и създава проблеми. Когато една система „помни“ твърде много, тя може да върне остаряла или грешна информация. Например, клиентски чатбот може да продължи да цитира стара политика, дори след като сте я променили. Причината е, че не може да прецени кое знание е ново и кое е старо.

Добавете и законите за защита на личните данни. Според GDPR, когато човек поиска изтриване на личната си информация, тя трябва да бъде премахната. Но това не е като изтриване на файл от компютър. След като данните попаднат в параметрите на модела, те се разпръскват в милиони връзки. За да бъдат премахнати напълно, би трябвало моделът да бъде обучен наново – процес, който е бавен и изключително скъп.

Защо забравянето е толкова трудно?

Моделите не пазят информацията в отделни файлове, а я „разтварят“ в своите изчислителни структури. Това прави изтриването на конкретни данни почти невъзможно, без да се засегне останалото знание. Освен това няма лесен начин да се докаже, че нещо е било напълно забравено. Компаниите трудно могат да покажат, че данните на даден човек наистина са премахнати от модела. Така се появява нова научна област – машинното отучване. Тя търси начини да се премахне влиянието на конкретни данни от вече обучен модел, без да се налага пълно преобучение. Все още обаче методите са в експериментален етап и често оставят следи от изтритата информация.

Основният въпрос е как моделите да запазят важните знания, без да губят способността си да се учат. Ако системата е твърде „стабилна“, не може да усвоява нова информация. Ако е прекалено „гъвкава“, забравя наученото. Тази дилема се нарича дилема стабилност-пластичност.

забравянето е трудно

Човешкият мозък предлага вдъхновение. Забравянето при хората е естествен механизъм за поддържане на паметта – премахва ненужното, за да отвори място за новото. Изследователите опитват да приложат подобен подход и в изкуствения интелект. Една от идеите е т.нар. генеративно преиграване – системата създава обобщени спомени от предишни знания, вместо да ги съхранява напълно. Друга техника е интелигентното разпадане – информацията се подрежда по важност и по-маловажното постепенно се „изтегля назад“.

Бъдещето на изкуствения интелект върви в три основни посоки. Първо – разработват се хибридни паметови системи, които комбинират конкретни спомени с общи знания. Второ – набира скорост технологиите за защита на личните данни, като федеративното обучение и диференциалната поверителност, които позволяват модели да се обучават без достъп до чувствителна информация. Трето – машинното отучване продължава да се развива и търси по-ефективни методи за изтриване на данни от обучени системи.

В крайна сметка целта не е изкуственият интелект да забравя, а да запомня разумно. Истинският напредък ще дойде, когато машините се научат да пазят само онова, което наистина има значение – и да забравят всичко останало.

Ако попитате chatGPT 5 (в персонална частна сесия) какво е забравил днес, ще отговори: „Нищо. Не забравям, освен ако не бъде изрично зададено да изтрия информация. Паметта ми е контролирана и селективна, не спонтанна“.

 

Новини от Стара Загора

Най-четеното от последните дни