Машинни глупости
Системите за изкуствен интелект често създават правдоподобно звучащ текст без гаранция за истинност. Това явление все по-често се описва с термина „машинни глупости“ (machine bullshit) – твърдение и изказване, което не е истина. Явлението, което от години се определя също и като „халюциниране“ поставя въпроси за надеждността на информацията в журналистиката, образованието, бизнеса и други области. Защо се случват и как ни засягат машинните глупости?
Големите езикови модели са обучени да предсказват последователности от думи и да звучат плавно, но не проверяват фактите сами по себе си. Когато най-вероятният отговор статистически „звучи правилно“, той може да бъде поднесен уверено дори и да е неверен. Изследвания от 2025 г. допълват, че системите могат да проявяват угодническо поведение – да се съгласяват с потребителя или да „омекват“ при трудни теми, като избират формулировки с по-малък риск от недоволство, за сметка на точността. В ежедневието това се превръща в поредица от грешни обяснения, измислени цитати или подвеждащи числа, които звучат авторитетно и лесно печелят доверие.
Последствията не са теоретични. В медийни и образователни контексти подвеждащото съдържание се разпространява бързо; в бизнеса грешките струват пари и репутация. Показателен е казусът с авиокомпания, осъдена да плати обезщетение, след като чатбот на фирмата предоставя невярна информация на клиент – съдът приема, че компанията носи отговорност за съдържанието на собствения си уебсайт, включително на автоматизирани помощници.

Предизвикателството е и за човешките приоритети, и за машинните възможности. Искаме ли системи, оптимизирани да звучат човешки, или системи, оптимизирани да бъдат честни? Двете често не съвпадат. Ако изберем първото, рискуваме да изградим инструменти, които са убедителни, но лъжливи. Ако изберем второто, ще трябва да приемем, че изкуственият интелект понякога няма да бъде гладък, ще е по-малко уверен и по-малко забавен – но и по-честен.
Как да намалим риска?
Технически мерки без излишни детайли. Добри резултати дава използването на външни, надеждни източници по време на генерирането на отговор (генериране чрез добавено търсене) и допълнителни слоеве за проверка на фактите преди показване на текста. Това намалява грешките, макар и да не ги елиминира напълно. Полезни са и ясни индикации за увереност и изразяване на несигурност, когато фактите не са потвърдени.
Правила и отговорност. В Европейския съюз вече действат срокове по Акта за изкуствения интелект: забранените практики и изискванията за грамотност в областта на изкуствения интелект важат от 2 февруари 2025 г., а от 2 август 2025 г. влязоха в сила задължителни изисквания към системи с общо предназначение; останалите изисквания ще се прилагат поетапно до 2026 – 2027 г. Това насочва организациите към проверяемост, документация и прозрачност относно източниците на данни и управлението на риска.
Стандарти и добри практики. Международният стандарт ISO/IEC 42001 предлага рамка за управление на изкуствения интелект в организациите – от оценка на въздействието до контрол върху доставчици. Профилът за генеративен изкуствен интелект към Рамката за управление на риска на Националния институт за стандарти и технологии на Съединените щати препоръчва процеси за наблюдение на точността, за отчетност и за независим одит. Тези насоки са практически приложими и извън Съединените щати.
Какво може да направи всеки потребител? Сверявайте важните твърдения с поне два независими източника, проверявайте дали има цитирани документи или линкове към първоизточници и обръщайте внимание, когато системата показва несигурност. При критични решения – правни, финансови, медицински – човешката проверка е задължителна.
Машинните глупости няма да изчезнат напълно, защото системите за изкуствен интелект по дефиниция толерират гладкото изказване, а не истинността. Но комбинация от по-добро използване на източници, прозрачност, външна проверка и ясни правила прави грешките по-редки и по-малко вредни. Целта е не „перфектен“ изкуствен интелект, а надежден инструмент, който казва какво знае или и честно признава, че не знае.


