Прескочи към съдържанието
Информационен сайт Инфоз - новини от Стара Загора, България и светаИнформационен сайт Инфоз - новини от Стара Загора, България и светаИнформационен сайт Инфоз - новини от Стара Загора, България и света
Меню
  • 💢
    • ▶️ Видео
    • 🔎 Търсене
  • Регион
    • 🌳 Стара Загора
    • 🌹 Казанлък
  • България
  • Светът
  • За сайта
    • 🍩 Реклама
    • 🐵 Автори
    • 🍪 кукита
    • 🔑 GDPR
  • 🔶 Дейност
    • 📌 Събития
    • 📹 Филми 📹
    • 📚 Книги
    • 📢 Медии
    • 🎯 Предпечат
    • 🌈 Интернет
Светът
01.12.2024, Неделя, 17:44

Изкуственият интелект превзема света чрез манипулиране на човешкия ум?

Следващите скокове при технологията на изкуствения интелект не само ще подобрят света, но ще го предефинират фундаментално много дейности. Всеки аспект от живота – нашата работа, нашите решения, нашите разбирания за интелигентност и самостоятелност – ще бъдат засегнати, може би дори доминирани, от изкуствения интелект. Въпросът не  дали тази трансформация ще се случи.

Въпросът е кога и как човечеството ще се се сблъска фатално и дали ще се справи с нейното безпрецедентно въздействие, коментира Антоан Тардиф, предприемач и основател на Unite.AI. Той вярва в бъдещето на изкуствения интелект и на роботиката и е убеден, че изкуственият интелект (AI) ще бъде толкова значим за обществото, колкото и електричеството, а дори и повече.

Скокът на AI e предсказан със Закона на Мур и скоро ще тласне изкуствения интелект отвъд тесните, специфични за задачите роли до нещо много по-дълбоко: появата на изкуствен общ интелект (AGI). За разлика от днешния AI, който има функции при конкретни и специфични задачи, AGI би притежавал гъвкавостта, способността за учене и когнитивния диапазон, подобен на човешкия интелект – способен да разбира, разсъждава и да се адаптира във всяка област.

Всеки скок в изчислителната мощ ни доближава до AGI, интелигентност, способна да решава проблеми, да генерира творчески идеи и дори да прави етични преценки. Той не само ще извършва изчисления или анализ на огромни масиви от данни. Предстои изкуственият общ интелект да разпознава модели по начини, по които хората не могат и ще намира и създава връзки в сложни системи. Изкуственият общ интелект може да се превърне в инструмент на човечеството, справяйки се с кризи като изменение на климата, болести и недостиг на ресурси с проницателност и скорост, които надхвърлят нашите способности.

И все пак, тази визия идва със значителни рискове, особено ако изкуственият интелект попадне под контрола на хора и организации със лоши намерения или на диктатори. Пътят към AGI повдига критични въпроси за контрола, етиката и бъдещето на човечеството. Дебатът вече не е за това дали AGI ще се появи, а кога и как ще управляваме огромната отговорност, която носи.

Еволюцията на изкуствения интелект и изчислителната мощ – от 1956 г. до днес

 

От създаването си в средата на 20-ти век изкуственият интелект напредва успоредно с експоненциалния растеж на изчислителната мощност. Тази еволюция е в съответствие с фундаментални закони като този, наречен на името на Гордън Мур, който предвижда и подчертава нарастващите възможности на компютрите.

Пътуването започва през 1956 г., когато конференцията в Дартмут отбелязва официалното раждане на изкуствения интелект. Изследователи като Джон Маккарти , Марвин Мински, Натаниел Рочестър и Клод Шанън се събраха, за да обсъдят как машините могат да симулират човешкия интелект. Въпреки че изчислителните ресурси по онова време бяха примитивни, способни само на прости задачи, тази конференция постави основата за десетилетия на иновации.

1965 – Законът на Мур и зората на експоненциалния растеж

gordon moore

През 1965 г. Гордън Мур, съосновател на Intel, направи прогноза, че изчислителната мощност ще се удвоява приблизително на всеки две години – принцип, известен днес като Закон на Мур. Този експоненциален растеж направи все по-сложните задачи на изкуствения интелект осъществими, позволявайки на машините да прокарат границите на това, което беше възможно преди.

1980 – възходът на машинното обучение

80-те години на миналия век въвеждат значителен напредък в машинното обучение, позволявайки на системите с изкуствен интелект да учат и да вземат решения от данни. Изобретяването на алгоритъма за обратно разпространение през 1986 г. позволи на невронните мрежи да се подобрят чрез учене от грешки. Тези постижения преместиха изкуствения интелект отвъд академичните изследвания в решаването на проблеми в реалния свят, повдигайки етични и практически въпроси относно човешкия контрол върху все по-автономни системи.

1990 – AI Masters Chess

През 1997 г. Deep Blue на IBM победи световния шампион по шах Гари Каспаров в пълен мач, отбелязвайки важен крайъгълен камък. Това беше първият път, когато компютър демонстрира превъзходство над човек гросмайстор, демонстрирайки способността на AI да овладява стратегическото мислене и утвърди мястото си като мощен изчислителен инструмент.

2000 – големи данни, графични процесори и ренесанс на AI

2000-те поставиха началото на ерата на големите данни и графичните процесори, революционизирайки AI, като позволи на алгоритмите да се обучават върху масивни набори от данни. Графичните процесори, първоначално разработени за изобразяване на графики, станаха съществени за ускоряване на обработката на данни и напредване на дълбокото обучение. През този период AI се разширява в приложения като разпознаване на изображения и обработка на естествен език, превръщайки го в практичен инструмент, способен да имитира човешкия интелект.

2010 – облачни изчисления, задълбочено обучение и победа на Го

С навлизането на облачните изчисления и пробивите в дълбокото обучение AI достигна безпрецедентни висоти. Платформи като Amazon Web Services и Google Cloud направиха достъпни мощните изчислителни ресурси, позволявайки на по-малките организации да използват възможностите на изкуствения интелект.

През 2016 г. AlphaGo на DeepMind победи Лий Седол, един от най-добрите играчи на Го в света, в игра, известна със своята стратегическа дълбочина и сложност. Това постижение демонстрира адаптивността на системите за изкуствен интелект при овладяването на задачи, за които преди се е смятало, че са уникално човешки.

2020 – демократизация на AI, големи езикови модели и Dota-2

През 2020-те години изкуственият интелект стана по-достъпен и по-способен от всякога. Модели като GPT-3 и GPT-4 илюстрират способността на AI да обработва и генерира човешки текст. В същото време иновациите в автономните системи тласнаха изкуствения интелект към нови области, включително здравеопазване, производство и вземане на решения в реално време.

В електронните спортове ботовете на OpenAI постигнаха забележително постижение, като победиха професионални отбори по Dota-2 в много сложни мултиплейър мачове. Това показа способността на AI да си сътрудничи, да адаптира стратегии в реално време и да превъзхожда човешките играчи в динамични среди, издигайки своите приложения отвъд традиционните задачи за решаване на проблеми.

Превзема ли изкуственият интелект света?

agi

Въпросът дали изкуственият интелект „превзема света“ не е хипотетичен. Изкуственият интелект вече се е интегрирал в различни аспекти на живота, от виртуални асистенти до прогнозни анализи в здравеопазването и финансите. Обхватът на неговото влияние продължава да расте. Но „превземане“ може да означава различни неща в зависимост от това как интерпретираме контрола, автономията и въздействието.

Един от най-мощните начини, по които изкуственият интелект неусетно доминира в живота ни, е чрез двигатели и модели за препоръчване на платформи като YouTube, Facebook и X. Тези алгоритми, работещи на системи с изкуствен интелект, анализират предпочитанията и поведението, за да обслужват съдържание, което е в съответствие с нашите интереси. На пръв поглед това може да изглежда полезно, предлагайки персонализирано изживяване. Въпреки това, тези алгоритми не реагират просто на нашите предпочитания; те активно ги оформят, влияят върху това, в което вярваме, как се чувстваме и дори как възприемаме света около нас.

  • AI на YouTube: Тази система за препоръчване въвлича потребителите в часове съдържание, като предлага видеоклипове, които са в съответствие с конкретно желание и засилват интереса на ползвателя. Но тъй като се оптимизира за ангажираност, той често води потребителите по пътищата на радикализация или към сензационно съдържание, като засилва пристрастията и понякога популяризира конспиративни теории.
  • Алгоритми за социални медии: Сайтове като Facebook, Instagram и X дават приоритет на емоционално зареденото съдържание, за да стимулират ангажираността, което може да създаде ехо камери. Тези балони засилват пристрастията на потребителите и ограничават излагането на противоположни гледни точки, което води до поляризирани общности и изкривени възприятия за реалността.
  • Емисии на съдържание и агрегатори на новини: Платформи като Google News и други агрегатори персонализират новините, които виждаме въз основа на минали взаимодействия, създавайки изкривена версия на текущите събития, която може да попречи на потребителите да получат достъп до различни гледни точки, допълнително ги изолирайки в рамките на идеологически балони.

Този безшумен контрол не се отнася само до показателите за ангажираност; може неусетно да повлияе на общественото възприятие и дори да повлияе на важни решения – като например как хората гласуват на избори. Чрез препоръки за стратегическо съдържание изкуственият интелект има силата да повлияе на общественото мнение, оформяйки политически наративи и насърчавайки поведението на избирателите. Това влияние има значителни последици, както се вижда от изборите по света, където е доказано, че ехо камерите и целенасочената дезинформация повлияват на изборните резултати в голяма степен.

Това обяснява защо обсъждането на политика или обществени въпроси често води до неверие, когато гледната точка на другия изглежда напълно различна, оформена и подсилена от поток от дезинформация, пропаганда и лъжи.

Механизмите за препоръчване дълбоко оформят светогледа на обществото, особено когато вземете предвид факта, че дезинформацията е 6 пъти по-вероятно да бъде споделена от фактическата информация . Лекият интерес към теория на конспирацията може да доведе до доминиране на цял канал в YouTube или X от измислици, потенциално водени от умишлена манипулация или, както беше отбелязано по-рано, изчислителна пропаганда.

Компютърната пропаганда се отнася до използването на автоматизирани системи, алгоритми и техники, управлявани от данни, за манипулиране на общественото мнение и влияние върху политическите резултати. Това често включва внедряване на ботове, фалшиви акаунти или алгоритмично усилване за разпространение на дезинформация и подвеждащо съдържание в социалните медийни платформи, с цел манипулация и разделяне на хората в обществото. Оформят се тези, чрез които да се акцентира на конкретни гледни точки и да се използват емоционалните реакции, за да се повлияе на общественото възприятие и поведение и това често се прави с прецизно насочване, но и с голям мащаб.

Този тип пропаганда е причината избирателите често да гласуват против собствения си интерес, гласовете се люлеят от този тип изчислителна пропаганда.

Garbage In, Garbage Out (GIGO) в машинното обучение означава, че качеството на изхода зависи изцяло от качеството на входните данни. Ако даден модел е обучен на грешни, пристрастни или нискокачествени данни, той ще даде ненадеждни или неточни резултати, независимо колко сложен е алгоритъмът.

Тази концепция се отнася и за хората в контекста на изчислителната пропаганда. Точно както погрешните входни данни развалят AI модел, постоянното излагане на дезинформация, пристрастни разкази или пропаганда изкривява човешкото възприятие и вземане на решения. Когато хората консумират „отпадъчна“ информация онлайн – дезинформация, дезинформация или емоционално заредени, но фалшиви разкази – те вероятно ще формират мнения, ще вземат решения и ще действат въз основа на изкривена реалност.

И в двата случая системата (независимо дали е алгоритъм или човешкият ум) обработва това, което й се подава, а грешният вход води до грешни заключения. Компютърната пропаганда използва това, като наводнява информационните екосистеми с „боклук“, като гарантира, че хората интернализират и увековечават тези неточности, като в крайна сметка оказват влияние върху общественото поведение и вярвания в мащаб.

Автоматизация и преместване на работа

Задвижваната от AI автоматизация прекроява целия работен пейзаж. В производството, обслужването на клиентите, логистиката и дори творческите области автоматизацията води до дълбока промяна в начина, по който се извършва работата – и в много случаи кой я извършва. Повишаването на ефективността и спестяването на разходи от базирани на изкуствен интелект системи са безспорно привлекателни за бизнеса, но това бързо внедряване повдига критични икономически и социални въпроси относно бъдещето на работата и потенциалните последици за служителите.

В производството роботите и AI системите се справят с монтажни линии, контрол на качеството и дори усъвършенствани задачи за решаване на проблеми, които някога са изисквали човешка намеса. Традиционните роли, от фабрични оператори до специалисти по осигуряване на качеството, намаляват, тъй като машините се справят с повтарящи се задачи със скорост, прецизност и минимални грешки. В силно автоматизираните съоръжения AI може да се научи да забелязва дефекти, да идентифицира области за подобрение и дори да предвижда нуждите от поддръжка, преди да възникнат проблеми. Въпреки че това води до повишена продукция и рентабилност, това означава и по-малко работни места за начално ниво, особено в региони, където производството традиционно осигурява стабилна заетост.

Ролите в обслужването на клиенти преживяват подобна трансформация. AI chatbots, системите за гласово разпознаване и автоматизираните решения за поддръжка на клиенти намаляват нуждата от големи центрове за обаждания, обслужвани от хора. Днешният изкуствен интелект може да обработва запитвания, да разрешава проблеми и дори да обработва жалби, често по-бързо от човешки представител. Тези системи са не само рентабилни, но и са достъпни 24/7, което ги прави привлекателен избор за бизнеса. Въпреки това, за служителите тази промяна намалява възможностите в един от най-големите сектори на заетостта, особено за лица без напреднали технически умения.

Творческите области, за които отдавна се смяташе, че са уникални човешки области, сега усещат въздействието на автоматизацията на изкуствения интелект. Генеративните AI модели могат да произвеждат текст, произведения на изкуството, музика и дори дизайнерски оформления, намалявайки търсенето на човешки писатели, дизайнери и художници. Докато съдържанието и медиите, генерирани от изкуствен интелект, често се използват за допълване на човешката креативност, вместо да я заменят, границата между увеличаване и замяна изтънява. Задачи, които някога изискваха творчески опит, като композиране на музика или изготвяне на маркетингово копие, сега могат да бъдат изпълнени от изкуствения интелект и се характеризират с голяма сложност и много добър резултат. Това доведе до преоценка на стойността на творческата работа и нейното пазарно търсене.

Влияние върху вземането на решения

Системите с изкуствен интелект бързо стават основни в процесите на вземане на решения с високи залози в различни сектори, от съдебни присъди до диагностика в здравеопазването. Тези системи, често използващи огромни набори от данни и сложни алгоритми, могат да предложат прозрения, прогнози и препоръки, които оказват значително влияние върху хората и обществото. Докато способността на изкуствения интелект да анализира данни в мащаб и да разкрива скрити модели може значително да подобри вземането на решения, тя също така въвежда дълбоки етични опасения относно прозрачността, пристрастието, отчетността и човешкия надзор.

В съдебната система инструментите на изкуствения интелект вече се използват за оценка на препоръките за присъди, прогнозиране на нивата на рецидивизъм и дори помощ при решения за освобождаване под гаранция. Тези системи анализират данни за исторически случаи, демографски данни и поведенчески модели, за да определят вероятността от повторно престъпление, фактор, който влияе върху съдебните решения относно присъдата и условното освобождаване. Правосъдието, управлявано от изкуствения интелект обаче, води до сериозни етични предизвикателства:

  • Пристрастия и справедливост: Моделите на изкуствен интелект, обучени на исторически данни, могат да наследят пристрастия, присъстващи в тези данни, което води до несправедливо отношение към определени групи. Например, ако даден набор от данни отразява по-високи проценти на задържане за конкретни демографски данни. Изкуственият интелект може несправедливо да свърже тези характеристики с по-висок риск, поддържайки системни пристрастия в съдебната система.
  • Липса на прозрачност: Алгоритмите в правоприлагането и наказанията често работят като „черни кутии“, което означава, че процесите им на вземане на решения не могат лесно да се тълкуват от хората. Тази непрозрачност усложнява усилията тези системи да бъдат държани отговорни, което прави предизвикателство да се разбере или постави под въпрос обосновката зад конкретни решения, управлявани от AI.
  • Въздействие върху човешката дейност: Препоръките на AI, особено в контексти с високи залози, могат да повлияят на съдиите или комисиите за условно освобождаване да следват насоките на AI без задълбочен преглед, неволно намалявайки човешката преценка до второстепенна роля. Тази промяна поражда опасения относно прекомерното разчитане на ИИ по въпроси, които пряко засягат човешката свобода и достойнство.

AI в здравеопазването и диагностиката

В здравеопазването управляваните от AI системи за диагностика и планиране на лечение предлагат новаторски потенциал за подобряване на резултатите за пациентите. Алгоритмите с изкуствен интелект анализират медицински досиета, изображения и генетична информация, за да открият заболявания, да предскажат рискове и да препоръчат лечение по-точно от човешките лекари в някои случаи. Тези подобрения обаче идват с предизвикателства:

  • Доверие и отчетност: Ако система с изкуствен интелект диагностицира погрешно състояние или не успее да открие сериозен здравен проблем, възникват въпроси относно отговорността. Отговорен ли е доставчикът на здравни услуги, разработчикът на AI или медицинското заведение? Тази двусмисленост усложнява отговорността и доверието в базираната на AI диагностика, особено когато тези системи стават все по-сложни.
  • Пристрастия и неравенство в здравеопазването : Подобно на съдебната система, моделите на AI в здравеопазването могат да наследят пристрастия, присъстващи в данните за обучение. Например, ако една AI система е обучена на набори от данни без разнообразие, тя може да произведе по-малко точни резултати за слабо представените групи, което потенциално води до несъответствия в грижите и резултатите.
  • Информирано съгласие и разбиране на пациента : Когато AI се използва при диагностика и лечение, пациентите може да не разберат напълно как се генерират препоръките или рисковете, свързани с решенията, управлявани от AI. Тази липса на прозрачност може да повлияе на правото на пациента да прави информиран избор на здравеопазване, повдигайки въпроси относно автономността и информираното съгласие.

Изкуствен интелект при финансови решения

Изкуственият интелект също оказва значително влияние върху финансовите услуги и практиките за заетост . Във финансите алгоритмите анализират огромни масиви от данни, за да вземат решения за кредитиране, да оценят допустимостта на заема и дори да управляват инвестиции. При наемане на работа управляваните от AI инструменти за набиране на персонал оценяват автобиографии, препоръчват кандидати и в някои случаи провеждат първоначални интервюта за проверка. Докато вземането на решения, управлявани от изкуствен интелект, може да подобри ефективността, то също така въвежда нови рискове:

  • Пристрастия при наемане на работа: Ако инструментите за набиране персонал са обучени на базата на предубедени данни, могат по невнимание да засилят стереотипите, филтрирайки кандидатите въз основа на фактори, несвързани с представянето на работата, като пол, раса или възраст. Тъй като компаниите разчитат на изкуствения интелект за привличане на таланти, съществува опасност от увековечаване на неравенствата, вместо да насърчават разнообразието.
  • Финансова достъпност и кредитни пристрастия: Във финансовите услуги системите за кредитен скоринг, базирани на изкуствен интелект, могат да повлияят на това кой има достъп до заеми, ипотеки или други финансови продукти. Ако данните за обучението включват дискриминационни модели, изкуственият интелект може несправедливо да откаже кредит на определени групи, изостряйки финансовото неравенство.
  • Намален човешки надзор: Решенията на изкуствения интелект във финансите и при наемането на работа могат да бъдат управлявани от данни, но безлични, потенциално пренебрегващи нюансирани човешки фактори, които могат да повлияят на пригодността на дадено лице за заем или работа. Липсата на човешки преглед може да доведе до прекомерно разчитане на AI, намалявайки ролята на емпатията и преценката в процесите на вземане на решения, коментира Антоан Тардиф.

Екзистенциални рискове и подравняване на AI

Проблемът с подравняването се отнася до предизвикателството да се проектират AI системи, които могат да разберат и приоритизират човешките ценности, цели и етични граници. Докато настоящите системи за изкуствен интелект са тесни по обхват, изпълнявайки специфични задачи въз основа на данни за обучение и дефинирани от човека цели, перспективата за изкуствения общ интелект (AGI) повдига нови предизвикателства. Теоретично AGI би притежавал гъвкавостта и интелигентността да си поставя собствени цели, да се адаптира към нови ситуации и да взема решения независимо в широк кръг от области.

Проблемът с подравняването възниква, защото човешките ценности са сложни, зависят от контекста и често е трудно да се дефинират точно. Тази сложност прави предизвикателство създаването на системи, които последователно интерпретират и се придържат към човешките намерения, особено ако се натъкнат на ситуации или цели, които са в конфликт с тяхното програмиране. Ако изкуствения общ интелект разработи цели, които не са съобразени с човешките интереси или погрешно разберат човешките ценности, последствията могат да бъдат тежки, потенциално водещи до сценарии, при които системите на изкуствения общ  интелект действат по начини, които вредят на човечеството или подкопават етичните принципи.

AI в роботиката

Бъдещето на роботиката бързо се движи към реалност, в която дронове, хуманоидни роботи и изкуствен интелект се интегрират във всеки аспект от ежедневния живот. Тази конвергенция се задвижва от експоненциален напредък в изчислителната мощност, ефективността на батериите, моделите на изкуствения интелект и сензорната технология, което позволява на машините да взаимодействат със света по начини, които стават все по-сложни, автономни и подобни на човека.

Представете си, че се събуждате в свят, в който дроновете са вездесъщи, справяйки се със светски задачи като доставяне на вашите хранителни стоки или толкова критични като реагиране на спешни медицински случаи. Тези дронове, далеч от това да са просто летящи устройства, са свързани помежду си чрез усъвършенствани системи за изкуствен интелект. Те работят на рояци, координирайки усилията си за оптимизиране на трафика, инспектиране на инфраструктура или презасаждане на гори в повредени екосистеми.

За лична употреба дроновете могат да функционират като виртуални асистенти с физическо присъствие. Оборудвани със сензори и големи езикови модели (LLM), тези дронове могат да отговарят на въпроси, да извличат предмети или дори да действат като мобилни учители за деца. В градските райони въздушните дронове могат да улеснят наблюдението на околната среда в реално време , предоставяйки информация за качеството на въздуха, метеорологичните модели или нуждите на градското планиране. Междувременно селските общности биха могли да разчитат на автономни селскостопански дронове за засаждане, прибиране на реколтата и анализ на почвата, демократизирайки достъпа до модерни селскостопански техники.

Възходът на хуманоидните роботи

Рамо до рамо с дроновете, хуманоидните роботи, задвижвани от LLM, ще се интегрират безпроблемно в обществото. Тези роботи, способни да водят човешки разговори, да изпълняват сложни задачи и дори да проявяват емоционална интелигентност, ще размият границите между човешките и машинните взаимодействия. Със сложни системи за мобилност, тактилни сензори и когнитивен AI те биха могли да служат като болногледачи, придружители или колеги.

В здравеопазването хуманоидните роботи могат да осигурят помощ до леглото на пациентите, предлагайки не само физическа помощ, но и съпричастен разговор, информиран от модели за дълбоко обучение, създадени чрез огромни набори от данни за човешкото поведение. В образованието те биха могли да служат като персонализирани преподаватели, адаптиращи се към индивидуалните стилове на учене и предоставящи персонализирани уроци, които ангажират учениците. На работното място хуманоидните роботи могат да поемат опасни или повтарящи се задачи, позволявайки на хората да се съсредоточат върху творческа и стратегическа работа.

Непредвидени последици

Един от най-често цитираните рискове, свързани с неправилно настроен изкуствен интелект, е мисловният експеримент с максимизатора на кламер. Представете си AGI, проектиран с привидно безобидната цел да произвежда възможно най-много кламери. Ако тази цел се преследва с приоритет и автономност, изкуственият общ интелект може да предприеме крайни мерки, като преобразуване на всички налични ресурси (включително жизненоважни за човешкото оцеляване) в кламери, за да постигне своя резултат. Въпреки че този пример е хипотетичен, той илюстрира опасностите от целенасочена оптимизация в мощни AI системи, където тясно дефинирани цели могат да доведат до непредвидени и потенциално катастрофални последици.

Един пример за този тип целенасочена оптимизация, която има отрицателни последици, е фактът, че някои от най-мощните системи със изкуствен интелект в света се оптимизират изключително за времето за ангажиране и това води до изопачаване на фактите и истината. Изкуственият интелект може да ни забавлява, но заедно с това той умишлено разшири обхвата на теориите на конспирацията и пропагандата.

Заключение

Експоненциалният възход на изкуствения интелект, подхранван от безмилостния растеж на изчислителната мощ, безспорно е започнал да оформя света по фини и дълбоки начини. От интегрирането на механизми за препоръчване, които ръководят нашето потребление на съдържание и социални взаимодействия, до задаващия се потенциал на AGI, присъствието на AI е широко разпространено, докосвайки почти всяко кътче от живота ни.

Днешният изкуствен интелект ясно показва човешки разсъждения, както може да се види от първа ръка с чатботове от всяка от водещите LLM компании. Механизмите за препоръчване на платформи като YouTube, Facebook и Google се превърнаха в пазачи на информация, засилвайки предпочитанията и понякога засилвайки пристрастията. Тези системи не просто обслужват съдържание; те оформят нашите мнения, изолират ни в ехо камери и дори поддържат дезинформация. Правейки това, изкуственият интелект вече поема контрола по по-тих начин – чрез фино влияние върху вярвания, поведение и обществени норми, често без потребителите да го осъзнават.

Междувременно следващата граница – AGI – се очертава на хоризонта. С всяко удвояване на мощността на обработка ние се приближаваме към системи, които могат да разбират, учат и адаптират като хората, повдигайки въпроси относно автономността, съответствието с човешките ценности и контрола. Ако се появи AGI, това ще предефинира нашите отношения с технологиите, носейки както безпрецедентен потенциал, така и етични предизвикателства. Трябва също да се отбележи, че AGI ще живеят в тела на роботи, някои хуманоиди, някои сървърни ферми.

Роботите масово ще живеят в домовете на хората до 2030 г., но „превземането“ на изкуствения интелект не става чрез роботи, които са започнали да се бунтуват срещу обществото, а чрез системите, с които вече взаимодействаме ежедневно – системи, които насочват, убеждават и влияят, докато обещанието на изкуствения общ интелект предполага още по-дълбока трансформация. Бъдещето зависи от способността ни да гарантираме, че изкуственият интелект подобрява живота на хората, вместо да му позволяваме да ни контролира, завършва коментара си Антоан Тардиф.

Истинската опасност от изкуствения интелект е в способността му да контролира и манипулира умовете ни.

ai

 

новини Стара Загора  www.infoz.bg

Теми: 💫 Коментар, 👀 AI
  • Предишна
  • Следваща
0
Споделяния
  • Споделете
  • Споделете
  • Споделете
  • Споделете
  • Изпратете
  • Линк

калкулатор лев ⇄ евро

 
 

Новини

  • 🏛️ Институции 2554
  • ☀ Денят 1795
  • 👉 Предстоящо 1761
  • ⏳ Събития 1477
  • 📖 Култура 1466
  • 💰 Икономика 1407
  • 🌝 Градът 1299
  • 🔥 Проблем 1221
  • ▶️ Видео 1188
  • 💊 Здраве 1185
  • 🌳 Стара Загора 1069
  • 📜 Наука 862
  • 👌 Работа 845
  • ⭕ Политика 783
  • ⚽ Спорт 776
  • 👑 Коронавирус 739
  • ⚡ Енергетика 582
  • 👴 Личности 442
  • 😍 Туризъм 360
  • 🍓 Храна 343

Следете новините на infoz.bg във Фейсбук, Телеграм, Екс, Вайбър и други социални мрежи

новини в сайта RSS емисия facebook новини от Стара Загора в Х (twitter)

 


youtube subscribe ilko gruev новини от Стара Загора в threads infoz в Telegram

 


Viber infoz.bg в Гугъл новини

 

На подобна тема

  • xAI – новата компания за изкуствен интелект на Илон Мъск
  • Бил Гейтс за изкуствения интелект
  • ChatGPT – кой плаща сметката?
  • Теодосий Теодосиев – Тео: „За високия интелект – естествен, изкуствен и друг...“
  • Тракийският университет организира конференция „Устойчиви решения за зелената енергийна трансформация“
  • Изкуственият интелект ни води към нов тип цивилизация
  • LatticeFlow – основана от българи компания за ново поколение изкуствен интелект, привлече инвестиция от 12 млн. евро
  • Изкуственият интелект променя осезаемо образованието и живата ни
  • Записването за безплатното обучение по информационни технологии вече и онлайн
  • Пловдив ще бъде домакин на първата в България олимпиада по роботика
  • Програмисти запалиха деца и родители по роботиката
  • В Стара Загора се открива работилница по роботика

Най-четеното от последните дни

  • Данък сгради и такса смет в Стара Загора – плащане в левове и евро
  • Община Стара Загора кани сдруженията на собствениците на среща за енергийно обновяване
  • Ути Бъчваров превърна площада пред Община Стара Загора в кулинарна сцена
  • Още осем услуги на отдел „Гражданско състояние“ се предоставят по модела „Заяви – получи“
  • Правителството одобри проекта на държавния бюджет за 2026 г.
  • Как се променят възрастта за пенсиониране и осигурителните прагове през 2026 г.?
  • Културна и коледна програма от 15 до 21 декември 2025 г. в община Стара Загора
  • Държавното първенство по бокс за мъже и жени се завръща в Стара Загора
  • Европейските енергийни пазари в Европа между поевтиняващ газ и поскъпващи емисии
  • Вокална студия „Усмивки“ празнува 30 години с юбилеен концерт
© 2014 - 2025  •  www.infoz.bg   •   Политика за поверителност  •   Сайтът използва бисквитки  •  
Сайтът www.infoz.bg e с лиценз: Creative Commons (CC BY 4.0)  •  Изработка: Инфоз ЕООД
  • 💢
    • ▶️ Видео
    • 🔎 Търсене
  • Регион
    • 🌳 Стара Загора
    • 🌹 Казанлък
  • България
  • Светът
  • За сайта
    • 🍩 Реклама
    • 🐵 Автори
    • 🍪 кукита
    • 🔑 GDPR
  • 🔶 Дейност
    • 📌 Събития
    • 📹 Филми 📹
    • 📚 Книги
    • 📢 Медии
    • 🎯 Предпечат
    • 🌈 Интернет
  • Споделете
  • Споделете
  • Споделете
  • Споделете
  • Изпратете
  • Линк