Automation Bulgaria  
Ехнатон
Ехнатон

Какви рискове дебнат предприятията, когато изкуственият интелект действа сам

С все по-широкото навлизане на изкуствения интелект и на автономните AI агенти в критични приложения в бизнеса и индустрията, предприятията и организациите се оказват изложени на сериозни опасности. Това показва ново проучване на Boston Consulting Group (BCG), в което експертите алармират, че са необходими спешни мерки в това направление.

 

"Тези системи вече не са просто пасивни инструменти. Те активно вземат решения, способни са да наблюдават и планират, да действат и да учат в големи мащаби. С тези автономни възможности идват повишени и непознати рискове", твърдят от консултантската агенция в наскоро публикувания си доклад "Какво се случва, когато AI спре да иска разрешения?".

 

Нужен е коренно различен подход към управлението на риска

 

Според анализаторите автономно действащите AI агенти изискват фундаментално различен подход по отношение на управлението на риска, а нововъзникващите заплахи са по-трудни за елиминиране по две основни причини – много по-ограничен човешки надзор и липса на адекватен мониторинг на поведението на машинния интелект. За база на изследването си от BCG използват реални казуси, данни с глобален обхват и актуални анализи на инцидентни събития.

 

Статистиките сочат, че само през последната година инцидентите, свързани с изкуствен интелект, са нараснали с над една пета (21%), което по мнение на специалистите е доказателство, че опасностите покрай използването на технологията съвсем не са само на теория. В този контекст екипът на Boston Consulting Group предлага специализирана рамка за управление на риска в новата ера на автономните системи.

 

 

"Агентният AI променя правилата на играта, що се отнася до мениджмънта на рисковете и качеството. Автономните агенти са мощни, но могат драстично да се отклонят от желаните бизнес резултати. Истинско предизвикателство е тези платформи да се придържат към фирмените стратегии и ценности, като същевременно работят бързо и автономно", предупреждава Ан Клепе, управляващ директор и партньор в BSG, глобален ръководител на дейностите на компанията в сферата на AI.

 

Защо според BCG това е важно именно сега

 

Данните на AI Incidents Database (глобална онлайн платформа за регистриране на инциденти, причинени от AI), цитирани от BCG, показват, че опасностите за бизнеса след внедряването на изкуствен интелект вече имат проявления в реалния свят. И те създават множество потенциални проблеми от финансов, регулаторен и репутационен характер за компаниите, добавят анализаторите.

 

Проектът AI Incident Database цели да послужи като колективна хроника на всички действително нанесени вреди (или почти случили се такива) във физическия свят във връзка с използването на системи с изкуствен интелект. Подобно на съществуващи онлайн регистри, създадени за целите на авиацията и компютърната сигурност, и тази информационна база следи инцидентите с изкуствен интелект, за да помогне на хората и организациите да се поучат от опита на другите и по-ефективно да предотвратяват или смекчават ефектите на различни събития. "Каним всички да подават сигнали за такива инциденти, за да направим информацията за тях публично достъпна и откриваема. AI би бил от полза за хората и обществото, само ако колективно записваме и се учим от грешките му", коментират от AI Incident Database.

 

 

Примери

 

Един от примерите, разгледан в доклада на BSG, е повече от куриозен. Агент с изкуствен интелект за отчет на разходи не успява да интерпретира разписки за направени разноски във фирмата, затова решава да изфабрикува правдоподобни записи, включително фалшиви имена на ресторанти, за да постигне целта си.

 

Какъв ефект би имала подобна "самоинициативност" в индустрията, където AI вече управлява мощни машини, роботи и производствени линии? Засега регистърът на инцидентите предупреждава основно за конфликти между стратегиите за оптимизация, изпълнявани от различни AI агенти в производствената екосистема, които лавинообразно ескалират в системни забавяния и изоставане от графиците. Дали обаче опасностите се изчерпват само с това?

 

 

В здравеопазването са налице друг тип рискове – например агентите да приоритизират по-прости пациентски казуси, за да увеличават целенасочено продуктивността си чрез по-голям обработени заявки, като така пренебрегват спешни състояния и застрашават здравето и живота на мнозина.

 

До три години: AI ще взима решения в над една трета от глобалните компании

 

"Тези провали не се дължат на бъгове. Те всъщност са присъщи за системи, които автономно наблюдават, планират, изпълняват и се обучават. А проблемите могат да се усложнят бързо, като се има предвид, че агентите работят с малък или никакъв пряк човешки надзор. Това налага нови подходи за наблюдение на поведението им в реално време", категорични са от BCG.

 

Друго скорошно проучване на консултантската агенция, проведено в колаборация с издание на Масачузетския технологичен институт, разкрива друга тревожна тенденция. Макар само 10% от компаниите в момента да позволяват на агенти с изкуствен интелект да вземат решения, експертите очакват този брой да нарасне до 35% в рамките само на три години. Същевременно близо 70% от ръководителите на предприятия се обединяват около тезата, че агентният изкуствен интелект изисква изцяло нови управленски подходи.

 

 

Специално създадена рамка за управление на риска

 

"Първата линия на защита всъщност е да се запитаме трябва ли ни наистина AI агент? В редица случаи очакваните ползи могат да бъдат реализирани чрез други технологии с изкуствен интелект (но не агентен), където рисковете могат да бъдат по-лесно управлявани", поясняват анализаторите.

 

Те предлагат специално разработен модел за управление на риска в четири части, който да подпомага директори по научноизследователска и развойна дейност, технически, оперативни директори и други ръководители на високо управленско ниво в предприятията да се справят по-лесно с потенциалните опасности във връзка с внедряването и използването на AI.

 

Рамката се състои от следните основни елементи:

 

  • Създаване на специфична за агента таксономия на риска: картографиране на възможните технически, оперативни и потребителски рискове;
  • Симулиране на реалните условия преди внедряване: използване на тестови платформи, които симулират реалния свят, за да се разиграят предварително потенциални сценарии на отказ или инцидент;
  • Внедряване на платформи за мониторинг на поведението на AI агентите в реално време: преминаване от вътрешен преглед на логиката към външно проследяване на работата и производителността;
  • Интегрирани протоколи за устойчивост и ескалация: осигуряване на безопасен отказ на системите, с многопластов човешки надзор и процедури за осигуряване на непрекъснатост на процесите и услугите.

"Това не е просто проблем с изкуствения интелект, а предизвикателство за непрекъснатостта на процесите и услугите в бизнеса и индустрията. AI агентите трябва да бъдат внедрявани съобразно възможностите за справяне с рисковете, както и да бъдат контролирани още от първия ден. Само така можем да отключим пълната им добавена стойност, без да ставаме жертви на нови типове рискове", обобщава Стивън Милс, главен директор "Етика на изкуствения интелект" в BCG.

 

     
Източник: Boston Consulting Group; снимки: Dreamstime

Ключови думи: Boston Consulting Group   AI   изкуствен интелект   рискове   инциденти   бизнес   индустрия   AI агенти   агентен AI  

Област: Автоматизация  

ГЕМАМЕКС
Подобни статии
Ротек

АБОНИРАЙТЕ СЕ за единствения у нас тематичен бюлетин НОВИНИТЕ ОТ АВТОМАТИЗАЦИЯТА на специализирания портал Automation-Bulgaria.com.  БЕЗПЛАТНО, професионално, всяка седмица на вашия мейл!


Последно от Технологии

Специализиран портал от групата IndustryInfo.bg

Действителни собственици на настоящото издание са Теодора Стоянова Иванова и Любен Георгиев Георгиев

ПОЛИТИКА ЗА ПОВЕРИТЕЛНОСТ И ЗАЩИТА НА ЛИЧНИТЕ ДАННИ
Условия за ползване
Изисквания и условия за реклама
Карта на сайта

© Copyright 2010 - 2026 ТИ ЕЛ ЕЛ МЕДИА ООД. Всички права запазени.

  Фирмена публикацияПродуктови офертиБизнесВидео на седмицатаПроектиОбществени поръчки/ТърговеСъбитиятаЕкспертноКариериТехнологииТехнически статии
 

ОЩЕ ПОРТАЛИ ОТ ГРУПАТА

IndustryInfo.BG

ПРЕПОРЪЧВАМ МАТЕРИАЛ


 
 
момент...