Automation Bulgaria  
Ехнатон
Ехнатон

Екип с българско ядро разработи първата рамка за оценка на съответствието на големите езикови модели с AI Act

Изследователски екип с българско участие създаде първата в света рамка за оценка на съответствието на генеративния изкуствен интелект (GenAI) със Законодателния акт на ЕС за ИИ (AI Act), придружена от широкообхватно проучване на популярните публични AI модели.

 

Разработката е дело на международен технологичен консорциум, включващ Швейцарския федерален технологичен институт в Цюрих (ETH Zurich), българския Институт за компютърни науки INSAIT и софтуерния стартъп за диагностика на ИИ LatticeFlow, основан от д-р Петър Цанков и проф. Мартин Вечев, който е учредител и научен директор на INSAIT. Двамата учени са част и от екипа на ETH Zurich.

 

Does it COMPL-AI?

 

Платформата с отворен код COMPL-AI, която вече е свободно достъпна за ползване в интернет, проверява дали публичните GenAI модели са надеждни, като съпоставя принципите на Закона за изкуствения интелект, т. е. регулаторните изисквания, към приложимите технически спецификации. Разработката представлява първата рамка с отворен достъп за интерпретиране на AI Act с фокус върху големите езикови модели (LLM), като тези на OpenAI, Meta, Google, Anthropic и Alibaba.

 

"Европейската комисия приветства това проучване и платформата за оценка на AI модели като първа стъпка в "превеждането" на AI Act по отношение на техническите изисквания, която ще помогне на доставчиците на такива платформи да прилагат законодателния акт", коментира Томас Рение, говорител на ЕК по въпросите на цифровата икономика, научните изследвания и иновациите.

 

 

AI Act за първи път се интерпретира в технически аспект

 

Законодателният акт за ИИ на Европейския съюз – първият всеобхватен европейски регламент по отношение на изкуствения интелект, влезе сила през август т. г. Документът очертава регулаторни изисквания на високо ниво, без обаче да предоставя подробни технически указания, които компаниите да следват, отбелязват от консорциума.

 

За да адресира това, ЕК стартира консултации относно създаването на т. нар. Кодекс на практиката (Code of Practice) за доставчици на AI модели с общо предназначение (General-Purpose Artificial Intelligence GPAI), който да служи за рамка при осъществяването на надзор на внедряването и прилагането на правилата на AI Act относно GPAI моделите. В тази връзка платформата COMPL-AI може да бъде от полза и за работните групи в сегмента на GPAI, които да я използват като отправна точка за техническо тълкуване, допълват от екипа.

 

Големите езикови модели срещат регулацията

 

За да може да бъде използвана за надеждна оценка на съответствието на големите езикови модели с техническите и регулаторните изисквания, отворената рамка на COMPL-AI е базирана на 27 съвременни стандарта (benchmarks) в областта.

 

"Каним изследователи, разработчици и регулатори в областта на изкуствения интелект да се присъединят към нас, за да усъвършенстваме проекта. Насърчаваме други научноизследователски групи и практически ползватели на технологията да дадат своя принос в интерпретирането на AI Act, като добавят нови стандарти и разширят тази отворена рамка. Методологията може да бъде развита така, че да оценява съответствието на AI моделите и с други бъдещи регламенти, за да се превърне в ценен инструмент за организации с различни юрисдикции", посочва проф. Мартин Вечев.

 

 

Фокус не върху ефективността, а върху съответствието

 

Публичните модели с генеративен изкуствен интелект, като тези на OpenAI, Meta, Google, Anthropic, Alibaba и др., традиционно се оптимизират за ефективност и производителност, но с помощта на новата платформа за първи път могат да бъдат цялостно оценявани и за съответствие с AI регламента на ЕС.

 

"Оценката разкрива ключови пропуски – няколко от високопроизводителните модели на пазара не отговарят на регулаторните изисквания, а голяма част от публичните платформи успяват да покрият едва на 50% стандартите за киберсигурност и еталоните за справедливост", разкриват от консорциума. Изследователите добавят, че изследването все пак стига и до положителни изводи – повечето проучени модели са оценени добре по отношение на изискванията за вредно и "токсично" съдържание, което означава, че разработчиците им вече са ги оптимизирали в тези направления.

 

Някои аспекти все още са трудни за стандартизиране

 

Екипът пояснява, че някои конкретни технически изисквания, като защитата на авторските права и поверителността на потребителите, остават трудни за стандартизиране, което разкрива нуждата от по-нататъшно усъвършенстване на регламента в подкрепа на по-надеждното техническо оценяване.

 

"С новата рамка всяка компания в сегмента, независимо дали работи с публични, персонализирани или частни модели, вече може да ги оцени спрямо техническите аспекти на Закона за AI. Нашата визия е да дадем възможност на организациите да гарантират, че техните AI системи са не само високопроизводителни, но и напълно приведени в съответствие с регулаторните изисквания", обобщава д-р Петър Цанков, съосновател и главен изпълнителен директор на LatticeFlow.

 

     
Източник: LatticeFlow; снимки: Dreamstime

Ключови думи: GenAI   AI Act   ETH Zurich   INSAIT   LatticeFlow   COMPL-AI   изкуствен интелект   ИИ   AI   големи езикови модели   генеративен изкуствен интелект   законодателен акт  

Област: Автоматизация  

ГЕМАМЕКС
Подобни статии
Ротек
Elmark Automatyka

АБОНИРАЙТЕ СЕ за единствения у нас тематичен бюлетин НОВИНИТЕ ОТ АВТОМАТИЗАЦИЯТА на специализирания портал Automation-Bulgaria.com.  БЕЗПЛАТНО, професионално, всяка седмица на вашия мейл!


Мехатроникс
Последно от Технологии

Специализиран портал от групата IndustryInfo.bg

Действителни собственици на настоящото издание са Теодора Стоянова Иванова и Любен Георгиев Георгиев

ПОЛИТИКА ЗА ПОВЕРИТЕЛНОСТ И ЗАЩИТА НА ЛИЧНИТЕ ДАННИ
Условия за ползване
Изисквания и условия за реклама
Карта на сайта

© Copyright 2010 - 2025 ТИ ЕЛ ЕЛ МЕДИА ООД. Всички права запазени.

  Фирмена публикацияПродуктови офертиБизнесВидео на седмицатаПроектиОбществени поръчки/ТърговеЕкспертноСъбитиятаТехнологииКариериТехнически статии
 

ОЩЕ ПОРТАЛИ ОТ ГРУПАТА

IndustryInfo.BG

ПРЕПОРЪЧВАМ МАТЕРИАЛ


 
 
момент...