/КРОСС/ От 2 август 2025 г. в Европейския съюз влязоха в сила нови правила за разработване и използване на модели с изкуствен интелект с общо предназначение (ИИОП) - технологии, които стоят в основата на системи като ChatGPT, Copilot и други генеративни AI решения.
Тези правила са част от прилагането на Акта за изкуствения интелект (AI Act) и изискват от разработчиците на такива AI модели:
да поддържат и актуализират техническа документация
да предоставят ясна и достъпна информация на организациите, които използват тези модели в свои продукти и услуги
да прилагат политики за спазване на авторското право
и да публикуват обобщение на данните, използвани за обучение на модела, по образец, одобрен от Европейската комисия.
В допълнение на тези мерки доставчиците на модели на AI с общо предназначение, пораждащи системен риск, трябва да извършват оценка на модела в съответствие със стандартизирани протоколи и инструменти, оценяват и ограничават възможните системни рискове на ниво ЕС, проследяват, документират и докладват на Службата по AI инциденти и гарантират подходящо равнище на защита на киберсигурността. Системни са например рисковете, свързани с дискриминация срещу определена група от населението, които, ако бъдат пренесени от модел с общо предназначение, биха могли да засегнат милиони потребители.
В подкрепа на прилагането на тези изисквания, през юли ЕК представи и Кодекс за поведение за модели с общо предназначение - доброволен документ, предлагащ насоки за етично и отговорно използване на AI, включително прозрачност, авторски права, сигурност и управление на риска. Макар и доброволен, Кодексът вече се възприема от водещи компании и организации като добросъвестен ориентир за съответствие с бъдещите правни изисквания. Той допринася за изграждането на доверие, защита на основните права и ефективно управление на рисковете по цялата верига - от разработчици и доставчици на AI модели до крайните потребители.
Приносът на институт GATE: от европейски политики към реални решения
Институт GATE към СУ „Св. Климент Охридски" - първият Център за върхови постижения в областта на големите данни и изкуствения интелект в Източна Европа - е сред експертните участници в разработването на Кодекса за поведение, като участва в две от специализираните работни групи:
„Прозрачност и авторски права"
„Управление на риска в организациите"
„Създаването на Кодекса е важна стъпка към реалното прилагане на етични и правни принципи в технологичната практика. Участието ни в този процес е част от нашия ангажимент за изграждане на етична, сигурна и отговорна AI екосистема, която да служи на обществото. За нас в GATE е от значение и да създаваме среда, в която разработените политики да могат да бъдат тествани и усъвършенствани", коментира Иво Емануилов, ръководител на Лабораторията за експериментално регулиране и цифрови политики (GATE ERPL) и представител на института в работните групи.
GATE продължава да развива своя принос чрез Лабораторията за експериментално реулиране и цифрови политики - новата иновационна лаборатория, създадена за разработване, тестване и оценка на технологични решения и политики, свързани с изкуствения интелект. Тя предлага:
хибридна среда, която комбинира правен, етичен и технологичен анализ
възможности за прототипиране на регулаторни модели
контролирана среда за тестване на реалната приложимост и безопасност на AI технологии.
Лабораторията за експериментална регулация е първата по рода си в България и една от малкото в ЕС, която позволява реална проверка на ефективността и въздействието на нови AI решения още преди тяхното въвеждане на пазара.