Интеграция на ИИ в бизнеса

От Ралица Махони

Правни съвети за вътрешнофирмено понижаване на риска при използване на изкуствен интелект

Статията се прочита за
думи

Регламент (ЕС) 2024/1689 за установяване на хармонизирани правила относно изкуствения интелект (ИИ), по-известен като законодателен Акт за ИИ на ЕС, е в сила от няколко месеца, но ще мине повече от година и половина преди да започне пълното му прилагане. Актът е насочен преди всичко към доставчици, внедрители, вносители и дистрибутори на системи с ИИ. Означава ли това, че до започване прилагането на Акта за ИИ използването на такива системи не е регламентирано? Или че липсват критерии, относими за ограничаване на рисковете от прилагане на ИИ в ежедневните бизнес дейности?

ИИ вече е в помощ на индивиди и компании при извършване на операции като превод и обработка на текстове, съдействие при формулиране на стандартни документи, генериране на изображения, анализ на данни, автоматизиране на процеси и пр. Очаква се прилагането му да доведе до повишаване ефективността и намаляване разходите в работните процеси чрез редица подобрения в областта на обслужване на клиенти, решаване на ежедневни задачи и проблеми, вътрешнофирмено разпространение на знания, по-добра реактивност на нововъведения и тенденции, предимство пред конкуренти и още, и още. С всичко това са свързани множество рискове за сигурността на данните, развиването на зависимост от технологиите при същевременна несигурност за качеството и възможностите за доверяване на системите с ИИ, повишаване на разходите за обучение, промяна на работни процеси, и не на последно място, етични и правни проблеми.

Използването на ИИ в професионалната сфера е стратегическо решение. Вземането на такова и развиването на оптимална стратегия за прилагане на системи с ИИ с цел оптимизиране на процеси и създаване на предимство пред конкуренти зависят от конкретните обстоятелства, технологичните възможности, развитите практики за обучение на персонала и други фактори. Ако предпочетете да насърчавате използването на системи с ИИ пред това да ги забраните в своята организация, то въвеждането на вътрешни правила и политики за и при работа с ИИ е важна стъпка, създаваща яснота за служителите и ограничаваща правните рискове, следващи от това решение.

Макар много аспекти на използването на системи с ИИ все още да не са нормативно уредени, вече съществуващите законови разпоредби трябва да бъдат взети предвид в контекста на приложенията на ИИ. Сред тях са законите за защита на авторските права, личните данни, търговските тайни, както и нормативните актове в областта на опазването на човешките права. По-долу предлагам пример, как съществуващата правна рамка може да бъде надградена за целите на въвеждане на системи с ИИ в предприятията.

Определяне приложното поле на системи с ИИ

Първата стъпка за ограничаване на правните рискове при използване на системи с ИИ в предприятието е дефиниране на възможните приложения и техните граници. При това се определя кръгът от лица, които имат право да боравят с ИИ, техните права и задължения в тази връзка, включително бюджети при използване на платени системи с ИИ, начините за регистрация и автентикация при вход в такива системи (конкретни служебни имейли), евентуално ред за получаване на съгласие/ разрешение за достъп до такива системи в отделни случаи или генерално.

С това на първо място, независимо дали на този етап в едно предприятие е разрешено или не прилагането на ИИ, това трябва да бъде залегнато в неговите вътрешни правила и/ или в индивидуалните трудови договори със служителите. Необходимо е изрично да се посочи позволено или не е използването на системи с ИИ, ако е допустимо използването - да се определи в кои случаи, кои системи и по какъв начин може да става това, както и какъв е редът за получаване на достъп до такива системи от служителите.

Всичко това е важно, за да се даде възможност за обозримост и по-лесна проследимост на дейностите, свързани с използване на ИИ.

Гарантиране човешкия контрол при използване на системи с ИИ

Независимо от отговорността на разработчици, доставцичи, внедрители и дистрибутори на системи с ИИ, при използване на такива отговорността за това е на съответния ползвател. На този етап капацитетът на ИИ е ограничен от предоставените им данни и информация. Натрупаният опит, интуиция, способността за решаване на морални и етични проблеми все още са единствено прерогатив на хората.

Ето защо, за намаляване на потенциални рискове, водещи до ангажиране на отговорността на предприятията, използващи системи с ИИ, е необходимо да се гарантира, че използването на придобити с помощта на ИИ резултати ще бъде надзиравано и контролирано от компетентни лица.

При това е полезно да се въведе процес по предварителна оценка и последваща проверка, в рамките на който да се поличи отговор включително на следните въпроси:

  • Кое е най-подходящото приложение, използващо ИИ, за конкретните цели?

  • Предоставените на ИИ данни притежават ли необходимите цялост, пълнота и качество?

  • Генерираният от ИИ продукт съответства ли на поставените цели?

  • Осигурена ли е нужната защита на данните при използване на системи с ИИ?

  • Какви са възможните правни рискове при използване от предоставения от ИИ резултат - например засягане на лични данни, дискриминация на отделни групи лица, накърняване права на интелектуална собственост и пр.

Наред с горното, препоръчително е да се извърши проверка и съпоставка на получения от ИИ резултат с актуални факти, знания и данни, за да се осигури съответствието му с текущия етап на развитие в дадена област, както и да се избегне разпространение на невярна или подвеждаща информация.

Предотвратяване на етични и морални проблеми

Човешкият контрол при използване на системи с ИИ трябва да бъде особен чувствителен към потенциални правни рискове, произтичащи от неспособността на ИИ да взема решения за това, кое е етично правилно или не. Така например, при превод на текст от език, където половете са неутрални (както до голяма степен е в английския), ИИ е склонен да възприема заложените в оригиналния текст стереотипи. Сходна е ситуацията при генериране на изображения, при което е нужно да се обърне внимание, дали предоставените от ИИ образи не са неравнопоставящи с оглед пол, раса, социално положение и пр.

Това са само няколко примера, как използването на ИИ без последващ контрол и критичен анализ в работните процеси може да доведе до неволно дискриминативни резултати, които от своя страна да увеличат риска от ангажиране на отговорността на предприятието-ползвател на ИИ или отделни негови служители.

Ето защо при използване на ИИ в социално дискусионни области е важно да се изследват въпросите дали (1) предоставената на ИИ информация е безпристрастна и (2) полученият резултат съдържа нежелани отклонения.

Според отговора на тези въпроси може да е необходимо да се предприемат корекции преди използване на предоставения от ИИ краен продукт.

Получаване на съгласие за използване на системи с ИИ

Обосновано е общественото очакване в близко бъдеще да бъдат създадени ясни разпоредби, регламентиращи използването на ИИ. До тогава обче и по отношение на прилагането на системи с ИИ трябва да бъдат съблюдавани съществуващите нормативни актове по отношение на защитата на данните, търговските тайни, авторските права и правата върху търговските марки. Тези актове не само ограничават вида и обема от информация, която може да бъде използвана извън целите, за които е предоставена, но и забраняват препредаването й извън предварително оповестения кръг получатели. В тази връзка не трябва да се забравя, че при използване на много от свободно достъпните ИИ инструменти се предоставя косвено съгласие с по-нататъшното обработване на предоставените на този инструмент данни.

Така очертаните проблеми могат да намерят решение в няколко стъпки:

  • На първо място, необходимо е да бъдат уведомени лицата, чиято чувствителна информация (предмет на защита на личните данни или на задължения за конфиденциалност на нормативно или договорно основание) ще бъде използвана при работа с ИИ, за това, като им се разяснят целите, ползите, рисковете и начините за тяхното предотвратяване.

  • Следващата стъпка е, след като е предоставена пълна и точна информация във връзка с използване на данните, да бъде получено информирано съгласие за това. Разбира се, за доказателствени цели препоръчително е това да стане в писмена форма.

  • На последно, но не по важност, място, трябва да се насърчва използването на по възможност анонимизирани данни (премахване на всякаква индивидуализираща конкретни лица информация), както и предоставяните на ИИ данни да бъдат сведени до минимум, когато се засяга чувствителна информация, потенциално обект на нормативна закрила, на трети лица.

Създаването на яснота при използване на ИИ не само в рамките на организацията, но и спрямо нейните ценни партньори, е предоставка за успешното интегриране на този вид иновации.

Осигуряване спазването на конфиденциалност

В продължение на гореописания процес по получаване на съгласие и обръщане на внимание на споделяните с външни организации (разработчици/ доставчици на системи с ИИ) трябва да бъдат поставени и ясни граници по отношение на информацията, която би могла да бъде предоставяна в съкратена или анонимизирана форма, както и на такава, която по никакъв повод не следва да напуска пределите на предприятието. Особено когато се касае за търговски тайни, собствени или получени от търговски партньори, служителите трябва да бъдат точно инструктирани кои данни не могат да бъдат използвани при прилагане на системи с ИИ, респективно в кои случаи за такова използване трябва да бъде получено разрешение.

Затова е важно не само поверителната информация да бъде маркирана като такава, служителите да бъдат задължени (с индивидуалните трудови договори, отделни споразумения или декларации) за спазване на конфиденциалност по отношение на нея и да получат ясни указания за неразпространението й, включително пред разработчици и доставчици на системи с ИИ при боравенето с такива инструменти.

Най-много сигурност при обработване на поверителна информация, когато използването на ИИ е неизбежно или желателно с оглед бизнес целите на предприятието, е да бъдат използвани вътрешнофирмени приложения с ИИ, които се хостват локално и по този начин се предотвратява разпространението на чувствителна информация извън собствената организация.

Маркиране на съдържание, генерирано от ИИ

Разумното и отговорно прилагане на ИИ изисква от предприятията да разкриват кога за дено съдържание или в определен процес е използван ИИ. По този начин не само се предотвратяват възможни заблуди и подвеждане, но и се ограничават рисковете от ангажиране на отговорност, следваща от трудното различаване на генериран от или с помощта на ИИ продукт. Не на последно място, по този начин се избягват и потенциални проблеми, свързани с авторски права на така създадено съдържание.

В тази връзка препоръчително е въвеждане на задължения за служителите за отбелязване на генерирано с ИИ съдържание по недвусмислен начин. “Създадено от ИИ” или “Създадено от ______ с помощта на ИИ” са само два възможни примера.

Обучение и повишаване на квалификацията за работа с ИИ

За успешно интегриране на ИИ и увеличаване на доверието в сигурното и отговорно използване на такива инструменти изискват редовни обучения, уебинари, споделяне на опит и примери за боравенето с ИИ.

Отговорност на работодателите е не само да осигурят възможности за придобиване и повишаване на квалификацията на служителите си в областта на ИИ, но и да ги задължат в рамките на законово допустимото за участие в така осигурените курсове и обучения.

Създавне на вътрешнофирмени правила и политики

Работата с ИИ изисква точна и пълна информираност за правното положение. Това включва и правилното определяне на данните, които могат да бъдат предоставяни на ИИ не само от гледна точка на вече дискутираните по-горе въпроси за защита на личните данни и за опазване поверителността на търговските тайни, но и на правата на интелектуална собственост на трети лица.

Разяснение на правното положение, дефиниране на разрешено използване, получаване на необходими съгласия, разрешения и лицензи, въвеждане на задължения за съгласуване, спазване на конфиденциалност и неразкриване на данни, могат да бъдат включени в Правилника за вътрешния трудов ред на предприятието или в отделен нарочен вътрешен документ, посветен на работата с ИИ. Използването на системи с ИИ и свързаните с това рискове и задължения трябва да намерят отражение и във вътрешните правила за защита на личните данни.

Независимо от формата на уреждане на вътрешнофирмените отношения, следващи от прилагането на системи с ИИ, съответните отговорности на служителите трябва да бъдат включени или в техните индивидуални трудови договори, или да бъдат потвърдени чрез декларация за запознаване с правилата за работа с ИИ в предприятието.

При съставяне на настоящата публикация, както и на всички предходни статии в блога на Mahony's Law Studio, не е използван ИИ.