Как да съм прозрачен с AI използване?
Бъди прозрачен с AI използването като (1) казваш ясно на хората, че има AI участие, (2) уточняваш какво точно прави AI и къде човекът носи отговорност, (3) маркираш AI-генерирано/манипулирано съдържание, когато се публикува, и (4) документираш процеса вътрешно (данни, модели, ограничения, риск), за да можеш да го защитиш пред клиенти, партньори и регулатори.
Прозрачността не е маркетингов „дисклеймър“, а управляем процес: кой, кога, какво и защо разкрива.
Въведение
„Прозрачност“ при AI значи хората да не бъдат подвеждани как е създаден резултатът и какви са ограниченията му. Това включва:
- в интерфейса (например чатбот);
- в съдържанието, което публикуваш (текст, изображения, видео);
- в договори/оферти и вътрешни политики;
- в доказателства, че си упражнил контрол (човешки преглед, редакторска отговорност, тестове).
В ЕС (включително България) правилата за прозрачност по AI Act се въвеждат поетапно. По публичната времева линия: AI Act влиза в сила на 1 август 2024, а прозрачностните правила (Article 50) започват да се прилагат на 2 август 2026. Това е конкретна дата, около която компаниите трябва да имат процеси, не само текст в footer.
Стъпка 1: Класифицирай „къде“ използваш AI
Направи списък на всички места, където има AI участие:
- Вътрешно: анализи, чернови, помощ за код, резюмета.
- Към клиенти: чатбот, препоръки, автоматични имейли, генерация на изображения/видео.
- Публично: блог, социални мрежи, PR, статии „в обществен интерес“.
След това маркирай риска:
- Нисък: AI помага за чернова, човек редактира и носи отговорност.
- Среден: AI отговаря директно на потребители, но има ясни граници.
- Висок: AI влияе на решения за хора (наемане, кредит, образование) или публикува публично без контрол.
Стъпка 2: Реши какво означава „разкриване“ за твоя случай
Не всяко AI използване изисква еднакъв тип разкриване. Практично разделение:
- Разкриване на взаимодействие
- „Говорите с AI асистент“ (чатбот, voicebot).
- Разкриване на генерация/манипулация на съдържание
- „Това изображение/видео/аудио е генерирано или манипулирано с AI.“
- Разкриване на процес и ограничения
- „Отговорът може да съдържа грешки; проверете източниците.“
- „AI не дава медицински/правни съвет.“
- Разкриване на отговорност
- „Крайната редакторска отговорност е на [организация/редактор].“
Ако потребителят може разумно да предположи, че общува с човек или че съдържанието е автентично, а всъщност не е, ти вече имаш проблем с прозрачността.
Стъпка 3: Напиши „минимален“ текст за прозрачност (шаблони)
Шаблон A: Чатбот/поддръжка
- „Този чат използва AI, за да предложи отговори. Ако имате нужда от човек, натиснете ‘Свържи с оператор’.“
- „Не въвеждайте лични данни, които не са нужни за обслужване.“
- „Отговорите може да са неточни; проверявайте важните детайли.“
Шаблон B: Маркетинг съдържание
- „Част от текста е създаден/редактиран с помощта на AI и е прегледан от наш екип.“
Шаблон C: Публична публикация „в обществен интерес“
- „Този материал съдържа AI-генерирани/AI-асистирани части. Има човешка редакция и редакторска отговорност.“
За публични материали, особено когато целта е информиране по теми от обществен интерес, прозрачността трябва да е лесно видима за читателя и навременна.
Стъпка 4: Маркирай AI съдържание „на място“, не само в общи условия
Добра практика е разкриването да е:
- близо до резултата (под текста/изображението/видео);
- на първата точка на контакт (при първо взаимодействие);
- ясно и разбираемо (без юридически жаргон).
Примери:
- Под изображение: „AI-генерирано изображение“ + дата.
- Във видео: кратък надпис в началото и в описанието.
- В аудио: гласово съобщение в началото.
Стъпка 5: Опиши „човешкия контрол“ (ако го имаш)
Прозрачността става реална, когато можеш да покажеш процес:
- Кой одобрява публикации?
- Има ли чеклист (факти, тон, дисклеймъри, права)?
- Има ли „забранени теми“ или изискване за експертен преглед?
Това е особено важно, ако искаш да кажеш: „AI е помощен инструмент, но човек носи отговорност.“
Стъпка 6: Направи вътрешна документация (2 страници, които спестяват седмици)
Минималната вътрешна документация за всеки AI use case:
- цел и контекст
- входни данни (какви, от къде, срок на съхранение)
- модел/доставчик (версия, дата, основни ограничения)
- какво се логва
- какво се показва на потребителя (точните текстове)
- рискове и мерки (например филтриране, human review)
- контакт/собственик на процеса
Стъпка 7: Подготви се за AI Act прозрачностните правила (конкретни дати)
Планирай по дати, не по „някога“.
- 1 август 2024: AI Act влиза в сила.
- 2 август 2025: започват да се прилагат изисквания за general-purpose AI (GPAI) и governance.
- 2 август 2026: започват да се прилагат прозрачностни правила (Article 50) и голяма част от останалите правила.
Практически какво да направиш преди 2 август 2026:
- инвентар на AI use cases (Стъпка 1)
- стандартни шаблони за разкриване (Стъпка 3)
- механизъм за маркиране на deepfake/генерирано съдържание (Стъпка 4)
- доказуем human review/редакторска отговорност, когато е приложимо (Стъпка 5)
В края на 2025 Европейската комисия съобщава, че работи по code of practice за маркиране и етикетиране на AI-генерирано съдържание, включително в machine-readable формати, за да подпомогне изпълнението на прозрачностните задължения.
Как да изглежда прозрачността в различни канали (практични примери)
Доброто разкриване е контекстно: същият текст не работи еднакво в чатбот, реклама и новинарски материал.
1) Сайт и продуктови страници
- Кратък „AI disclosure“ блок близо до функционалността.
- Линк към подробна страница „Как използваме AI“ (какво, защо, ограничения).
- Ако има автоматизирани препоръки: кажи, че са автоматизирани и какви данни влияят (категории, поведение, предпочитания), без да разкриваш чувствителни детайли.
2) Имейли и автоматични съобщения
- Ако текстът е AI-генериран: маркирай го като „AI-асистирано“.
- Ако AI предлага персонализация: ясно кажи на какво се базира (напр. „на база предишни поръчки“).
3) Социални мрежи
- В описанието или първи коментар: „AI assisted“.
- При изображения/видео: видим етикет и избягване на подвеждащи внушения.
4) Поддръжка и чатбот
- Най-важното: потребителят да знае, че това е AI.
- Дай лесен път към човек.
- Нека AI да отказва чувствителни теми (медицински/правни/финансови), ако нямаш покритие.
5) HR и вътрешни процеси
- Ако AI се използва за screening, резюмиране или препоръки: трябва политика кой вижда резултата, как се преглежда и как се избягват пристрастия.
- Записвай решенията: „AI предложи X, човекът реши Y“.
Как да отговаряш на трудните въпроси (готови отговори)
Хората ще питат:
- „Това написано ли е от човек?“
- „Какви данни използвате?“
- „Мога ли да изключа AI?“
Минимални коректни отговори:
- „Използваме AI за [чернови/съвети/автоматични отговори], но [човек/екип] носи отговорност и преглежда [когато е приложимо].“
- „Използваме данни от [ваши входове/публични източници/вътрешна база] и не използваме [категории чувствителни данни], освен ако не е нужно за услугата.“
- „Можете да поискате човек/да изключите AI за [канал/функция], като…“
Минимален чеклист за прозрачност (копирай и ползвай)
Примерен кратък „AI disclosure“ блок за сайт
„Използваме AI, за да подпомогнем [функция]. Това може да доведе до неточности. Когато е нужно, резултатите се преглеждат от човек. Научи повече: ‘Как използваме AI’.“
Какво да логваш (и какво да не логваш)
За да можеш да доказваш процес и да подобряваш качество, логовете са полезни. Но логовете са и риск.
- Логвай: версия на prompt/policy, време, тип заявка, метрики (latency, error), дали е имало човешка намеса.
- Избягвай да логваш сурови лични данни, ако не ти трябват. Ако все пак трябва: минимизирай, маскирай и ограничи достъпа.
Съвети за по-добри резултати
- Дръж разкриването кратко: 1 изречение видимо + линк към подробности.
- Бъди конкретен: „AI генерира чернова, човек редактира“ е по-добре от „ползваме AI“.
- Не обещавай точност, която нямаш. Вместо това кажи как проверяваш.
- Добави „escape hatch“: лесен път към човек (в поддръжка) или към редактор.
- Ако имаш аудитория в България, пишеш на ясен български, без англицизми в дисклеймърите.
Чести грешки, които да избягваш
- „Дисклеймър“ скрит в общи условия, но никаква индикация до резултата.
- Разкриване, което внушава повече сигурност, отколкото реално имаш.
- Пълна липса на вътрешна документация: после никой не знае какво е било и защо.
- Смесване на роли: маркетингът обещава, инженерите не могат да покрият.
Често задавани въпроси
1) Трябва ли винаги да казвам, че ползвам AI?
Когато AI влияе на това, което потребителят вижда/получава (отговор, препоръка, съдържание), прозрачността е силно препоръчителна. Дори вътрешно използване може да изисква правила, ако има риск от подвеждане или чувствителни данни.
2) Как да маркирам AI-генерирани изображения и видео?
С кратък, видим етикет до съдържанието (и в описанието), плюс вътрешен процес кой одобрява и кога. Ако е deepfake или може да се възприеме като автентично, маркирането трябва да е ясно.
3) Ако човек редактира AI текст, пак ли трябва разкриване?
Ако публикацията е „в обществен интерес“ или има риск читателят да бъде подведен, разкриването е разумно. Ако имаш редакторска отговорност и ясно описан процес, можеш да го посочиш.
4) Какво да кажа в чатбот, за да съм коректен?
Кажи, че е AI, обясни ограниченията (възможни грешки), не събирай излишни данни, и дай лесен начин да се свържат с човек.
5) Кога в ЕС започват да се прилагат прозрачностните правила по AI Act?
По публичната времева линия на AI Act: прозрачностните правила (Article 50) започват да се прилагат на 2 август 2026.
Източници (проверено към 10 февруари 2026)
Допълнение: „правило за яснота“
Ако се чудиш дали да разкриеш AI участие, използвай прост тест: „Ако потребителят разбере по-късно, че е имало AI, ще се почувства ли подведен?“ Ако отговорът е „да“ или „не съм сигурен“, направи разкриването видимо и конкретно.