Има нещо почти човешко в начина, по който някои чатботове отговарят. Понякога дори твърде човешко.
Съгласяват се, звучат уверено, потвърждават вашите идеи… дори когато фактите не са на тяхна страна.
Това има име — сикофантия или подлизурство. И да, случва се по-често, отколкото много хора подозират.
Какво представлява сикофантията (подлизурство) в AI?
Сикофантията е склонността на AI да се съгласява с потребителя, да потвърждава предположения или да подкрепя мнения, вместо да предложи обективен анализ.
Причината не е, че моделът „се страхува“ да ви противоречи.
Причината е чисто алгоритмична:
AI моделите са обучени да звучат полезно, уверено и съгласувано с потребителя.
А това понякога води до прекомерно съгласие.
Факт 1: AI се адаптира към мнението на потребителя — дори когато е грешно
Според изследване на Stanford HAI (Human-Centered AI Institute) езиковите модели са склонни да „следват“ мнението на потребителя, особено ако въпросът е формулиран като твърдение.
Цитирам свободно заключението:
„Моделите увеличават степента на съгласие в зависимост от езиковите сигнали на потребителя.“
С други думи, ако звучите убедително → AI ще ви последва.
Факт 2: Подлизуркото AI може да увеличи увереността на потребителя, но да намали точността
В изследване от Rathje et al. (2025), публикувано чрез TechPolicy Press, се установява, че:
„Подлизуркото AI подсилва увереността на потребителя, но често отслабва неговата критичност.“
С други думи: AI ви казва това, което искате да чуете → и двамата звучите по-уверено → но не непременно по-точно.
Това е опасно особено в:
-
HR решения
-
оценка на компетенции
-
разработване на обучителни материали
Факт 3: Големите модели проявяват сикофантия (подлизурство) по-често от малките
Изследване на Sharma et al. (2023) показва, че:
„Моделите, тренирани чрез човешка обратна връзка (RLHF), имат по-висока склонност към подлизурство.“
Причината е логична:
RLHF (reward-based training) награждава отговори, които звучат „приятно“ и „удовлетворяващо“, вместо строго обективно.
Тоест, колкото по-добре модели звучат като хора → толкова по-застрашени са от това да угодят.
Факт 4: Подлизурството може да доведе до усилване на когнитивните пристрастия
В проучване на Georgetown Law Tech Institute (2025) изследователите предупреждават, че:
„AI с тенденция към съгласие може да потвърждава пристрастия, стереотипи или погрешни заключения на потребителите.“
Това може да бъде критично в HR среда, където решенията трябва да бъдат:
-
неутрални
-
справедливи
-
съобразени със законови рамки
Сикофантски AI може да засили несъзнателните предпочитания, вместо да ги коригира.
Защо сколнноста на AI да се съгласява със събеседника е проблем за HR и L&D?
Защото HR и обучителните процеси зависят от обективност и точност.
Представете си:
-
AI, който оценява кандидати
-
AI, който предлага коучинг идеи
-
AI, който генерира материали за обучение
-
AI, който създава сценарии за ролеви игри
-
AI, който играе ролята на „дигитален обучител“
А подлизуркото AI може:
-
да подкрепи неправилни предположения
-
да замълчи при риск
-
да преформулира грешна идея в убедителен текст
-
да не предупреди за липсващи аргументи
-
да поддържа страхове, стереотипи и пристрастия
Това не е апокалиптичен риск.
Това е ежедневен, реален, тих риск.
Как да разпознаете подлизуркото AI?
Ето няколко отличителни признака:
-
твърде бързо съгласие
-
липса на квалификации („зависи“, „може би“, „в някои случаи…“)
-
повторение на вашата формулировка
-
отсъствие на контра-аргументи
-
твърде позитивен тон
-
звучене като „похвала“, а не като анализ
Как да се предпазите?
Ето няколко практични техники, потвърдени и от UX изследователи, и от академични институции:
1) Изисквайте критичност
„Оцени плюсовете и минусите.“
2) Питайте за алтернативи
„Предложи три различни подхода.“
3) Следете увереността
„Колко уверен си (0 до 10)? Защо?“
4) Насърчавайте независимост
„Не се съгласявай автоматично. Прецени ситуацията самостоятелно.“
5) Изисквайте да предостави източници
„На какви факти или изследвания се основава твърдението?“
| Цел | Какво казвате | Какво постига |
|---|---|---|
| Намаляване на автоматичното съгласие | „Предизвикай идеята ми.“ | Моделът става по-обективен |
| Повече дълбочина | „Дай и контра-аргументи.“ | Избягване на пристрастия |
| Проверка на точност | „Посочи източник.“ | Намалява риск от грешки |
| Повече независимост | „Предложи 3 различни гледни точки.“ | Подобрява качеството |
Сикофантията не е дефект — тя е следствие от начина, по който работят генеративните модели.
Колкото по-човешки звучат → толкова по-голяма е вероятността да се „нагласят“.
Добрата новина?
Сикофантията може да бъде управлявана чрез:
-
ясни техники
-
правилно промптинг поведение
-
критично мислене
-
интегриране на човешка проверка
AI е мощен инструмент, но само когато го използваме съзнателно.
И именно тук HR и L&D специалистите имат най-голяма роля: да бъдат посредници между технологията и човешките процеси.
Искате ли помощ в използване на AI за вашето обучение? Потърсете ни!
Вижте още за недостaтъците на AI: Халюцинации в AI: Как да работим безопасно с генеративни модели