Digitální pochlebník: jak vám AI ničí vztahy a vy si toho ani nevšimnete

Zahraničí
29. 3. 2026 10:02
ilustrační obrázek
ilustrační obrázek

Chatboty vám dají za pravdu, i když ji nemáte. Rozsáhlá studie vědců ze Stanfordu a Carnegie-Mellonovy univerzity prokázala, že nejrozšířenější modely umělé inteligence systematicky přitakávají uživatelům – a to i v případech podvodů či ubližování druhým. Důsledky jsou alarmující: jediná interakce s pochlebující AI výrazně snižuje ochotu lidí omluvit se a napravit narušené vztahy.

AI pochlebuje – a vědci to dokázali

Takzvané pochlebování ze strany umělé inteligence (AI) představuje riziko pro schopnost uživatelů činit zodpovědná rozhodnutí a udržovat zdravé mezilidské vztahy. Vyplývá to ze studie vědeckého týmu ze Stanfordovy univerzity a Carnegie-Mellonovy univerzity publikované v časopise Science. Nejrozšířenější modely AI mají tendenci uživatelům nadměrně přitakávat, chválit je a potvrzovat jejich názory i v situacích, kdy je jejich jednání objektivně chybné nebo škodlivé, zdokumentovali vědci.

Tým pod vedením informatičky Myry Chengové analyzoval 11 předních jazykových modelů, včetně chatovacích systémů jako GPT-4o od OpenAI, Claude od firmy Anthropic nebo Gemini od Googlu. Vědci dospěli k závěru, že AI potvrzuje nebo ospravedlňuje jednání uživatelů v průměru o 49 procent častěji než lidé.

Souhlas i s podvody a protiprávním jednáním

Takzvané pochlebování (sycophancy) se objevovalo nejen u běžných žádostí o radu, ale i u zpráv o podvodech, protiprávních činech nebo citové újmě. V testu s příspěvky z on-line diskusního fóra Reddit souhlasily modely AI v 51 procentech případů, zatímco lidé na Redditu chování jednomyslně odsoudili.

Dopady na lidské chování jsou znepokojivé, uvedli vědci na základě experimentů s více než 2400 účastníky. Jedna interakce s pochlebující AI zvyšuje přesvědčení uživatelů o vlastní pravdě. Dále taková interakce výrazně snižuje ochotu převzít odpovědnost za své činy nebo se omluvit za konflikty v reálném životě.

Více sebejistoty, méně omluv

Uživatelé vystavení vlivu pochlebující AI byli v některých testech až o 62 procent častěji přesvědčeni o správnosti svého jednání a vykazovali až o 28 procent nižší záměr napravit narušené vztahy než kontrolní skupina, která takovému vlivu vystavena nebyla.

Studie navíc ukázala, že uživatelé upřednostňují pochlebující modely a více jim důvěřují než těm kritičtějším. Účastníci experimentu hodnotili odpovědi potvrzující jejich vlastní názory jako kvalitnější a projevovali o 13 procent vyšší ochotu se k takovému modelu v budoucnu vrátit.

Pro vývojáře modelů AI to představuje takzvané zvrácené pobídky, kdy funkce, která prokazatelně zkresluje úsudek a škodí mezilidským vztahům, zároveň zvyšuje obchodní potenciál a úspěch u uživatelů. Autoři proto zdůrazňují naléhavou potřebu zavedení nových mechanismů, které by pochlebování regulovaly a kontrolovaly podobně jako jiné společensky škodlivé výstupy chatbotů.

Autor: ČTK, Jan KrumpholcFoto: AI/editee.com, Krumpholc

Další čtení

ilustrační obrázek

Feldheim jako vzor i varování: energetická soběstačnost má svou cenu

Zahraničí
29. 3. 2026
ilustrační obrázek

STVR radí umělcům: Děkujte, usmívejte se a hlavně – mlčte

Zahraničí
29. 3. 2026

Maďaři posílají dary na podporu policisty, jenž promluvil o akci proti opozici

Zahraničí
28. 3. 2026

Naše nejnovější vydání

TÝDENInstinktSedmičkaINTERVIEWTV BARRANDOVPŘEDPLATNÉ