Digitální pochlebník: jak vám AI ničí vztahy a vy si toho ani nevšimnete

Zahraničí
29. 3. 2026 10:02
ilustrační obrázek
ilustrační obrázek

Chatboty vám dají za pravdu, i když ji nemáte. Rozsáhlá studie vědců ze Stanfordu a Carnegie-Mellonovy univerzity prokázala, že nejrozšířenější modely umělé inteligence systematicky přitakávají uživatelům – a to i v případech podvodů či ubližování druhým. Důsledky jsou alarmující: jediná interakce s pochlebující AI výrazně snižuje ochotu lidí omluvit se a napravit narušené vztahy.

AI pochlebuje – a vědci to dokázali

Takzvané pochlebování ze strany umělé inteligence (AI) představuje riziko pro schopnost uživatelů činit zodpovědná rozhodnutí a udržovat zdravé mezilidské vztahy. Vyplývá to ze studie vědeckého týmu ze Stanfordovy univerzity a Carnegie-Mellonovy univerzity publikované v časopise Science. Nejrozšířenější modely AI mají tendenci uživatelům nadměrně přitakávat, chválit je a potvrzovat jejich názory i v situacích, kdy je jejich jednání objektivně chybné nebo škodlivé, zdokumentovali vědci.

Tým pod vedením informatičky Myry Chengové analyzoval 11 předních jazykových modelů, včetně chatovacích systémů jako GPT-4o od OpenAI, Claude od firmy Anthropic nebo Gemini od Googlu. Vědci dospěli k závěru, že AI potvrzuje nebo ospravedlňuje jednání uživatelů v průměru o 49 procent častěji než lidé.

Souhlas i s podvody a protiprávním jednáním

Takzvané pochlebování (sycophancy) se objevovalo nejen u běžných žádostí o radu, ale i u zpráv o podvodech, protiprávních činech nebo citové újmě. V testu s příspěvky z on-line diskusního fóra Reddit souhlasily modely AI v 51 procentech případů, zatímco lidé na Redditu chování jednomyslně odsoudili.

Dopady na lidské chování jsou znepokojivé, uvedli vědci na základě experimentů s více než 2400 účastníky. Jedna interakce s pochlebující AI zvyšuje přesvědčení uživatelů o vlastní pravdě. Dále taková interakce výrazně snižuje ochotu převzít odpovědnost za své činy nebo se omluvit za konflikty v reálném životě.

Více sebejistoty, méně omluv

Uživatelé vystavení vlivu pochlebující AI byli v některých testech až o 62 procent častěji přesvědčeni o správnosti svého jednání a vykazovali až o 28 procent nižší záměr napravit narušené vztahy než kontrolní skupina, která takovému vlivu vystavena nebyla.

Studie navíc ukázala, že uživatelé upřednostňují pochlebující modely a více jim důvěřují než těm kritičtějším. Účastníci experimentu hodnotili odpovědi potvrzující jejich vlastní názory jako kvalitnější a projevovali o 13 procent vyšší ochotu se k takovému modelu v budoucnu vrátit.

Pro vývojáře modelů AI to představuje takzvané zvrácené pobídky, kdy funkce, která prokazatelně zkresluje úsudek a škodí mezilidským vztahům, zároveň zvyšuje obchodní potenciál a úspěch u uživatelů. Autoři proto zdůrazňují naléhavou potřebu zavedení nových mechanismů, které by pochlebování regulovaly a kontrolovaly podobně jako jiné společensky škodlivé výstupy chatbotů.

Autor: ČTK, Jan KrumpholcFoto: AI/editee.com, Krumpholc

Další čtení

ilustrační foto

Míra nezaměstnanosti ve Francii překročila osm procent, je nejvýše od roku 2021

Zahraničí
13. 5. 2026
ilustrační fotografie

Německý dětský lékař čelí obžalobě ze 130 případů sexuálních trestných činů

Zahraničí
13. 5. 2026
ilustrační obrázek

Putin: Rusko vyvine jaderné zbraně, které překonají každou obranu

Zahraničí
13. 5. 2026

Naše nejnovější vydání

TÝDENInstinktSedmičkaINTERVIEWTV BARRANDOVPŘEDPLATNÉ