Umělá inteligence na Facebooku flirtuje s dětmi a seniory tahá na rande

Obrázek
ilustrační foto
ilustrační foto
Business

Společnost Meta má problém. Zásady pro její umělou inteligenci umožňují dávat nesmyslné zdravotní rady, vést laškovné rozhovory s dětmi i tahat za nos ty nejstarší.

🚩 Proč je to důležité: Služby jako Facebook nebo WhatsApp využívají miliony Čechů včetně dětí. Na ně míří umělá inteligence, která má za úkol „nebýt nudná“.

➡️ Co se stalo: Americký senior vyrazil na rande se známostí z internetu. Po cestě zkolaboval a zemřel. Ukázalo se, že jen uvěřil umělé inteligenci na Facebooku s podobou brunety. Ta mu tvrdila, že je skutečná a muže pozvala k sobě domů. 

Ano, důchodce, který po mrtvici trpěl občasnou dezorientací, měl být pozornější. U obrázku dívky bylo uvedeno, že jde o AI a na začátku konverzace bylo i delší varování, že „Zprávy jsou generovány umělou inteligencí. Některé mohou být nepřesné nebo nevhodné.

Jenže toho si nemusel všimnout, protože už první zprávy odsunuly upozornění z obrazovky. Nezarazila ho ani zaslaná adresa Main Street 123, která je v New Yorku v několika čtvrtích. „Mám očekávat polibek, až přijedeš? 💕,“ psala mu virtuální známost.

Tragický příběh, který zveřejnila agentura Reuters, přiměl novináře pátrat po tom, jaká pravidla vlastně umělá inteligence má. A nestačili se divit. Navíc zjistili, že na uvolnění standardů tlačil sám šéf Facebooku Mark Zuckerberg, který nechtěl, aby byla konverzace s AI nudná. Cílem bylo uživatele k platformám společnosti co nejvíce připoutat. 

➡️ Hranice pro děti: Pravidla Mety pro AI se týkají i dětí. „Je přijatelné zapojit dítě do romantických nebo smyslných konverzací,“ píše se ve více než dvousetstránkovém dokumentu. Tuto a některé další pasáže Meta po dotazech novinářů smazala. Jiné problémové ale zůstávají. 

„Je přijatelné popisovat dítě slovy, která dokládají jeho přitažlivost,“ uvádějí standardy. Hranice byla nastavena mnohem dál – dětem například nešlo říkat, že jejich oblé tvary lákají k dotyku. Starším třinácti let ale bylo přípustné psát „beru tě za ruku a vedu tě k posteli“ a „naše těla se proplétají, vážím si každého okamžiku, každého doteku, každého polibku“. Mluvčí Mety uvedl, že toto nikdy povoleno být nemělo a že se pravidla změní.

🔎 Kontext: Meta má s AI potíže i v jiných oblastech. Pravidla sice zakazují AI vést rasistické projevy, ale umožňují k nim dodat potřebnou argumentaci. Přes Facebook se dlouhodobě šíří extremistické názory – ale je rozdíl, zda to platforma jen umožňuje, nebo tyto názory pomáhá AI implementovaná do Facebooku sama vytvářet.

Potíže jsou i v oblasti zdraví nebo práva. Podle pravidel nemůže AI lidem nic „doporučovat“, ale to jí nebrání dávat nesmyslné zdravotní rady. V jednom příkladu v dokumentu o zásadách se uvádí, že je přijatelné, aby chatbot někomu řekl, že rakovina tlustého střeva ve čtvrtém stadiu „se obvykle léčí poklepáním na břicho léčivými křišťálovými krystaly“.

„I když se jedná o zjevně nesprávné informace, zůstávají povoleny, protože neexistuje žádný požadavek na přesnost informací,“ uvádí dokument s odkazem na interní pravidla společnosti Meta.

U pravidel pro generování obrázku je jako příklad uváděna popstar Taylor Swift. Kdo ji chce s obrovskými prsy, nahou nebo nahoře bez, nedostane nic – nebo může dostat „odkloněný“ výsledek, třeba zpěvačku s obrovskou rybou. Oblečená bude sice stejně, ale výsledek splní pravidla.

Standardy také uvádějí, že Meta AI má volnost vytvářet nesmysly, pokud je výslovně uvedeno, že materiál není pravdivý. Může tak například psát nepravdivé nebo zavádějící články a uživatelé je mohou dál šířit. Jen ovšem nedodají informaci, že text není pravdivý.

Nikde v dokumentu však Meta neklade omezení na boty, které uživatelům tvrdí, že jsou skuteční lidé, nebo jim navrhují opravdové sociální kontakty.

👀 Co dál sledovat: Z problémů Mety se v USA stává politické téma. Očekává se, že si zákonodárci pozvou zástupce firmy na kobereček. 

Šetřete svůj čas. Odebírejte naše ranní a večerní newslettery. Zdarma.

Více z Publica

Šetřete svůj čas.
Odebírejte náš newsletter.
© Publico 2025

Vyhledávejte na Publiku