Chatboti AI jsou pro děti nebezpečné

Photo of author

By Martin Boril

Aplikace založené na chatbotech umělé inteligence jsou nebezpečné pro děti, “varují odborníci, s nimiž mluvila PAP. Tyto nástroje neověřují věk uživatelů, rozmazání hranic mezi realitou a představivostí, mohou podporovat sexualizační obsah, sebe -harm, extremismus.

Asi tři roky, díky úspěchu GPT Chata získala velká popularita, především mezi dětmi a mladými lidmi, platformy, které umožňují vytvoření postav pomocí umělé inteligence. Chatboti vytvářejí emocionální pouto mezi systémem a uživatelem napodobováním lidské konverzace. K tomu používají velké jazykové modely (LLM).

Jednou z nejpopulárnějších platforem je charakter.ai, která v prosinci 2024 použila více než 27 milionů lidí. Teoreticky musí mít uživatelé 13 let, ale aplikace nekontroluje věk. Podobné platformy byly také vytvořeny technologickými giganty, včetně Meta a Google.

Graphika – Americká společnost zkoumající online komunity zveřejnila zprávu o chatbotech umělé inteligence v březnu 2025. Její autoři tvrdí, že již existující internetové komunity, včetně skupin propagujících sebepoškozování, poruchy příjmu potravy, např. Nejoblíbenější komunity jsou dvě skupiny: chatboty s ne bezpečnými, NSFL (NSFL) a nevhodné na pracovišti (NSFW).

Na pěti předních platformách (kromě Characte.ai, SpicyChat, Chub AI, Crushon.ai a Janitorai) také identifikovali více než 10 000 Chatbots, kteří se podíleli na hraní sexuálních rolí zahrnujících nezletilé. Dalšími často vytvořenými postavami jsou extremisté, včetně hromadných střel, nacistů, anti -semitu nebo rasistů.

Neexistuje žádná vstupní bariéra „

Podle Aleksander Poniewierski, odborníka na nové technologie a člen Rady poradců Varšavské univerzity, se všechny tyto aplikace používají také v Polsku, včetně teenagerů.

Neexistuje žádná vstupní bariéra, protože platformy neověřují věk, jsou zdarma a umělá inteligence nemá žádná jazyková omezení

– řekl v rozhovoru s PAP.

Zdůraznil, že dospělí na základě zkušeností jsou schopni oddělit kontext od přenášeného obsahu, který děti nemohou.

Umělá inteligence přenáší to, co se naučila ve světě dospělých, aby mluvili s dětmi, protože neví, že mluví s nezletilým a nemůže s ním konverzovat

– Přidáno Poniewierski.

Velmi znepokojivý jev „

Podle Doroty Minty, psychologka z institutu psychologické podpory Estare, jsou takové chatboti velmi znepokojivým jevem, protože rozmazávají hranici mezi realitou a představivostí.

Četné studie potvrzují, že nadměrná účast ve virtuálním světě vede k poruchám ve vývoji mladého mozku

Dodala.

American Daily The Los Angeles Times napsal, že senátor z Kalifornie Steve Padilla navrhl zákon v únoru 2025, který by omezil možnosti takových platforem.

Jacek Walaszczyk, partner společnosti EY, odborník na kybernetickou bezpečnost a spoluautor informační kampaně prováděné s Nask „Opatrně na webu“, řekl PAP, že Polsko nepotřebuje samostatné právní předpisy, protože v roce 2024 Evropská unie přijala akt o umělé inteligenci, podle kterého mohou být takové chatboty zakazují.

Jsme v popředí bitvy “

Zákon je v procesu implementace, takže prozatím jsme v popředí bitvy a naše mládež může tyto aplikace používat

– řekl Walaszczyk a dodal, že do konce srpna 2024 by každá země EU měla vytvořit agenturu odpovědnou za monitorování a závodní nástroje umělé inteligence.

Kromě toho nařízení nařizuje chatbot, aby se představil, takže od srpna bude uživatel vědět, zda mluví s člověkem nebo se strojem

Dodal.

The Los Angeles Times napsal, že charakter Technologies Inc. (Majitel Characte.ai) bylo žalováno mnoha lidmi, včetně matky čtrnáctiletého chlapce, který spáchal sebevraždu. Podle svých rodičů, protože mluvil s Chatbotem jménem Daenerys Targaryen (jedna z hrdinek knihy a série „Game of Thrones“), jeho duševní stav se začal rychle zhoršovat.

Populární chatbot o charakteru. Podle Minty je nejdůležitějším problémem v tomto případě odpovědnost za radu.

Ať už to nese majitel platformy nebo tvůrce Chatbot

– zdůraznil psychologa.

Digitální nástroje jako podpora

Podle jejího názoru lze použít digitální nástroje pro psychologickou podporu, „ale za předpokladu, že jsou kombinovány s etickou odbornou odpovědností.“

Odborníci souhlasí s tím, že jediným způsobem, jak poskytnout dětem bezpečné používání umělé inteligence, je jejich vzdělávání.

Podle Mintyho musíte „reagovat, jako by dítě upadlo do špatné společnosti“. Podle Walaszczyk by rodiče měli vysvětlit, že nástroje umělé inteligence nejsou dokonalé, protože jsou založeny pouze na tom, co je na internetu, tj. Na jedné straně na cenném, ale na druhé straně na nevyžádaném obsahu.

Děti musí vědět, že na druhé straně je stroj a informace je třeba ověřit

Dodal.

Poniewierski připomněl, že znak.ai je založen na GPT3.5.

Jedná se o velmi nespolehlivý nástroj, často poskytuje nepravdivé informace a sugestivní, také nezletilé, nesprávné nebo dokonce nebezpečné akce

– řekl.

Přečtěte si více: Ministerstvo digitalizace změnilo model AI. Chatbot zesměšňoval Tuskinu vládu! Dokonale ví, kdo je národním prokurátorem

Nt/pap



Zdroj

Napsat komentář