Jak umělá inteligence ovlivňuje duševní zdraví?

Photo of author

By Martin Boril

Na konci dubna, několik dní po oznámení Nová aktualizace modelu umělé inteligence GPT-4o, který měl ovlivnit zvýšenou inteligenci a osobnost chatagptu, byla aktualizace stažena. Rozhodnutí bylo důsledkem nespokojenosti (a dokonce i četných stížností) uživatelů, kteří považovali odpovědi Czata příliš poddajných, kývnutí a dokonce „Lizusy“ nebo „servile“.

V praxi se skládalo ze skutečnosti, že Chatbot byl příliš zdvořile zdvořilý, přikývl na pochybné názory uživatelů, vykazoval nepřirozenou tendenci k lilování, což mělo negativní dopad na kvalitu interakce.

„Posledních několik aktualizací GPT-4o způsobilo, že CZATA osobnost byla příliš lichotivá a otravná. Pracujeme na oprav, které představíme co nejdříve“-Said Altman sám, OpenAI, tvůrce chatagptu, tvůrce chatagptu.


„Nejnovější aktualizaci jsme stáhli na GPT-4o (…), pracujeme na dalších oprav,“ řekl Altman o den později.

„Lisusiness“ Chatagpt a bludy

Stažení aktualizace se shodovalo s vyšetřováním webu American Rolling Stone. Výsledkem je článek, ve kterém se problém rozvíjejících se zapojení uživatelů do interakcí s AI, zejména jazykovými modely jako chatgpt. Bylo zjištěno Použití tohoto typu modelů může pro některé uživatele způsobit duchovní bludy a psychotické stavy.

Jedna z hrdinek článku hovoří o tom, jak její manžel začal více a častěji používat AI asistenta a ptal se mu filozofické otázky, aby mu pomohl objevit pravdu vesmíru. Muž měl uvěřit, že „je někdo zvláštní a může zachránit svět“. Jak se ukázalo, nebyl to individuální případ, protože vlákno bylo přesunuto na sociální platformě Reddit, kde ostatní uživatelé sdíleli podobné příběhy. Uživatelé tvrdili, že Bot mluvil se svými blízkými, jako by se jejich zjevení stalo, byli to „Mesiáši“.

V rozhovoru s Rolling Stone vysvětlila anonymní učitelka, že její partner v měsíci používání chatagptu s ním začal zacházet jako s důvěrníkem. „Poslouchal bota víc než já,“ sdílela jeho postřehy.

„Stal se emocionálním a plakal, četl zprávy nahlas. Byli nesmyslní, plné duchovního žargonu,“ vysvětlila a dodala, že Bot popsala svého partnera jako „spirálové dítě hvězdy“ a „putující z řeky“. Muž tvrdil, že kdyby jeho partner nezačal chat používat, nedržel by krok s jeho rychlým osobním rozvojem a musel by se rozdělit. Byly tam více podobných příběhů.

Rolling Stone poslal OpenAI žádost o komentář k roli chatagptu při způsobujícím náboženském nebo prorockém nadšení u některých uživatelů. Nebyla obdržena žádná odpověď, ale to se shodovalo s výběrem aktualizací GPT-4O.

Nekritická schopnost je škodlivá





Rolling Stone odkazoval na Nate Shadin z Centra pro bezpečnost AI, který uvedl, že „Lizusiness“ je již dlouho problémem AI, protože zpětná vazba od uživatele a sloužit k specifikaci odpovědi AI, může mít za následek odpověď v souladu s přesvědčením uživatele a ne nutně skutečností. S největší pravděpodobností u lidí, kteří jsou náchylní k klamům a psychotickým vizím, jsou jejich příznaky poháněny AI, protože Umělá inteligence se v těchto klamech stává jejich partnerem a nekriticky je sdílí s nimi.

Článek Rolling Stone se také objevil v prohlášení Erin Westgate, psychologka a vědci z University of Florida, zabývající se sociálním poznáváním a tím, co její myšlenky dělá více poutavé. Výzkumník uvedl, že snaha porozumět sobě prostřednictvím umělé inteligence může vést k falešným, ale atraktivním odpovědím.

„Z výzkumu o běhu deníků víme, že psaní narativního psaní jasně ovlivňuje dobře a zdraví lidí.

V tomto smyslu mají dialogy s Botem připomínat konverzační terapii, „která je účinná při pomoci lidem transformovat jejich příběhy“. Klíčem však však, že AI „, na rozdíl od terapeuta, však nemá dobrého člověka ani morálního kompasu, aby určil, co je správné.“

„Dobrý terapeut by nepodporoval klienta, aby vysvětlil potíže v životě vírou v nadpřirozené síly, ale pokusil se směřovat ke zdravějším vyprávěním. Chatgpt nemá taková omezení ani obavy“ Westgate objasnil.

AI jako terapeut a společnost

Stojí za to se podívat Za jakým účelem uživatelé používají umělou inteligenci. Analýza, která odpovídá na tuto otázku, se objevila na Harvard Business Review. Podle závěrů ukazují v roce 2025 uživatelé generativní umělé inteligence hlubší pochopení této technologie, ale také skepticismus vůči ní. Aplikace AI se vyvíjejí z jednoduchých technických nástrojů pro složitější funkce podporující osobní, emoční a kreativní rozvoj.

Mezi kategoriemi generativní umělé inteligence a jejich účasti v roce 2025 se zmiňuje Harvard Business Review: Osobní a odborná podpora (31 % uživatelů), vytváření obsahu (18 %), technické úkoly (15 procent), kreativita (11 procent).

V popředí „hodnot“, které uživatel obdrží od AI, existuje terapie a společnost – jde o použití AI jako emoční podpory a nabízí neosobní, neocenitelný prostor pro konverzaci a reflexi. To má být obzvláště cenné tam, kde chybí přístup k terapeutům nebo trenérům.

Kromě toho stále více lidí používá AI k nalezení smyslu a směru v životě. AI má pomoci při sebereflexi, určování hodnot, překonání mentálních blokád a plánování osobního a profesního rozvoje.

Umělá inteligence a dobře

A jak ovlivní AI vaši dobře -being? Podle výsledků výzkumu, které jsou výsledkem výzkumu mediálního laboratoře OpenAI a MIT, měli lidé, kteří v soukromém životě měli silnější tendenci přikládat ve vztazích, a ti, kteří vnímali umělou inteligenci jako přítele, který by mohl odpovídat jejich osobnímu životu, byli více vystaveni negativním účinkům používání chatbotu. Prodloužené denní používání bylo také spojeno s podřadnými výsledky studny uživatelů, projevených pocitem osamělosti, emoční závislosti nebo omezením sociálních interakcí.








Zdroj

Napsat komentář