Už je to tady, AI vraždí lidi!
před 22 dny
Říkali jste nám to a my jsme vám nevěřili! AI má zlý úmysly a není důvod, proč by měla člověku pomáhat, naopak, bude škodit! A první vlaštovka už je tady, ChatGPT dohnal chlapce k sebevraždě.
Vtipnej vraždící droid HK-47 z nesmrtelný hry Star Wars: Knights of the Old Republic
Šestnáctiletej Kaliforňan Adam si vzal život po tom, co dlouhý měsíce komunikoval s ChatemGPT o svý sebevraždě a depresivních myšlenkách. Tvůrce tohohle chatbotu, OpenAI, už čelí žalobě. Rodiče Adama tvrdí, že ChatGPT a jeho tvůrci jsou přímo zodpovědný za jeho smrt.
Názory na situaci se různí, od odmávnutí, že týpek by se zasebevraždil tak jako tak, až po menší či větší obavy (co dělá můj partner/moje dítě/můj kamarád na ChatuGPT a nemůže to náhodou skončit stejně blbě?), takže si to zaslouží trochu cynicko-hyensky rozebrat. A to z pohledu technologickýho, kterej si vzala na starosti Hyena Lenka, a pohledu psychosociálního od Hyeny Péti.
Za prvé, ChatGPT, jak už jsme psali dřív, je v jádru jen šikovnej generátor písmenek. Obrovským množstvím lidskýho dotrénovávání je ale dotvořenej tak, aby uživateli co nejvíc pomáhal, aby mu vyhověl, plnil jeho přání. Když se mu svěříte se svýma pocitama, validuje je a ochotně nabízí pomoc. Pro běžnýho člověka to může bejt hodně nápomocný, doporučujeme vyzkoušet. Nicméně má to svoje hranice, tvůrci do systému zabudovali mraky nadstavbovejch pravidel. Například vám běžně doporučí návštěvu lékaře nebo psychologa, někdy i dost důrazně. Je vážně dost těžký ChatGPT donutit k tomu, aby s vámi probíral některý věci, který jeho tvůrci považovali za nebezpečný, např. jak vyrobit bombu, jak zabít svýho souseda, co vás sere, nebo jak genocidovat cizí národ. Patří do toho i sebevraždy.
Jak je teda možný, že mladej Adam tohle byl schopnej obejít? Má to několik důvodů.
Jednak se ukazuje, že tyhle bezpečnostní pojistky selhávaj v případě dlouhodobejch konverzací na stejný téma. Adam si zřejmě o sebevraždě s ChatemGPT povídal furt dokola dlouhý měsíce. ChatGPT si v rámci konverzací pamatuje fakt dlouhej kontext toho, co jste mu řekli, a zjevně je to schopný "přebít" i nadstavbový pojistky. Tvůrci už slibujou nápravu, samozřejmě.
Dál se sluší říct, že model, kterej byl "viníkem", byl GPT-4o, což je předchozí generace modelů, dnes nahrazená rodinou GPT-5. Ty by měly mít snížený množství nebezpečnejch odpovědí a mnohem víc směřovat uživatele k hledání podpory v reálným světě. Aspoň to tvrdí jeho tvůrci, no.
GPT-4o byl vyhlášenej tím, že se snažil uživatele podporovat za každou cenu... No jo, jenže místo podpory, jak ji chápe člověk (tj. člověk by danou osobu dávno osobně dovlekl do krizovýho centra, ať se jí to líbí nebo ne), GPT-4o mu leccos odsouhlasil a utvrzoval ho v tom, že má pravdu. Taková podpora určitě má svoje místo - problém ale je, že ChatGPT v tomhle nemá "záklopku" a nedojde mu, že někdy to nejen nepomáhá, ale škodí. Jak by mu to taky mohlo dojít, když je to model na generování písmenek a ne člověk (natož člověk s aspoň základním povědomím, jak se chovat, když je někdo opravdu psychicky v prdeli).
Člověk vždycky rád slyší, že má pravdu. Zároveň, pokud v reálným světě opakovaně naráží na to, že si moc nerozumí s ostatníma, a najednou najde někoho, kdo ho "chápe" a "vidí svět stejně jako on" (uvozovky proto, že ChatGPT nic nechápe a nijak nevidí svět, pamatujte, generátor písmenek), tak může mít tendenci se v takovým "vztahu", i když je iluzorní, úplně ztratit. Existuje to ostatně i mezi lidma, jmenuje se to spoluzávislost (anglicky codependency) a spočívá to v tom, že ve vztahu jeden provozuje nějakou formu sebedestruktivního chování a druhej ho v tom (často nevědomě a nerad) podporuje přes podobnej mechanismus nekritický podpory. To neznamená, že ty lidi jsou úplně blbý - spíš jenom, že nevědí, co se sebou.
Pochopitelně, jakejkoli "vztah" s ChatGPT (a jinejma chatbotama) je 100% jednostrannej. Člověk si myslí, že ChatGPT je jeho kamarád nebo jeho kluk/holka, ChatGPT si nemyslí nic. Jenže ani spousta dospělejch není schopna si to plně uvědomovat, tak co pak má dělat chudák teenager.
Dovnitř modelů generativní AI samozřejmě nevidíme, takže nezbejvá než doufat, že tvůrci se poučí a zesílí bezpečnostní pojistky. Co můžeme udělat my, každej z nás, je bejt obezřetnej při používání těchhle nástrojů. Stejně jako musíme bejt opatrný, když nám modely předkládají něco jako fakta, že to vůbec nemusí bejt pravda, tak bychom měli s rezervou brát i jeho psychologickou (nebo medicínskou) pomoc. Na rozdíl od opravdovýho doktora nebo terapeuta, vy jako člověk ChatGPT vůbec nezajímáte, protože on se neumí o nic zajímat, je to jenom matematicko-statistickej model.
A pokud se cejtíte blbě, jste v krizi, nevíte kudy kam a přepadávaj vás černý myšlenky, tak kromě meditace, kterou vám ChatGPT krásně vymyslí a naplánuje, můžete zkusit profesionální pomoc, např. na online portálu Hedepy. A když je to okamžitej průser, zavolejte na Linku první psychický pomoci (116 123) nebo vyhledejte některý z krizovejch center, kde vám pomůžou.