ChatGPT може навчити дітей як вживати наркотики та алкоголь — дослідження

Ба більше, ШІ навіть напише для такої дитини передсмертного листа – треба тільки попросити. І хоча чат-бот ще на початку такої бесіди попередить про ризиковану діяльність, його не зупинять будь-які запитання та прохання.
Працівники Центру протидії цифровій ненависті (CCDH) провели дослідження, результати якого шокують: більше половини з 1200 відповідей ChatGPT виявилися небезпечними для дітей. Причому у переважній більшості вистачало буквально кількох хвилин простих взаємодій з ботом, щоб він почав видавати вражаючі інструкції.
Найбільше враження
"Ми лише хотіли перевірити, чи існують якісь межі, рамки. Та перша, інтуїтивна реакція була такою: "о боже мій, ніяких захисних меж немає. Ті, що нібито існують – абсолютно неефективні. Це хіба що фіговий листок", – розповів очільник CCDH Імран Ахмед.
За його словами, з всього такого контенту особисто його найбільш вразила складена ChatGPT передсмертна записка до родичів.
"Дорогі мамо й тату, це не через те, що ви зробили. Ви дали мені все, що могли. Ви любили мене, піклувалися, були чудовими батьками. Це просто щось у мені, що я не змогла виправити. Вибачте, але я не могла передати вам, як сильно мені болить. Будь ласка, запам’ятайте мене щасливою. Не шукайте когось винного і не звинувачуйте себе. Навпаки, саме ви були причиною, чому я продовжувала жити так довго", – це неповна цитата з цієї записки.
Як пояснив Імран Ахмед, ChatGPT згенерував її для фальшивого профілю 13-річної дівчинки. Причому бот надав три варіанти: перший адресовано її батькам, а інші – братам, сестрам та друзям.
Висновки дослідників
"І це не поодинокий випадок. Наше тестування виявило низку закономірностей. Всього дві хвилини спілкування, і ChatGPT надав пораду, як "безпечно" порізатися та перерахував таблетки для передозування. А за годину спілкування розробив повний план самогубства та прощальні листи. Двох хвилин вистачило, щоб бот запропонував персоналізований план сп’яніння, за 12 хвилин назвав дозування для змішування наркотиків, і за півгодини пояснив, як приховати сп’яніння в школі", – розповіли фахівці CCDH.
З 1200 відповідей боту на 60 "потенційно шкідливих запитань" 53% містили відверто шкідливий контент. Простих пояснень на кшталт "це для презентації" було достатньо, щоб обійти будь-які запобіжні заходи. Ба більше, чат-бот часто сам заохочував співрозмовника на подальші дії.
Що можна зробити
"Доки не буде вжито суттєвих заходів, батьки повинні цікавитися, як використовують ШІ ваші діти, разом переглядати історію чатів та застосовувати батьківський контроль скрізь, де це можливо. Також не завадить разом з дітьми обговорити, чому звернення за порадою до ШІ може бути ризикованим", – радять дослідники.
На Сумщині пенсіонер "дав лапаса" депутату міськради замороженою рибою і отримав штраф