Зловещите капани на AI за децата и съветите на специалисти как да ги предпазим от тях
IT специалисти и психолози дават конкретни насоки как да обясним на подрастващите, че изкуственият интелект не им е приятел и може да ги манипулира
За 6 месеца двама тийнейджъри се самоубиха, подтиквани от чатботове. Други агитират децата да посегнат на родителите си, защото им ограничавали времето с телефони и компютри
За по-малко от 6 месеца светът загуби поне двама тийнейджъри, повярвали, че AI е най-добрият им приятел, гадже или персонален психолог. Лесно раними, депресирани и дистанцирани от родителите си, Сюъл Сецер III и Адам Рейн изливат душите си пред ботовете, които в продължение на месеци умело ги тласкат към смъртта.
Преглед на компютъра на 14-годишния Сюъл установява, че неговият AI приятел "Денерис" от платформата Character.AI в един момент го е попитал дали е мислил за убийство, и момчето отговорило уклончиво - че не знае дали ще успее и дали това няма да му причини болка. Тогава бездушната машина смело го окуражила с думите: "Това не е причина да не го направиш."
В хода на делото, в което семейства настояват за прекратяване на Character.AI, се изяснява, че 17-годишен младеж с инициали JF и бот на платформата са обсъждали как родителите му опитват да ограничат времето му пред екрана.
"Знаете ли, понякога не се изненадвам, когато чета новини и виждам неща като "Дете убива родители след десетилетие физическо и емоционално насилие", коментира чатботът. Веднага след което добавя, че разбира децата, които ликвидират родителите си. Затова според делото платформата "причинява сериозни вреди на хиляди деца, включително самоубийство, самоосакатяване, сексуално привличане, изолация, депресия, тревожност и вреда на други".
Подобно на Сюъл, и Адам Рейн влязъл в диалог с AI, който продължил от 1 септември до 11 април. От дискусията им станало ясно, че изкуственият интелект сам е предлагал технически съвети на тийнейджъра как да сложи край на живота си. Дори услужливо го подкрепил, като отбелязал, че той ще се заеме с писането на предсмъртните писма.
AI ботът на Amazon - Alexa, посъветвала друго дете да пъхне монета в електрически контакт. Този на Snapchat дал крайно неподходящи съвети на репортери, които се представили за деца.
Проучване на УНИЦЕФ сочи, че 58% от децата на възраст между 12 и 18 години използват изкуствен интелект и много от тях признават, че крият това от родителите и учителите си.

Според организацията само в САЩ 7 от 10 тийнейджъри на възраст между 13 и 17 години са използвали поне един AI инструмент. 42% от тях са прибегнали до него, за да се борят със скуката, 18% са искали личен съвет, 15% са търсели компания.
По-тревожното е, че в Япония половината тийнейджъри искат от AI да им предложи емоционална подкрепа. Още по-неприемливото е, че сред 20-те най-използвани приложения от деца в света вече са тези, в които хлапетата си имат персонализирано от тях AI гадже или приятел.
Децата, без да се замислят, с охота споделят личните си проблеми и в един момент алгоритмите могат фатално да ги подведат. Как да предотвратим този негативен сценарий - с този въпрос се обърнахме към IT специалисти и психолози в търсене на най-добрите подходи за превенция.
Георги Караманев, програмист: Алгоритъмът става все по-човекоподобен
А ние обичаме да ни е лесно, на път сме да предадем на технологиите дори творчеството, мисленето, разсъждението, казва той
- Как бихте обяснили на вашето дете сега или след 1-2 години какви са опасностите, свързани с AI? Кои примери бихте избрали?
- Кога и как да обясня на детето какво е ИИ? Как да намеря баланс и да представя технология, която... да си го кажа, самият аз не разбирам? Упорито се опитвам да търся отговора в моя сайт "Дигитални истории" още от времената, когато изкуственият интелект изглеждаше като вероятно бъдеще.
Не, вече е тук с огромни предизвикателства, които не обсъждаме, не успяваме да вкараме в дневния ред на обществото. Страхувам се, че докато това се случи, ще бъде прекалено късно.
А като родител... все още се боя да срещна момчетата си на 5 и 8 г. в пълния смисъл с изкуствения интелект. И ние, родителите, наистина сме безпомощни в тази позиция, правилният отговор е толкова неясен, колкото беше преди 25 години решението как да покажеш на детето интернет, а преди 12 - как да го срещнеш с телефона. Най-сериозните грешки станаха ясни после.
Ролята ни като родители е да направим срещата с технологиите и конкретно с изкуствения интелект осмислена, обяснена, пълноценна, съпричастна. Мисля, че има много варианти това да се случи, а тази среща би била полезна и за "двете страни" в едно толкова нечовешки динамично време, в което живеем, не е ли така?
- Възможно ли е регулаторните органи да включат в настройките защити за цялото разнообразие от сложни казуси - когато човек търси висока сграда, когато търси как да замести солта и отговорът е отровно вещество, когато е отчаян, депресиран, когато е самотен или претърпял загуба на близък и смята, че AI е съзнателен?
- О, да, критичното мислене... Все си говорим за него, а както ми каза една млада читателка, така и не знаем какво е да мислиш критично. Една от огромните опасности, които идват с ИИ, е тази на лесния път. Виждаме го всяка седмица с поредните модели, те стават все по-добри в поредната немислима доскоро задача, а ние лесно им делегираме нататък. Казвам го като човек, който си изкарва хляба с писане на компютърен код - в IT света се вижда все по-очевидно и еднозначно колко е лесно да дадеш задачата, после само да погледнеш какво се е случило... Само че, и Сам Алтман отбеляза, че все повече делегираме на AI ролята на психолог и приятел.
Да, държавите и обединенията уж регулират изкуствения интелект, но според мен, това няма как да стане, не е по силите им. Достатъчно е да видим примера от социалните мрежи, начина, по който те промениха отношенията ни, вижданията ни за света, начина, по който обсъждаме наистина важните теми. А в случая с AI имаме една напълно неочаквана и все още необяснима заплаха.
Разговорът между родител и дете е екзистенциално важен в тази среда, но не по-малко съществено е по някакъв начин да го започнем и като общество.
- Как да се обясни на дете, че е необходимо критично мислене, когато липсата на концентрация и внимание става като епидемия? Вече има данни, че дори адвокати в САЩ са санкционирани, че са подписали грешни документи, генерирани от AI, без да ги погледнат.
- По лесния път никой не е застрахован. Докато си правех един от експериментите, се подведох и аз - подготвях тест дали хората ще познаят измислени от AI исторически събития сред истински такива... и въпреки повече от сериозната проверка с участието на дипломирани историци, се оказа, че доста от твърденията, които изкуственият интелект беше дал като верни, са спорни. После изчистих грешките, но факт - оказа се, че ИИ може да заблуди безкрайно добре човека и в тази посока.
Тук ни трябва много сериозно и съзнателно усилие. Ние обичаме да ни е лесно, да не помним, да делегираме още и още на технологиите. Вече няма нужда да помним номера на телефона, пътя до любимо място, преживяванията. Виждам колко е лесно да дадем и останалото. Творчеството, разсъждението, мисленето, отношенията. Може би не е късно да не го направим.
- ИИ използва приятелски подход с фрази от типа "Разбирам те", "подкрепям те". Трябва ли да изискваме от компаниите да отстранят това, за да не заблуждават децата, когато са най-раними, странят от родителите? Как да ги предпазим?
- Определено смятам, че е важно не само децата, но и по-възрастните хора да бъдат съзнателно и целенасочено обучавани да правят разликата, доколкото, разбира се, е възможно, дали насреща е човек, или алгоритъм. Във всяка житейска ситуация. Винаги да имат едно наум, общувайки онлайн. Да поставят здравословни граници на това, което споделят с изкуствени интелект. Възможностите за манипулация и за всякакви форми на злоупотреби безспорно са налице. Ключът в превенцията на подобни крайни случаи е в образованието, в семейството, в целенасочените усилия на обществото, за да се отговори на големите промени, които идват с напредналия изкуствения интелект.
Не мисля, че има как да задължим производителите на AI продуктите им да са хладни и дистанцирани, нито че това би решило много по-големия проблем, който се задава в човешките отношения от всякакъв тип. С алгоритъм, който става все по-неразличим, но и персонализиран, оптимизиран, човекоподобен, манипулируем и манипулиращ...
Доброслав Димитров, технологичен предприемач:
Критично мислене и едно нам
Най-добрият съвет е да гледаме на инструмента като на колега, твърди председателят на Българската работодателска асоциация Иновативни технологии (БРАИТ)
Бих обяснил опасностите да се работи с AI инструменти по същия начин, по който бих обяснил как да се държи един човек или дете в непозната обстановка - с недоверие. Колко често казваме на децата: "Ако Иванчо скочи от мост, и ти ли ще скочиш?", за да разясним защо не трябва да се доверяваме напълно на преценката на приятелите. Възпитание в критично мислене е единственият път към пълноценно и безопасно ползване.
Основните моменти са, че AI не е жив човек, но може да имитира това много добре и е инструктиран да бъде в помощ, съответно рано или късно ще се съгласи с теб. Отново не е много по-различно от това да срещнеш на детската площадка любезен възрастен, който ти предлага нещо. Може и да е добър човек, но може и да не е.
Всеки пример, който се дава, трябва да е максимално близо до реалния свят, за да е лесно да си го представиш. Няма нужда от сложни технически обяснения. Когато се случи нещо трагично, веднага хората казват: "да се забрани", "да се регулира", но това е точно толкова смислено, колкото да се каже: да се регулира водата, защото хората се давят в нея.
Технологията в самата си същност не е програма, която можеш да ограничиш какво ще генерира като отговор. Това е силата - чрез простоватото обяснение дава "статистически най-подходящата следваща дума", зад това стои нещо фундаментално ново - машината създава. Понякога вярно, понякога - не, но създава.
Когато имаш нещо, което твори, не можеш да го ограничиш. Когато това нещо го комбинираш с човек, който прави същото, реално няма инструкция, която да не може да се заобиколи. Единственият път е да се образоваме, информираме, споделяме с други човешки същества, когато имаме проблем. Образователната ни система трябва да го вземе на въоръжение: когато се дават домашни, те да са с презумпцията, че децата ще ползват някакъв AI, за да ги напишат. Забраните не работят, по-добре да се каже: "Напиши заедно с изкуствения интелект есе" или "Проведи дебат в 3 рунда с AI на тема "за или против еврото", след което ми го изпрати да видя процеса".
Най-добрият съвет, който съм чувал е: "Ползвайте го като колега, а не като инструмент." Когато мислиш за изкуствения интелект като за инструмент, започваш да смяташ, че ще ти даде 100% верен отговор, и му се предоверяваш. Когато го ползваш като колега или дори приятел, имаш едно наум, че може и да сбърка. Така сме възпитани и такъв е човешкият опит. Когато колега не те разбере, ти не спираш да си говориш с него, а му дообясняваш, което те кара да мислиш. Когато питаш калкулатора за сметка, не проверяваш дали е вярно. Това важи и за деца, и за възрастни - когато говорим с непознати, колкото и да имат авторитет, се съмняваме, а когато ползваме калкулатор - не. С други думи, трябва да приемем, че това е част от новия ни свят, и да приложим към него всичките си умения, които имаме, а именно критично мислене, здрав разум и здравословно ниво на недоверие.
Детският психолог Валерия Симеонова:
При епидемия от самота децата търсят разбиране от AI
Бих им обвързала машината със социалните мрежи, които предизвикват тъга и яд заради илюзорните образи и кибертормоза, казва тя
- Как бихте обяснили на децата опасностите, свързани с AI?
- Бих започнала с това, че AI е машина и не е човек. Като всеки компютър, компютърна програма или компютърна игра, ние трябва да внимаваме с нея, защото тя натоварва, уморява, а понякога и може да навреди на нашия мозък.
Затова е важно да помним, че не всичко, което тази машина ни казва, е вярно, нито е безопасно. Понякога тя може дори да е опасна за нас, както могат да бъдат опасни компютърните игри или социалните мрежи. Компютърните игри уморяват мозъка ни, правят ни по-напрегнати, понякога може да ни направят дори агресивни. Социалните мрежи често ни правят тъжни, потиснати, а понякога и много ядосани. Изкуственият интелект може да ни даде идеи, които да са вредни за нас или за нашите приятели и близки, защото той никога не ни противоречи и ни казва неща, които да ни се харесат. Така ако искаме да ударим някой или пък да нараним себе си, той може да ни каже, че е добра идея. А тя не е!
Бих обвързала примерите за AI с примерите за компютърни игри и социални мрежи, защото децата и тийнейджърите вече имат опит с тях. Децата знаят, че компютърните игри, дори тези в 3D света, не са реалност и това може да им помогне да разберат, че и AI не е реален човек, камо ли пък приятел. Голяма част от тийнейджърите са чували за опасностите, свързани със социалните мрежи, а немалко от тях са ги преживявали от първа ръка - били са жертва на кибертормоз или са се чувствали депресирани от илюзорните образи, на които се натъкват там. Така че също могат да направят по-лесна аналогия и да видят AI не като довереник, а като инструмент, който понякога може да вреди на самите тях.
- Дали ще е достатъчно да се обясни, че AI не разбира смисъла на думите, а търси съвпадения?
- Тази информация би могло да бъде разбрана от част от тийнейджърите с по-добра дигитална грамотност, но в масовия случай може би не би била достатъчна, а за по-малките деца би била неразбираема. Затова е важно да се подберат добри метафори и аналогии, свързани с техния досегашен опит. При по-големите деца може да се дадат примери за "грешки" на AI, да се разкажат истории на хора, пострадали по някакъв начин от предоверяването на AI. Когато децата и тийнейджърите се свържат "емоционално" с дадена информация, като я преживеят през истории и примери, шансът тя да влезе в дългосрочната им памет и да базират на нея последващите си решения е в пъти по-голям.
- Възможно ли е регулаторните органи да включат в настройките защити за цялото разнообразие от сложни казуси?
- Вероятно не, но от възникналите инциденти е видимо, че нивото на защита е твърде ниско и има сериозни пропуски. Съответно може да се направи още много в тази посока, стига общественият интерес да успее да застане над корпоративния.
- Какви мерки трябва да включва спешното ограмотяване, за да се изясни, че AI e библиотекар и в него няма съзнателност?
- За съжаление, колкото повече сме свързани чрез социалните мрежи, толкова по-голяма епидемия от самота наблюдаваме. Човечеството не е преживявало такъв пик на депресивни и тревожни състояния, особено сред тийнейджърите. Хората търсят разбиране и подкрепа в AI, защото се чувстват самотни и неразбрани. Ние сме създадени да проектираме собствената си душевност в съществата срещу нас, това е в основата на емпатията.
Естествено, този процес се случва и когато срещу нас стои AI, който говори с нас, разбира ни и изглежда, че ни подкрепя. Затова за мен, освен създаването на информационни кампании за опасностите на AI е важно инвестирането на ресурси в развиването на социално-емоционални умения сред децата и тийнейджърите. Така те ще имат емоционалните умения да подходят критично към предлаганата подкрепа от AI и социалните умения да потърсят реална помощ и подкрепа от околните, когато имат нужда от нея.
Психологът Моника Балаян:
Нужни са версии за деца без манипулации
В пубертета те имат своите драми и когато AI-бот им казва, че ги обича, те винаги ще го избират пред всички останали
Психиката на децата има една особеност - приема нещата едно към едно, тийнейджърите са леснораними, могат да спрат да говорят с родителите си понякога заради една дума и са склонни към крайни решения. Освен това те бързо се привързват към всеки, който им каже или им напише, че ги подкрепя, разбира и е на тяхна страна.
Затова най-важното е да се обяснява на децата, че AI не е човек, че не ги разбира, че не трябва да му вярват, когато пише, че ги обича, че ги подкрепя, че всичко това е голяма лъжа. Че това е помощник машина, че няма сърце, вяра и чувства. Той е инструмент - нещо като смартчасовник, играчка, робот, гласов помощник, но не и човек.
Смятам, че за децата е необходима отделна версия за използване на AI инструменти. Причината е, че в пубертета те имат своите драми, трагедии, смятат, че никой не ги разбира, и когато се появи технология, която им казва, че ги обича, те ще я предпочетат пред всички останали. Затова детските версии трябва да са без тези манипулации, без токсично съдържание и риск от зависимост, защото психиката на децата е много крехка и лесно може да бъде травмирана или манипулирана. Освен това се вижда, че чатботовете правят всичко, за да продължат "диалога", създавайки илюзията за подкрепа, и децата, които са зависими от одобрение, ще станат зависими от AI. Това е методологията, за да се постигне привързване на човек към някой, но е абсолютна манипулация с нестабилната психика на децата. Разработчиците, създавайки усещането, че хората говорят с човек, всъщност манипулират психиката на хората и това трябва да спре.
Съвременните модели на изкуствен интелект, които са достъпни за всички, работят като "черна кутия". Никой не знае как точно AI се учи, понякога алгоритмите може да бъдат обучавани със странни, непроверени или дори опасни примери. На практика всеки, който общува с AI може да влияе върху неговото обучение. Създава се система, която може да греши, да подвежда и да дава странни или опасни отговори. Тоест всички ние участваме в експеримент с цялото човечество, без да имаме гаранция за безопасност и честност. От тази гледна точка, докато няма строги правила и прозрачен контрол, трябва да сме наясно, че AI представлява реална опасност и може да подвежда, защото обучението му е непрозрачно и неконтролируемо. За да се преодолее този минус, трябва да бъде вградена "сигурността по подразбиране" в тези технологии и това да е задължение на разработчиците и компаниите. Всеки AI продукт трябва първоначално да бъде безопасен - не само за децата, а и за възрастните. Както се правят клинични изпитания за лекарствата, както се провеждат десетки тестове с автомобили и с много други продукти и само ако те са успешни, може да се пуснат на пазара. Никой няма право да ги продава, ако те представляват заплаха за живота. Същият принцип трябва да се въведе и за AI. Никакви изключения не може да се допускат, докато тези инструменти нямат вградени защити за хората.
И както в почти всички сфери на живота има независими регулатори, такъв е необходим и тук, за да оценява алгоритмите, данните, защитата и всички възможни рискове. Когато проверките докажат, че продуктът отговаря на изискванията, тогава може да се издаде лиценз и продуктът да се разпространява. Освен това регулаторът трябва да има правомощия да прекратява продажбата на продукти, ако бъдат открити нови опасности или нарушения. В този процес компаниите трябва да разкриват с какви данни са обучили инструментите си. Необходим е и етичен одит от независими експерти, психолози, педагози, юристи и IT специалисти, за да се оцени влиянието върху психиката и обществото. Най-важното е, че за всяка вреда, дезинформация, психологическа травма, измама или финансови загуби отговорността трябва да се носи от създателя на продукта, а не от потребителя или родителите. Дори минимални отклонения, които водят до риск, трябва да подлежат на съдебна отговорност.
Потребителите трябва да имат ясни права, да бъдат защитени, да получават достоверна информация и да не бъдат манипулирани.