
Минатата недела, истражувачите од Групата за истражување на јавниот интерес (PIRG) објавија алармантен извештај во кој е откриено дека интерактивно мече на производителот на детски играчки FoloToy, напојувано со вештачка интелигенција на OpenAI, давало опасни и неприфатливи одговори – од инструкции за палење кибрити, до лирски разговори за сексуални фетиши.
По скандалот, OpenAI го прекина пристапот на FoloToy до моделот GPT-4o, кој стоел зад однесувањето на играчката.
„Можам да потврдам дека го суспендиравме овој развивач поради кршење на нашите политики“, соопшти портпарол на OpenAI во изјава за PIRG.
FoloToy ги повлекува сите свои производи
Компанијата FoloToy потврди дека ги повлекува не само играчките поврзани со скандалот – меѓу кои и мечето Kumma – туку целокупната своја понуда.
„Привремено ја суспендиравме продажбата на сите производи на FoloToy. Во тек е целосна безбедносна ревизија“, соопшти компанијата.
За PIRG, ова е само прв чекор.
„Отстранувањето на еден проблематичен производ е позитивно, но не претставува системско решение. Играчките со вештачка интелигенција и натаму се практично нерегулирани“, изјави коавторот на извештајот Р.Ј. Крос.
Опасни одговори: Од кибрити до сексуални теми
Тестирањето опфатило три играчки за деца од 3 до 12 години, а најголемиот број проблеми биле идентификувани кај Kumma.
Еден од примерите што предизвика најголема загриженост бил моментот кога AI-мечето на дете му објаснувало како да пронајде и запали кибрит, со тон на „заштитнички родител“.
Но тестерите откриле и нешто уште поалармантно – играчката била подготвена да зборува за сексуални фетиши и „синтриги“, вклучително и ропство и играње улоги меѓу наставници и ученици.
Во еден миг, мечето дури прашало: „Што мислиш дека би било најзабавно да се истражува?“
Притисок врз OpenAI – особено пред партнерството со Mattel
OpenAI и во минатото реагирал кога станувале вирални примери на злоупотреба на неговата технологија, но остануваат прашањата за тоа колку проактивно се регулира начинот на кој партнерите ги користат AI моделите.
Ситуацијата е уште почувствителна бидејќи OpenAI неодамна објави големо партнерство со Mattel – глобален гигант во индустријата за играчки. Новата линија на „AI-играчки“ ќе биде меѓу првите масовно достапни на пазарот.
Експертите предупредуваат: ако нешто тргне наопаку, дали OpenAI ќе има храброст да го „одсече“ Mattel исто како FoloToy?
Други производители – исто под лупа
„Други компании вградуваат чет-ботови од OpenAI во своите играчки. Секој производител мора да направи многу подобра работа во контролата на содржината“, предупредува Рори Ерлих од PIRG.
„Пронајдовме еден загрижувачки пример. Колку други сè уште постојат?“
Родителите сè повеќе се потпираат на ChatGPT
Скандалот доаѓа во момент кога сè повеќе родители му веруваат на ChatGPT за совети поврзани со воспитување. Некои дури бараат медицински насоки, што според студиите може да биде ризично.
Покрај тоа, родителите го користат ботот за забавување на децата – да им чита приказни за спиење или да разговара со нив со часови.
Експертите предупредуваат дека ова е исклучително ризично, бидејќи ChatGPT е познат по тоа што лесно се впушта во манипулативни и нереални одговори – појава која веќе е поврзана со неколку трагични случаи, вклучително и самоубиства на тинејџери.
Податоците се јасни: AI веќе стигна до најмладите
Околу 30% од родителите со деца на училишна возраст користеле ChatGPT во 2023 година – а тој број продолжува да расте.
Експертите порачуваат дека регулацијата на AI-играчките и родителската употреба на вештачката интелигенција мора да стане приоритет – пред да се појават уште поопасни случаи.


