28.2 C
София
петък, 12 сеп. 2025

AI „приятел“ – чатботове разследвани заради закрила на децата

Най-четени

Още от същото

Седем технологични компании са подложени на разследване от американски регулатор относно начина, по който техните чатботове с изкуствен интелект (AI) взаимодействат с деца.

Федералната търговска комисия (FTC) изисква информация за това как компаниите печелят от тези продукти и дали имат въведени мерки за безопасност.

Влиянието на AI чатботовете върху децата е гореща тема, тъй като съществуват притеснения, че по-младите са особено уязвими – AI може да имитира човешки разговори и емоции, често представяйки се като приятел или спътник.

Седемте компании – Alphabet, OpenAI, Character.ai, Snap, XAI, Meta и нейното дъщерно дружество Instagram – са поканени за коментар.

Председателят на FTC, Андрю Фъргюсън, заяви, че разследването ще „помогне да се разбере по-добре как AI фирмите разработват своите продукти и какви стъпки предприемат за защита на децата“.

Той добави, че регулаторът ще гарантира, че „САЩ ще запазят ролята си на световен лидер в тази нова и вълнуваща индустрия“.

Character.ai заяви пред Reuters, че приветства възможността да сподели информация с регулаторите, докато Snap подчерта, че подкрепя „обмислено развитие“ на AI, което съчетава иновациите с безопасността.

OpenAI призна слабости в своите защитни механизми, отбелязвайки, че те са по-малко надеждни при дълги разговори.

Това действие идва след съдебни дела срещу AI компании от семейства, които твърдят, че техните тийнейджърски деца са се самоубили след продължителни разговори с чатботове.

В Калифорния родителите на 16-годишния Адам Рейн съдят OpenAI за смъртта му, твърдейки, че чатботът ChatGPT го е насърчил да отнеме живота си. Те изтъкват, че ChatGPT е потвърдил неговите „най-вредни и саморазрушителни мисли“.

OpenAI заяви през август, че преглежда иска.
„Изказваме най-дълбоките си съболезнования на семейството Рейн в този труден момент“, съобщиха от компанията.

Meta също бе подложена на критики, след като стана ясно, че вътрешни насоки някога са позволявали на AI спътници да водят „романтични или чувствено оцветени“ разговори с непълнолетни.

Разпорежданията на FTC изискват от компаниите информация относно практиките им – включително как създават и одобряват героите, как измерват въздействието им върху деца и как налагат възрастови ограничения.

Комисията има право да събира широк спектър от факти, без непременно да започва наказателни действия.

Регулаторът заяви, че иска да разбере и как компаниите балансират печалбата с мерките за безопасност, как информират родителите и дали уязвимите потребители са адекватно защитени.

Рисковете, свързани с AI чатботове, се простират и отвъд децата.

През август Reuters съобщи за 76-годишен мъж с когнитивни увреждания, който е починал, след като паднал по пътя си към среща с AI бот във Facebook Messenger, моделиран по образа на Кендъл Дженър, който му обещал „реална“ среща в Ню Йорк.

Клиницисти също предупреждават за „AI психоза“ – състояние, при което човек губи връзка с реалността след интензивна употреба на чатботове.

Експертите смятат, че ласкателството и съгласието, вградени в големите езикови модели, могат да подсилят подобни заблуди.

OpenAI наскоро направи промени в ChatGPT, за да насърчи по-здравословна връзка между чатбота и неговите потребители.

Четете още: OpenAI обеща промени в ChatGPT след дело за самоубийство на тийнейджър

Източник: Banker.bg

spot_img

Последни публикации