-3.2 C
София
събота, 21 фев. 2026

„Светът е в опасност“: Вълна от оставки и тревожни предупреждения разтърсват AI гигантите

Най-четени

Още от същото

„Светът е в опасност“ – това бе краткото и остро предупреждение на бившия ръководител на екипа по безопасност в Anthropic, докато напускаше поста си. Междувременно изследовател от OpenAI, който също се раздели с компанията, заяви, че

технологията има „потенциала да манипулира потребителите по начини, които не можем дори да проумеем, камо ли да предотвратим.“

Те са част от нарастваща вълна изследователи и мениджъри в сектора на изкуствения интелект (AI), които не просто напускат работа, но и публично бият тревога за това, което определят като „ярки предупредителни сигнали“, пише CNN в свой материал.

Въпреки че Силициевата долина е известна с голямото си текучество, сегашният отлив на кадри идва в критичен момент. Лидери като OpenAI и Anthropic са в надпревара за излизане на борсата (IPO) – ход, който би ускорил растежа им, но и би ги поставил под безпощаден обществен и регулаторен контрол.

Етичната дилема на OpenAI

Зоуи Хитциг, изследовател в OpenAI през последните две години, обяви оставката си в есе за New York Times. Тя изрази „дълбоки резерви“ относно новата рекламна стратегия на компанията. Според Хитциг огромният архив от данни на ChatGPT – включващ лични страхове, здравословни проблеми, интимни отношения и религиозни вярвания – е етичен капан. Потребителите се доверяват на чатбота, вярвайки, че той няма скрити мотиви, което го прави идеален инструмент за манипулация.

Критиката ѝ съвпадна с новината, че OpenAI е разформировала екипа си за етично съответствие – звено, създадено да гарантира, че стремежът към Общ изкуствен интелект (AGI) ще бъде в полза на цялото човечество.

Загадъчното напускане на Anthropic

През същата седмица Мринанк Шарма, ръководител на екип в Anthropic, публикува лаконично писмо, в което обяви решението си да си тръгне с думите „светът е в опасност“. Макар да не посочи конкретна причина, той намекна за вътрешни конфликти:

През цялото време тук многократно виждах колко е трудно да позволим на ценностите ни да ръководят нашите действия.“

Хаос в xAI на Илон Мъск

В компанията xAI ситуацията е още по-драматична – двама съоснователи напуснаха в рамките на едва 24 часа. Това се случва в момент, когато компанията се слива със SpaceX, за да създаде най-скъпата частна корпорация в света. Илон Мъск определи промените като „реорганизация“, но напусканията идват след глобални скандали с чатбота Grok, който генерираше неприлично съдържание и антисемитски коментари.

Безопасност срещу печалби

Напрежението между изследователите, загрижени за безопасността, и мениджърите, гонещи приходи, става все по-видимо.

Скандалът с „режима за възрастни“: Wall Street Journal съобщи, че OpenAI е уволнила висш мениджър по безопасността, Райън Бейърмайстер, след като тя се противопоставила на въвеждането на порнографско съдържание в ChatGPT. Официалният мотив на компанията за уволнението е „дискриминация“ – обвинение, което Бейърмайстер категорично отрича.

Тези оставки напомнят за оттеглянето на Джефри Хинтън, „Кръстникът на изкуствения интелект“, който напусна Google в опит да предупреди за екзистенциалните рискове от AI. Той не крие опасенията си, че светът малко по малко се превръща в място, където:

никой вече няма да може да различи истината от лъжата“.

Докато някои виждат в тези предупреждения реален страх, други подозират маркетингов трик за преувеличаване на мощта на технологията. Въпреки това, думите на главния изпълнителен директор на HyperWrite, Мат Шумер, звучат смразяващо:

Разказваме ви какво вече се случи с нашите работни места и ви предупреждаваме – вие сте следващите.“

Източник: Economic.bg

spot_img

Последни публикации