Министерството на отбраната на САЩ може да прекрати партньорството си с Anthropic, американска компания, която разработва системи с изкуствен интелект (ИИ), защото тя изисква да се ограничи използването на нейните разработки за наблюдение и разработване на оръжия, съобщи Axios.
Според източник от администрацията във Вашингтон, „Пентагонът обмисля прекъсване на връзките си с Anthropic, тъй като компанията настоява да запази ограниченията върху военната употреба на нейните модели“. Както изяснява изданието, ведомството търси разрешение от компаниите с изкуствен интелект, които си сътрудничат с него, да използват техните разработки „за всички законни цели“. Пентагонът определя тези цели като военни операции и събиране на разузнавателна информация.
Anthropic не е съгласна с тези условия. По-конкретно,
тя изисква системите, които разработва, да не се използват за „масово наблюдение на американци“
или за експлоатация на „напълно автономни оръжия“.
Преговорите между представители на ведомството и Anthropic не дадоха резултати.
Източник заяви пред портала, че Пентагонът „разглежда всички варианти“, включително пълно прекъсване на връзките с компанията. Както изданието уточнява, това би създало трудности за американските военни, които, по-специално, активно използват модела Claude AI на Anthropic. Този модел е първият, получил достъп до класифицирани американски военни мрежи, уточни порталът. През лятото на 2025 г. Пентагонът подписа договор за 200 милиона долара с Anthropic.
Както The Wall Street Journal съобщи на 13 февруари, позовавайки се на източници, Пентагонът е използвал Claude по време на операцията по залавянето на венецуелския президент Николас Мадуро въпреки забраната на Anthropic за използване на тази технология за улесняване на насилието.
Източник: Banker.bg

