5.8 C
София
сряда, 16 апр. 2025

OpenAI увеличава сигурността около AI моделите с нов процес на верификация

Най-четени

Още от същото

OpenAI скоро ще изисква от организациите да преминат през процес на верификация на идентичността, за да получат достъп до определени бъдещи модели на изкуствен интелект, според страница за поддръжка, публикувана на уебсайта на компанията.

Процесът на верификация, наречен „Verified Organization“ (Верифицирана организация), е „нов начин за разработчиците да отключат достъп до най-напредналите модели и възможности на платформата на OpenAI“, гласи съобщението. За проверката е необходимо правителствено издадено удостоверение за самоличност от една от страните, които OpenAI поддържа в своя API. Удостоверението може да верифицира само една организация на всеки 90 дни, като не всички те ще бъдат допуснати до този процес, отбелязва OpenAI.

OpenAI увеличава сигурността около AI моделите с нов процес на верификация

„В OpenAI сериозно се отнасяме към нашата отговорност да гарантираме, че изкуственият интелект е както широко достъпен, така и използван безопасно“, се казва в изявлението. „За съжаление, малка част от разработчиците умишлено употребяват OpenAI API в нарушение на нашите политики за приложение. Добавяме процеса на верификация, за да намалим опасното използване на AI, като същевременно продължаваме да правим напредналите модели достъпни за по-широкото общество от разработчици.“

Сам Алтман напуска комисията за безопасност на OpenAI

Новият процес на верификация може да е насочен към увеличаване на сигурността около продуктите на OpenAI, тъй като те стават все по-усъвършенствани и способни. Компанията е публикувала няколко доклада относно усилията си да открие и намали злонамереното използване на своите модели, включително от групи, за които се твърди, че са базирани в Северна Корея.

Илон Мъск се отказва от делото срещу OpenAI и Сам Алтман

Той може също така да има за цел да предотврати кражба на интелектуална собственост. Според публикации в „Блумбърг“ от началото на тази година, OpenAI е разследвала дали група, свързана с DeepSeek – китайската лаборатория за изкуствен интелект, е извлякла големи количества данни чрез своя API в края на 2024 г., вероятно за обучение на модели – нарушение на условията на OpenAI.

OpenAI блокира достъпа до своите услуги в Китай през миналото лято.

Източник: Banker.bg

spot_img

Последни публикации