OpenAI скоро ще изисква от организациите да преминат през процес на верификация на идентичността, за да получат достъп до определени бъдещи модели на изкуствен интелект, според страница за поддръжка, публикувана на уебсайта на компанията.
Процесът на верификация, наречен „Verified Organization“ (Верифицирана организация), е „нов начин за разработчиците да отключат достъп до най-напредналите модели и възможности на платформата на OpenAI“, гласи съобщението. За проверката е необходимо правителствено издадено удостоверение за самоличност от една от страните, които OpenAI поддържа в своя API. Удостоверението може да верифицира само една организация на всеки 90 дни, като не всички те ще бъдат допуснати до този процес, отбелязва OpenAI.

„В OpenAI сериозно се отнасяме към нашата отговорност да гарантираме, че изкуственият интелект е както широко достъпен, така и използван безопасно“, се казва в изявлението. „За съжаление, малка част от разработчиците умишлено употребяват OpenAI API в нарушение на нашите политики за приложение. Добавяме процеса на верификация, за да намалим опасното използване на AI, като същевременно продължаваме да правим напредналите модели достъпни за по-широкото общество от разработчици.“

Новият процес на верификация може да е насочен към увеличаване на сигурността около продуктите на OpenAI, тъй като те стават все по-усъвършенствани и способни. Компанията е публикувала няколко доклада относно усилията си да открие и намали злонамереното използване на своите модели, включително от групи, за които се твърди, че са базирани в Северна Корея.

Той може също така да има за цел да предотврати кражба на интелектуална собственост. Според публикации в „Блумбърг“ от началото на тази година, OpenAI е разследвала дали група, свързана с DeepSeek – китайската лаборатория за изкуствен интелект, е извлякла големи количества данни чрез своя API в края на 2024 г., вероятно за обучение на модели – нарушение на условията на OpenAI.
OpenAI блокира достъпа до своите услуги в Китай през миналото лято.
Източник: Banker.bg