Услугата Microsoft Azure OpenAI вече предлага откриване в реално време на злоупотребяващи заявки

Услугата Microsoft Azure OpenAI вече предлага откриване в реално време на злоупотребяващи заявки

През последните месеци имаше съобщения за потребители, които успешно използват генеративни AI услуги, за да заобиколят ограниченията за съдържание и да създават съдържание. Един забележителен случай се случи по-рано тази година, когато изрични дълбоки фалшиви изображения на поп изпълнителката Тейлър Суифт се разпространяваха в социалните медии. Твърди се, че тези изображения са създадени от група, използваща специфични текстови подкани в генератора на изображения с изкуствен интелект Microsoft Designer.

Днес Microsoft разкри публична предварителна версия на нова функция, налична в услугата Azure OpenAI. Тази услуга позволява на бизнеса и организациите да използват генеративните AI модели на OpenAI чрез облачните сървъри Azure на Microsoft. Наскоро въведената функция „Наблюдение на рисковете и безопасността“ има за цел да предостави на бизнеса преглед на живо на използването на техните AI системи и да идентифицира всякакви опити за злоупотреба от отделни лица.

azure openAI услуги

Според скорошна публикация в блог, Microsoft е въвела функция, която може да показва данни за различни заявки на крайни потребители в техните AI услуги, които се считат за опасни. Тези искания включват:

  • Общ брой блокирани заявки и процент на блокиране
  • Разпределение на блокираните заявки по категории
  • Процент на блокиране във времето по категория
  • Разпределение на тежестта по категории
  • Брой и процент на блокираните заявки в списъка за блокиране

Използвайки тази информация, фирмите могат да променят защитните парапети на своето AI съдържание, за да гарантират, че техните услуги не се използват по начин, който противоречи на техните указания.

Освен това има функция, която помага на бизнеса при идентифицирането на потребители, които многократно изпращат злоупотребяващи или вредни заявки към техните AI услуги. Microsoft заявява:

Ако някое съдържание от потребител е маркирано като вредно и съчетава поведението на заявката на потребителя, системата ще направи преценка дали потребителят е потенциално злоупотребяващ или не. След това обобщен отчет ще бъде наличен в Azure OpenAI Studio за по-нататъшни действия.

Компанията има способността да модифицира своята система в съответствие със собствения си набор от правила и разпоредби, за да се предпази от потенциални нарушения, причинени от тези неприятни крайни потребители.

Наскоро добавените възможности за наблюдение за услугата Azure OpenAI могат да бъдат достъпни от клиенти в регионите на Източна САЩ, Северна Швейцария, Централна Франция, Централна Швеция и Източна Канада. Понастоящем не е ясно кога тази публична визуализация ще бъде разширена за допълнителни държави или ще стане общодостъпна.