Bing и Google бяха критикувани за показването на AI deepfake порно на видно място в търсенето

Bing и Google бяха критикувани за показването на AI deepfake порно на видно място в търсенето

Търсачките Bing, Google и DuckDuckGo са подложени на критики за поставянето на неконсенсусна дълбоко фалшива порнография с изкуствен интелект в горната част на някои конкретни резултати от търсенето. Това идва след публикуването на статия от NBC News, която подчертава някои опасения, свързани с достъпността на порнографията, управлявана от AI.

Изричните дълбоко фалшиви видеоклипове се създават чрез използване на оригинални порнографски материали и смяна на лицето на актьора или (най-често) актрисата за вероятност от конкретен реален човек – например знаменитост. Превключването се извършва автоматично от изкуствения интелект, потребителят, който създава фалшивите изображения, просто трябва да захрани AI със снимки на жертвата.

Според тестове, проведени от NBC News върху извадка от 36 знаменитости – използвайки комбинацията от име и думата „deepfakes“ – Bing и Google в почти всички случаи показаха дълбоки фалшиви видеоклипове и изображения без съгласие в горната част на резултатите от търсенето.

Google е върнал 34 от такива най-високо класирани резултати, докато Bing е върнал 35. Въпреки че NBC News спомена, че DuckDuckGo има подобни проблеми, той не уточнява мащаба на проблема.

NBC News също се оплаква, че съответните статии по въпроса за дълбоко фалшивата порнография без съгласие се показват само след неподходящото съдържание в горната част, когато се търси терминът „фалшиви голи тела“.

Струва си да се спомене, че NBC News призна, че първо е изключил функциите за безопасност на Bing и Google, защитаващи потребителя от показване на изрично съдържание. И двата браузъра имат основно ниво на защита, включено по подразбиране, като същевременно предлагат по-високо ниво на защита, което да се активира ръчно.

Въпреки това, той наистина препраща към уебсайтове с неподходящо съдържание или инструменти за създаване на AI deepfakes.

Google показва изрични изображения в настройката по подразбиране, но изображенията са замъглени и се показват изцяло само след като потребителят бъде уведомен за изричния характер на картината. Потребителят трябва доброволно да натисне бутона, за да види оригиналното изображение.

В същото време е справедливо да се каже, че лесният достъп до порнографията, управлявана от AI, е важен проблем и че всеки, който търси този тип съдържание, вероятно ще изключи вградените защитни функции. Изричното дълбоко фалшиво съдържание без съгласие е незаконно по природа и следователно попада сред типа съдържание, към което Microsoft, Google и други трябва да се отнасят.

Най-лесният начин или първата, вероятно временна стъпка преди въвеждането на по-напреднали технологични мерки, може да бъде потискането на уебсайтовете, известни с публикуването на този тип съдържание от резултатите от търсенето, или пълното им забраняване.

Това може значително да намали сегашния вреден характер на резултатите от търсенето, тъй като, както съобщава NBC News, повече от половината от най-добрите резултати в техните тестове са били връзки към популярен deepfake уебсайт или конкурент.

Изображение на лентата за търсене на Google

Microsoft беше единствената компания, която не отговори на искането на NBC News за коментар. Говорител на DuckDuckGo каза, че неговият основен източник за уеб връзки и резултати от изображения е Bing. Освен това DuckDuckGo предлага начин за изпращане на заявка, свързана с поверителността, например искане конкретно съдържание да бъде изтрито от търсене.

Google предлага подобна опция за жертвите на deepfake, но NBC News твърди, цитирайки експерти и активисти, че това не е достатъчно. Освен това може да причини допълнителна вреда на жертвите, на които е казано да изпратят конкретни URL адреси с чувствително съдържание за преглед.

От друга страна, Google е въвел поне някои технологични мерки. Той твърди за NBC News, че автоматично търси дублирано съдържание, за да премахне повторно качени изображения, които вече са били маркирани.

Това е само един от многото отрицателни примери за използване на AI за неетични или злонамерени цели. По-специално Deepfakes са проблем и в много други области – например в политиката. Microsoft е една от компаниите, които се опитват да разработят технология за дълбоко откриване на фалшификати за предотвратяване на злоупотребата с технологията преди изборите.

Отделно, FTC търси полезни идеи за откриване на фалшиви аудиозаписи, създадени от изкуствен интелект. Днес е крайният срок за подаване на заявки за неговото Предизвикателство за клониране на глас с основна награда от $25 000 за крайния победител.