От всички страшни сили в интернет способността му да излъже нищо неподозиращото може да е най-плашещата. Clickbait, снимки с фотошоп и фалшиви новини са едни от най-лошите нарушители, но през последните години също се наблюдава появата на нов потенциално опасен инструмент, известен като изкуствен интелект (deepfake изкуствен интелект).
Терминът deepfake се отнася до фалшиви, генерирани от компютър видео и аудио, които е трудно да се разграничат от истинско, непроменено съдържание. Това е да се снима какъв е Photoshop за изображения.
Как работи AI на deepfake?
Инструментът разчита на това, което е известно като генеративни състезателни мрежи (GANs), техника, изобретена през 2014 г. от Ian Goodfellow, доктор на науките. студент, който сега работи в Apple, съобщи Popular Mechanics.
Алгоритъмът GAN включва два отделни AI, един, който генерира съдържание - да речем, снимки на хора - и противник, който се опитва да отгатне дали изображенията са реални или фалшиви, според Vox. Генериращият AI започва почти без представа как изглеждат хората, което означава, че партньорът му може лесно да различи истинските снимки от фалшивите. Но с течение на времето всеки тип AI става прогресивно по-добър и в крайна сметка генериращият AI започва да произвежда съдържание, което изглежда перфектно живо.
Deepfake примери
GANs са впечатляващи инструменти и не винаги се използват за злонамерени цели. През 2018 г. картина, генерирана от GAN, имитираща холандския стил „Old Master“ на художници като Рембранд ван Рийн от 17-ти век, се продаде в аукционната къща на Christie за невероятните 432 500 долара.
Същата година, deepfakes нарасна до широко известност, главно чрез потребител на Reddit, който получи името „deepfakes“, съобщи Vice. Техниката GAN често се използва за поставяне на лицата на известни знаменитости - включително Гал Гадот, Мейзи Уилямс и Тейлър Суифт - върху телата на актрисите с порнографски филми.
Други GANs са се научили да правят единично изображение на човек и да създават сравнително реалистични алтернативни снимки или видеоклипове на този човек. През 2019 гълтачът може да генерира страховити, но реалистични филми на Мона Лиза, които говорят, движат се и се усмихват на различни позиции.
Deepfakes също могат да променят аудио съдържание. Както бе съобщено от The Verge по-рано тази година, техниката може да сплита нови думи във видеоклип на човек, който говори, което прави впечатлението, че са казали нещо, което никога не са възнамерявали.
Лекотата, с която може да бъде използван новият инструмент, има потенциално плашещи последствия. Ако някой и навсякъде може да направи реалистични филми, показващи знаменитост или политик, който говори, движи и казва думи, които никога не е казвал, зрителите са принудени да станат по-предпазливи от съдържанието в интернет. Като пример, просто изслушайте предупреждението на президента Обама срещу "избухнало" дистопично бъдеще в това видео от Buzzfeed, създадено с помощта на deepfake от режисьора Джордан Пийл.