Нейросеть научили выявлять фейки, созданные при помощи других нейросетей

Американские ученые научили нейросеть распознавать подделки, созданные другими нейросетями, обученными подделывать как картинки, так и видео, о которых мы уже сообщали.

Так называемые дипфейки все больше и больше пугают не только экспертов, но и простых людей, которые могут стать жертвами обмана со стороны создателей поддельных видео с участием знаменитостей, а также фейковых новостных сюжетов. Вскоре, по опасению теперь уже многих людей, даже отдаленно знакомых с технологиями алгоритмов дипфейков (deepfake), мир захлестнет волна поддельных видеороликов, отличить которые от настоящих не будет никакой возможности.

Правда, шансы на определение фальшивки значительно выросли, когда американские ученые одного из калифорнийских вузов рассказали о своей научной работе. Они создали нейросеть, которая хоть и обучалась долго, но теперь с очень высокой долей вероятности может отличить фейковую фотографию от настоящей. Какие методики применяет новый ИИ, не уточняется, но известно, что его обучали на сотнях тысяч различных оригинальных фото и их подделок. Пока что новая нейросеть может различать лишь картинки, но ученые уверены, что к моменту массового появления дипфейк-видео их алгоритм научится распознавать и поддельный видеоряд.

загрузка...

Коротко

Показать все новости