Flanger Опубликовано 27 марта, 2023 Автор Опубликовано 27 марта, 2023 Трагедия, которой никогда не было: как нейросети могут использоваться для распространения фейковой информации Пугающие изображения из Midjourney, которые практически невозможно отличить от настоящих фотографий. Зачастую в Интернете можно наткнуться на весьма реалистичные фотографии стихийных бедствий или техногенных катастроф. Многие такие фотографии абсолютно настоящие и сделаны реальными фотографами, когда как другая львиная часть — отредактированные в фотошопе подделки. И если раньше у любого критически мыслящего человека то или иное изображение из интернета могло вызвать чувство сомнения, то теперь, с развитием и распространением нейросетей, таких сомнений должно стать ещё больше. Реалистичные изображения трагедии, которой никогда не было, недавно были опубликованы на форуме Reddit, в одной из тем, где пользователи экспериментируют с нейросетью Midjourney и делятся своими творениями с единомышленниками. Оригинальный пост пользователя под ником «Arctic_Chilean» быстро стал вирусным и попал на главную страницу Reddit. Естественно, многие люди, которые не знали контекста изображения, поначалу даже подумали, что это настоящие фотографии. Создатель поддельных фотографий утверждал, что землетрясение силой 9,1 балла по шкале Рихтера было зарегистрировано в апреле 2001 года. Он даже перечислил места, где произошла катастрофа. На одном изображении предположительно показан разрушенный центр Сиэтла, а на другом изображены спасатели, вытаскивающие выживших из-под обломков в Ванкувере. Изображения очень убедительные и пугающие. Общее качество и стилистика также очень напоминает 2001 год. Вполне вероятно, что за референс нейросеть взяла фотографии реальной трагедии 11 сентября 2001 года. Однако в апреле того года, к счастью, никакого землетрясения у западного побережья США и Канады не было — это всего лишь реалистичная генерация. Созданные искусственным интеллектом поддельные изображения в последнее время распространяются подобно пандемии. Один зарубежный журналист, например, сгенерировал с десяток разных фотографий задержания Дональда Трампа американской полицией. Будь изображения хоть немного реалистичнее, вполне можно было бы пускать в мировое инфополе очередную фейковую новость. И ведь большинство людей поверили бы в неё, вот же картинка! И чем стремительнее нейросети развиваются, тем больше стирается и без того тонкая грань доверия к средствам массовой информации и Интернету. Будем надеяться, что злоумышленники или пранкеры в будущем не будут использовать нейросети для распространения дезинформации, особенно таких масштабов, как на изображениях выше, связанных с какими-либо трагичными событиями и гибелью людей. А ещё лучше, если в будущем все изображения, размещаемые в любых средствах массовой информации, нужно будет в обязательном порядке проверять каким-нибудь инструментом на основе того же ИИ для подтверждения достоверности.
Flanger Опубликовано 28 марта, 2023 Автор Опубликовано 28 марта, 2023 Гордон Рамзи готовит на игрушечной кухне
Flanger Опубликовано 30 марта, 2023 Автор Опубликовано 30 марта, 2023 Так бы выглядел парк «Лосиный остров», если бы был человеком
Flanger Опубликовано 31 марта, 2023 Автор Опубликовано 31 марта, 2023 Если бы персонажи «Спокойной ночи, малыши!» были бы героями «Маппет-шоу».
Рекомендуемые сообщения