izhevsk.ru Главная /  Общение /  Манипуляции обществом с помощью ИИ

Имя:
Пароль:
 зарегистрироваться | Войти через
напоминатель пароля
Манипуляции обществом с помощью ИИ
НОВАЯ ТЕМА правила | поиск | картинки | | | о форуме |
  Новости | Авто | Недвижимость | Работа | Бизнес | Стройка | Объявления | Совместная покупка | | |
  следующая тема | предыдущая тема
Автор Тема:   Манипуляции обществом с помощью ИИ   версия для печати
XUC
Рейтинг: 164/-61
-- написано 27-12-2023 01:27 XUC

Угрозы, представляемые искусственным интеллектом обществу и людям . Мой взгляд на сегодня.

1. Манипулирование данными
1.1 в реальном режиме времени, например манипуляция при помощи политической и не только рекламы, манипуляция с выдачей конкретных уже готовых текстов в соц сетях, изданиях и прочих интернет изданиях
1.2 отложенная манипуляция , например регулярное переписывание архивных данных, например переписывание истории, фактов , логических цепочек, научных данных и т.д.
1.3 их комбинации.
2. Манипулирование научными и техническими открытиями
1.2 формирование базы научных открытий в конкретной технической области, с последующими патентоведными изысканиями.
т.е с помощью ИИ производится автоматизиваранный патентный поиск изобрений и открытий в научных и не только областях,.
самые востребованные открытия научных сфер сделанные при помощи ИИ , патентуются и сертифицируются,если предполангается использование.
это означает , что огромный пласт научной и технической прослойки общества останется без работы. Или если перефразировать мысль,
рядовой технический или научный сотрудник уже не будет имть шансов совершить какое то открытие в мире науки или техники, ибо все сфры
будут пересмотрены с помощью ИИ и перепатенованы. А кто же будет бенефециар этих открытий?
Ну конечно - же владельцы мега систем с ИИ, новая сформировавщаяся прослойка для управления миром.

3. Манипулирование личными данными, начиная от данных человека из соц сетей и заканчивая его персональныйми биометрическими данными и ДНК.
4. Манипуляция финасовыми рынками.
5. Создание оружия нового типа вплоть до индивидуального направленного поражения - для конкретного человека с конкретной ДНК.
6. Встраивание ИИ чипов во всевозможные электронные приборы, от компьютеров и маршруторизаторов до лампочек и унитазов.
7. Управление и манипуляция сетевыми системами , начиная от локальных сетей и заканчивая интернетом и его наследниками.
8. Управление и манипуляция системами умного дома,всеми видами систем виртуальной реальности (полная, смешанная, дополненная)
9. Тотальное обворовываание и присвоение, модернизация и патентование идей общества, людей, социальных групп. Т.е наука, инжерения всех видов постепенно начнёт в принципе исчезать.
в обществе настанет разделение реальной науки правдивых знаний и псевдо"науки" насаждаемой низжим слоям общества для еще более тотального оболванивания и одурманивания социума.
Эра Homo Sapiens "человека разумного" уйдёт в историю.

Xuc
----- редакция статьи от 03.12.23

история редактирования

Показать текст сообщения полностью
Гоблинатор
Рейтинг: 117/-192
-- написано 27-12-2023 18:05 Гоблинатор

Мне как то пофую
XUC
Рейтинг: 164/-61
-- написано 4-2-2024 19:10 XUC

Новый видео ИИ от Google сотрет границы между фикцией и реальностью.Массовый генератор фейков



XUC
Рейтинг: 164/-61
-- написано 4-2-2024 19:45 XUC

;Настоящей картинки не существует;: в Samsung оправдали использование ИИ-алгоритмов в камерах смартфонов

Исполнительный вице-президент Samsung Патрик Шоме (Patrick Chomet) подключился к дискуссии об использовании алгоритмов искусственного интеллекта при обработке фото, снятых на смартфон. По его словам, сегодня ИИ применяется при получении всех снимков на камеры телефонов, а значит, все мобильные фото в этом смысле можно назвать подделкой.

;В прошлом году Маркес Браунли (Marques Brownlee) показал прекрасное видео о съёмке Луны. Все спорили: "Это подделка? Не подделка?". Были дебаты о том, что представляет собой настоящая картинка. И на самом деле настоящей картинки не существует. У вас есть сенсоры, чтобы что-то снять, вы воспроизводите [то, что видите], и это ничего не значит. Настоящей картинки нет. Можно попытаться определить настоящую картинку, сказав: "Этот снимок сделал я", но если вы пользовались ИИ для оптимизации масштаба, автофокуса, сцены - реальна ли она? Или это всё фильтры? Настоящей картинки нет, и точка;, - заявил господин Шоме ресурсу TechRadar.

Производители смартфонов и ПО для них всё активнее применяют ИИ для улучшения качества снимков на камеру. Например, для этого объединяются несколько кадров с разных камер или сделанных подряд одной, а окончательное изображение синтезируется программным методом. Вопрос встал ещё острее с выходом смартфонов серии Samsung Galaxy S24, обильно укомплектованных функциями ИИ, включая редактор изображений на базе генератора Google Imagen 2.

При этом исполнительный вице-президент Samsung не пытается сложить с компании ответственность - он согласен, что отрасль ИИ нуждается в регулировании, и компания готова оказать властям помощь в этом деле. Интегрируя ИИ в мобильные устройства, Samsung пытается решить две задачи: помочь пользователям запечатлеть ;момент; и предложить способ создать ;новую реальность; - генерируемые в последнем случае изображения маркируются метаданными и водяными знаками, ;чтобы люди поняли разницу;.

Источник: https://3dnews.ru/1099778/vits...e-sushchestvuet

XUC
Рейтинг: 164/-61
-- написано 5-2-2024 23:28 XUC

Крупная международная компания перевела $25 млн мошенникам по распоряжению дипфейка финдиректора

Транснациональная компания лишилась почти $26 млн, попавшись на уловку мошенника, который очень успешно воспользовался технологией дипфейк. Он создал цифровые копии топ-менеджеров компании и с их помощью выудил у нее деньги. Злоумышленник не найден, деньги вернуть не удалось. Расследование продолжается.

Деньги реальные, коллеги - нет
Международная компания в считанные минуты потеряла $25,6 млн - ее сотрудник перевел эти деньги мошеннику, который обманул его при помощи дипфейка. Он создал почти идеальные копии его сотрудников и провел с ним видеоконференцию, где лишь один человек - жертва обмана - был настоящим. Остальными участниками был полностью виртуальные личности, копирующие реальных людей, пишет издание South China Morning Post.

Название компании, ставшей невольным участником мошеннической схемы, не разглашается. Тем не менее, она все же попала в сводку новостей, и дело даже не в том, каким именно способом у нее украли деньги. По словам правоохранительных органов, это первый случай в истории, когда жертва была обманута при помощи группового дипфейка - раньше такая тактика мошенниками не применялась.

Дипфейк (deepfake от англ. deep learning ;глубинное обучение; и fake ;подделка; ) - способ виртуального синтеза изображения или голоса при помощи нейросетей и искусственного интеллекта. Эта технология позволяет добиться максимальной реалистичности синтезируемого изображения или голоса.

Фото: FreePik

Развитие технологий привело к тому, что никогда нет уверенности в том, что на другом конце провода реальный собеседник
Инцидент произошел в Гонконге. На момент выхода материала расследование продолжалось, но подозреваемые найдены не были, а деньги компании вернуть не удалось.

Как по нотам
Мошенник или группа мошенников, стоявший за этой операцией, избрал своей целью сотрудника финансового отдела в представительстве компании в Гонконге. История началась в середине января 2024 г. с обычного, на первый взгляд, электронного письма, прочитав которое, будущая жертва обмана тут же заподозрила неладное.

Однако отправлять корреспонденцию в спам сотрудник все же не рискнул. Автором письма был якобы финансовый директор британского подразделения компании - в нем он заявлял о необходимости проведения некой тайной денежной транзакции на довольно крупную сумму.

Это обстоятельство и насторожило получателя письма, однако вскоре в его ящик пришло еще одно - на этот раз с приглашением на групповую онлайн-встречу.

Приняв приглашение, сотрудник финотдела увидел на экране лица британского финдиректора, а также нескольких других сотрудников компании. Это развеяло все сомнения в его голове - на тот момент он не подозревал, что все собеседники, с которыми он общался, были всего лишь виртуальными копиями реальных людей.

Гигантская фора мошенникам
По информации издания, в ходе видеоконференции стороны пришли к соглашению, что работник финотдела в Гонконге переведет $25,6 млн на несколько банковских счетов в той же стране. Одним из условий, помимо количества счетов, было большое количество транзакций, чтобы сумма не была передана одним траншем. В результате жертва обмана совершил 15 переводов, но так ничего и не заподозрил.

Во время группового звонка обманутый сотрудник компании почти не общался с собеседниками - они лишь давали ему указания, а через некоторое время связь внезапно прервалась. После этого начались звонки один на один, а также переписка со всеми ;участниками; конференции в мессенджерах и через электронную почту. После этого и были совершены 15 банковских переводов.

Как пишет портал TechSpot, лишь через неделю после проведений транзакций сотрудник финотдела в Гонконге решил связаться с головным офисом компании, чтобы узнать, все ли прошло корректно. Только тогда ему стало понятно, что его обвели вокруг пальца.

Таким образом, у мошенников была целая неделя, чтобы опустошить счета, на которые были переведены деньги и скрыться в неизвестном направлении.

Все могло быть иначе
По словам представителей полиции Гонконга, ведущей расследование происшествия, мошенники связались в общей сложности с тремя сотрудниками компании. С двумя другими они пытались провернуть ту же схему с групповым видеозвонком, но они не попались на обман. Почему они не известили об этом службу безопасности, еще предстоит выяснить.

Также пока достоверно неизвестно, откуда злоумышленники взяли образцы голоса и внешности людей, чьи личности они в итоге столь тщательно скопировали. Вполне вероятно, они воспользовались имеющимися в сводном доступе образцами данных (фотографии и видеозапики, к примеру) - ранее другие мошенники уже проворачивали подобные трюки, использовав открытую информацию.

В полиции Гонконга добавили также, что существует несколько действенных способов распознать мошенничество с использованием дипфейка во время группового или личного видеозвонка. Нужно попросить собеседника покрутить головой, что позволит увидеть дефекты изображения, если на другом конце провода мошенник, или задать ему вопрос, ответ на который может знать только этот человек, но не тот, кто пытается выдать себя за него.

Источник https://www.cnews.ru/news/top/...paniyu_obokrali

XUC
Рейтинг: 164/-61
-- написано 7-2-2024 16:38 XUC

Meta✴ будет наказывать пользователей за сокрытие происхождения контента, созданного ИИ

В ближайшие месяцы Meta✴ начнёт помечать изображения, созданные искусственным интеллектом и загруженные в Facebook✴, Instagram✴ и Threads - так компания готовится к американским выборам. Пользователей платформ, загрузивших созданные ИИ реалистичные аудио- и видеофайлы, но отказавшихся раскрыть их происхождение, будет ожидать наказание.


Источник изображения: Gerd Altmann / pixabay.com

Президент Meta✴ по международным делам Ник Клегг (Nick Clegg) заявил, что эти меры призваны активизировать технологическую отрасль: генерируемые ИИ медиафайлы всё труднее отличить от настоящих. В компании также разрабатываются инструменты для обнаружения созданных ИИ материалов, даже если их метаданные были отредактированы. У Meta✴ есть собственный генератор изображений Imagine, и созданные им картинки на платформах компании уже маркируются водяным знаком Imagined with AI; таким же образом будут помечаться картинки, появившиеся на свет благодаря инструментам Google, OpenAI, Microsoft, Adobe, Midjourney и Shutterstock.

Технологическая отрасль, по мнению господина Клегга, всё больше отстаёт в разработке стандартов идентификации созданных ИИ аудио и видео - Meta✴ приходится внимательно следить за тем, как они могут использоваться для подлога, но выявлять все материалы самостоятельно ей не под силу. Компания при поддержке партнёров развивает несколько инициатив по обеспечению подлинности контента. Adobe представила систему Content Credentials маркировки ИИ-контента в метаданных и при выводе на сайты; Google недавно представила новую версию водяного знака SynthID для аудиофайлов. Meta✴ вскоре начнёт требовать от своих пользователей раскрывать информацию о генерируемых ИИ реалистичных видео- и аудиозаписях, добавил Клегг. Тех, кто этого не сделает, будут ожидать последствия: от предупреждения до удаления публикации с таким содержимым.

В этом году в США пройдут выборы президента, и в преддверии этого события уже появилось множество созданных ИИ вирусных постов от лица политиков. Но, по мнению Клегга, такие материалы либо не имеют политического веса, либо оперативно обнаруживаются администрацией платформ. В Meta✴ также стартует тестирование больших языковых моделей, обученных по стандартам сообщества - они выступят как вспомогательный инструмент для модераторов-людей.

Источник: https://3dnews.ru/1099928/meta...h-proishogdenie

✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 N 114-ФЗ ;О противодействии экстремистской деятельности;

XUC
Рейтинг: 164/-61
-- написано 7-2-2024 16:55 XUC

OpenAI будет незаметно маркировать творчество ИИ-художника DALL-E 3

Генератор изображений OpenAI DALL-E 3 будет помечать созданные им картинки метаданными в соответствии со стандартами организации C2PA (Coalition for Content Provenance and Authenticity - ;Коалиции по происхождению и аутентичности контента; ). Такая маркировка позволит легко узнать, что изображение создано ИИ, а не человеком.


Источник изображения: Gerd Altmann / pixabay.com

При помощи метаданных будут маркироваться изображения, созданные искусственным интеллектом на сайте ChatGPT и при подключении к API для модели DALL-E 3, сообщила OpenAI. При выводе таких изображений на поддерживающих технологию Content Credentials ресурсах будет отображаться изображение с символами ;CR; в левом верхнем углу каждой картинки. Это позволит установить происхождение файла, но пока маркировку получат только картинки, а не видеозаписи или текст. Добавление метаданных лишь незначительно повлияет на скорость работы системы и никак не скажется на качестве картинки, подчеркнули в OpenAI.


Источник изображения: openai.com

Организация C2PA, в которую входят крупные технологические компании масштаба Adobe и Microsoft, продвигает собственный стандарт Content Credentials - это решение позволяет определять происхождение контента. Ранее о намерении помечать на своих платформах созданные ИИ материалы сообщила компания Meta✴.

Американские разработчики технологий ИИ взяли на себя обязательства обеспечивать средства идентификации генерируемого ИИ контента. Метаданные, однако, трудно назвать надёжным способом защиты - их легко удалить, случайно или намеренно. Так, они часто в принудительном порядке удаляются при загрузке в соцсети. Метаданные также не сохраняются при снятии снимков экрана.

Источник: https://3dnews.ru/1099948/open...e-3-metadannimi

✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 N 114-ФЗ ;О противодействии экстремистской деятельности;


200x150 320x240 400x300 800x600    без переносов   
быстрый ответ   

подпись
следующая тема | предыдущая тема

похожие темы
 Займы, кредиты, микрозаймы, помощь в получении кредитов, возврат комиссий - Визитки. Деловые предложения
 Официальная тема приюта "Кот и Пёс": наши питомцы ждут любой помощи! и свою семью! О животных
 Прошу помощи жителей Ижевска! 

Главная /  Общение /  Манипуляции обществом с помощью ИИ форумы izhevsk.ru

 
 
 
 
 
© ООО "Марк" 2020
 
Интернет-провайдер КК МАРК-ИТТ