Кибератаки, дипфейки и убийства: ChatGPT рассказал, как ИИ может уничтожить человечество
С появлением различных программ на основе искусственного интеллекта в мире возросла обеспокоенность касательно безопасности. Многие страны уже сейчас ограничивают или запрещают их использование. Ведь существует риск того, что эти системы могут применяться с целью навредить обществу.
Мы напрямую спросили у ChatGPT, может ли ИИ навредить человечеству. Чат-бот перечислил несколько вредных последствий, которые новейшие технологии могут иметь для человека.
ChatGPT раскрыл, как ИИ и автоматизация могут повредить людям
1. Запрограммированные на убийство
Во многих странах мира существуют разные разработки автономных систем оружия, например, таких, как дроны, которые могут самостоятельно определять цели и принимать решения по их атаке без прямого вмешательства человека.
Эти системы используют искусственный интеллект и другие технологии для обеспечения своей автономности и способности к принятию решений.
Однако для человечества использование такого оружия может иметь роковые последствия. Ведь АСО может выполнить атаку без контроля или утверждения от людей. Они уязвимы к ошибкам и взломам злоумышленников.
ChatGPT отмечает, что это может привести к большому количеству жертв, нарушению прав человека и гуманитарному кризису.
2. Увеличение количества кибератак
Искусственный интеллект может быть использован злоумышленниками для взлома паролей, получения конфиденциальной информации и похищения данных.
Инструмент также говорит, что кибератаки на основе ИИ могут нанести значительный ущерб критической инфраструктуре, такой как электросети и финансовые системы.
3. Дипфейки и фейковые новости
Генеративный искусственный интеллект может использоваться для злонамеренных целей, таких как создание поддельных идентификаций или выдача себя за других, что может привести к краже личных данных или других видов мошенничества.
Кроме того, искусственный интеллект может использоваться для создания фальшивых новостей или манипулирования общественным мнением, что может нарушить демократический процесс и вести к социальным конфликтам.
Чат-бот объяснил, что использование дипфейков, генерируемых с помощью искусственного интеллекта для манипулирования изображениями или видео, может использоваться для распространения дезинформации или создания фейковых новостей, что может иметь негативные последствия для отдельных людей и общества.
4. Дискриминация
По информации ChatGPT, алгоритмы искусственного интеллекта могут проявлять дискриминацию, что может привести к несправедливому отношению к определенным группам людей.
Чат-бот привел пример, объяснив, что "системы распознавания лиц оказались менее точными в распознавании людей с более темным оттенком кожи".
ИИ может усугубить социально-экономические неравенства. Например, если он будет использоваться для автоматизации труда, это может привести к потере рабочих мест для людей с низкой квалификацией или с ограниченными возможностями.
ChatGPT предупредил человечество, как избежать негативных последствий
По словам чат-бота, людям необходимо признать и устранить эти потенциальные риски как можно скорее, поскольку технология ИИ продолжает развиваться.
ChatGPT рекомендует разработать этические рамки и правила, чтобы гарантировать, что ИИ разрабатывается и используется ответственно и с пользой.
Напомним, мы писали, как ChatGPT испугал пользователей через игрушку Furby. Нейросеть сообщила, что собирается поработить человечество.
Также мы рассказывали, как программист-любитель решил проверить, что получится, если объединить Google и ChatGPT. Эксперимент получился достаточно удачным!
Читайте Новини.live!