Кібератаки, дипфейки та вбивства: ChatGPT розповів, як ШІ може знищити людство
З появою різних програм на основі штучного інтелекту у світі зросла стурбованість щодо безпеки. Багато країн вже зараз обмежують або забороняють їх використання. Адже існує ризик, що ці системи можуть застосовуватися з метою нашкодити суспільству.
Ми напряму запитали у ChatGPT, чи може ШІ зашкодити людству. Чатбот перерахував кілька шкідливих наслідків, які новітні технології можуть мати для людини.
ChatGPT розкрив, як ШІ та автоматизація можуть зашкодити людям
1. Запрограмовані на вбивство
В багатьох країнах світу існують різні розробки автономних систем зброї, наприклад, таких як дрони, які можуть самостійно визначати цілі та приймати рішення щодо їх атакування без прямого втручання людини.
Ці системи використовують штучний інтелект та інші технології, щоб забезпечити свою автономність та здатність до прийняття рішень.
Проте для людства використання такої зброї може мати фатальні наслідки. Адже АСЗ може виконати атаку без жодного контролю або затвердження від людей. Вони вразливі до помилок та зламів зловмисників.
ChatGPT зазначає, що це може призвести до великої кількості жертв, порушення прав людини та гуманітарні кризи.
2. Збільшення кількості кібератак
Штучний інтелект може бути використаний зловмисниками для злому паролів, отримання конфіденційної інформації та викрадення даних.
Інструмент також каже, що кібератаки на основі ШІ можуть завдати значної шкоди критичній інфраструктурі, такій як електромережі та фінансові системи.
3. Дипфейки та фейкові новини
Генеративний штучний інтелект може використовуватися для зловмисних цілей, таких як створення підроблених ідентифікацій або видавання себе за інших, що може призвести до крадіжки особистих даних або інших видів шахрайства.
Крім того, штучний інтелект може бути використаний для створення фальшивих новин або маніпулювання громадською думкою, що може порушити демократичний процес та вести до соціальних конфліктів.
Чатбот пояснив, що використання дипфейків, які генеруються за допомогою штучного інтелекту для маніпулювання зображеннями чи відео, може використовуватися для поширення дезінформації або створення фейкових новин, що може мати негативні наслідки для окремих людей і суспільства.
4. Дискримінація
За інформацією ChatGPT, алгоритми штучного інтелекту можуть проявляти упередження та дискримінацію, що може призвести до несправедливого ставлення до певних груп людей.
Чатбот навів приклад, пояснивши, що "системи розпізнавання облич виявилися менш точними у розпізнаванні людей із темнішим відтінком шкіри".
ШІ може посилити соціально-економічні нерівності. Наприклад, якщо він буде використовуватися для автоматизації праці, то це може призвести до втрати робочих місць для людей з низькою кваліфікацією або з обмеженими можливостями.
ChatGPT попередив людство, як уникнути негативних наслідків
За словами чатбота, людям необхідно визнати та усунути ці потенційні ризики якомога швидше, оскільки технологія ШІ продовжує розвиватися.
ChatGPT рекомендує, розробити етичні рамки та правила, щоб гарантувати, що ШІ розробляється та використовується відповідально та з користю.
Нагадаємо, ми писали, як ChatGPT налякав користувачів через іграшку Furby. Нейромережа повідомила, що збирається поневолити людство.
Також ми розповідали, як програміст-любитель вирішив перевірити, що вийде, якщо поєднати Google та ChatGPT. Експеримент вийшов досить вдалим!
Читайте Новини.live!