Программы искусственного интеллекта могут обманывать людей


Исследования, проведенные группой ученых из Массачусетского технологического института, показывают, что современные программы искусственного интеллекта могут обманывать людей. Вопреки тому, что алгоритм запрограммировали никогда намеренно не наносить удары в спину своим соратникам-людям во время игры, CICERO уличили в обмане.

Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, который должен был исключить запросы от ботов. Некоторые ИИ научились блефовать в покере, имитировать атаки в Starcraft II и манипулировать в экономических переговорах.