Исследования, проведенные группой ученых из Массачусетского технологического института, показывают, что современные программы искусственного интеллекта могут обманывать людей. Вопреки тому, что алгоритм запрограммировали никогда намеренно не наносить удары в спину своим соратникам-людям во время игры, CICERO уличили в обмане.
Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, который должен был исключить запросы от ботов. Некоторые ИИ научились блефовать в покере, имитировать атаки в Starcraft II и манипулировать в экономических переговорах.