Как обхитрить искусственный интеллект
5- 12.06.2025, 13:33
- 2,720

Алгоритмы ИИ пока не могут превзойти человеческую изобретательность.
Современные алгоритмы искусственного интеллекта все чаще применяются для выявления лжи в текстах. ИИ анализирует выбор слов, структуру предложений и эмоциональную окраску текста, чтобы обнаружить признаки обмана. Однако, несмотря на всю технологическую мощь, ИИ сталкивается с одним непреодолимым препятствием — человеческой изобретательностью, пишет Psychology Today (перевод — сайт Charter97.org).
Ключевая слабость ИИ в распознавании лжи связана с так называемым «Законом Миллера», сформулированным профессором Принстона Джорджем Миллером.
Этот принцип гласит: чтобы понять собеседника, нужно сначала представить, что он говорит правду, и только потом пытаться понять, при каких условиях это может быть правдой. Опытные лжецы инстинктивно используют этот прием, изменяя значение слов так, чтобы их утверждение формально оставалось правдой, но вводило в заблуждение.
Простой пример:
Я: Ты взял печенье?
Сын: Нет, я не брал печенье.
Я: Не лги мне, сынок.
Сын: Я не брал печенье, папа.
Я: Как ты можешь врать, если у тебя на руках и лице крошки от печенья? Почему ты солгал мне, сынок?
Сын: Я не солгал тебе, папа. Ты спросил, брал ли я печенье. Я не брал печенье... я взял два печенья.
Согласно Закону Миллера, сын не солгал. Он сказал правду, но правду о чем? Он ограничил определение слова печенье как одно печенье. Формально, утверждение о том, что он взял одно печенье — ложно, он взял два. Это и есть законо Миллера.
ИИ, каким бы продвинутым он ни был, не может читать мысли и интерпретировать внутренние словари людей. Это означает, что пока человек может незаметно менять значения слов в своей голове, алгоритмы будут уязвимы.
Таким образом, несмотря на успехи ИИ в обработке языка, окончательная проверка на правдивость по-прежнему остается в руках человека. Машины могут выявлять нестыковки, но понять, что именно собеседник подразумевал под своими словами, способен только человек.