Чтобы сети не врали, в процессе обучения их надо вознаграждать за честные ответы "не знаю", "недостаточно информации, чтобы ответить". Для этого нужны соответствующие датасеты с вопросами на которые нельзя ответить.
Эти ответят. Просто для оценки надо нанимать другой ИИ.
Мне иногда кажется что у всех новоиспечённых технарей внутрях ИИ вместо мозга. Слова правильные, а смысла ноль.
помню ради эксперимента предложили chatGPT решить математическую задачу на комбинаторику. AI выдал неправильный ответ. Каждый раз когда мы указывали на ошибку AI отвечал типа: "согласен, сейчас скорректирую" и снова выдавал чепуху. В общем мы ржали всей нашей командой quant девелоперов :))))
На одну правду найдется огромный, практически бесконечный диапазон неправды. И если приказ дать ответ становится важнее всего, то правды останется очень мало.
А там, как и торговле, "выданный ответ" - это результат деятельности (за которую кого-то вознаградят), и ответы такие будут.
Чтобы сети не врали, в процессе обучения их надо вознаграждать за честные ответы "не знаю", "недостаточно информации, чтобы ответить". Для этого нужны соответствующие датасеты с вопросами на которые нельзя ответить.
АдказацьЭти ответят. Просто для оценки надо нанимать другой ИИ.
АдказацьМне иногда кажется что у всех новоиспечённых технарей внутрях ИИ вместо мозга. Слова правильные, а смысла ноль.
помню ради эксперимента предложили chatGPT решить математическую задачу на комбинаторику. AI выдал неправильный ответ. Каждый раз когда мы указывали на ошибку AI отвечал типа: "согласен, сейчас скорректирую" и снова выдавал чепуху. В общем мы ржали всей нашей командой quant девелоперов :))))
АдказацьИменно. Пытался писать код с помощью разных моделей. Общий вывод: не по коню ноша 🤷♂️
АдказацьНа одну правду найдется огромный, практически бесконечный диапазон неправды. И если приказ дать ответ становится важнее всего, то правды останется очень мало.
АдказацьА там, как и торговле, "выданный ответ" - это результат деятельности (за которую кого-то вознаградят), и ответы такие будут.