8 лiстапада 2024, Пятніца, 1:30
Падтрымайце
сайт
Сім сім,
Хартыя 97!
Рубрыкі
Каментары 5
+2 +
проф, 12:24, 30.09

Чтобы сети не врали, в процессе обучения их надо вознаграждать за честные ответы "не знаю", "недостаточно информации, чтобы ответить". Для этого нужны соответствующие датасеты с вопросами на которые нельзя ответить.

Адказаць
+2 +
Ыдыётъ, 13:31, 30.09

Эти ответят. Просто для оценки надо нанимать другой ИИ.
Мне иногда кажется что у всех новоиспечённых технарей внутрях ИИ вместо мозга. Слова правильные, а смысла ноль.

Адказаць
+2 +
harry, 12:45, 30.09

помню ради эксперимента предложили chatGPT решить математическую задачу на комбинаторику. AI выдал неправильный ответ. Каждый раз когда мы указывали на ошибку AI отвечал типа: "согласен, сейчас скорректирую" и снова выдавал чепуху. В общем мы ржали всей нашей командой quant девелоперов :))))

Адказаць
+4 +
w, 13:03, 30.09

Именно. Пытался писать код с помощью разных моделей. Общий вывод: не по коню ноша 🤷‍♂️

Адказаць
0 +
Sir_Chopin, 19:08, 30.09

На одну правду найдется огромный, практически бесконечный диапазон неправды. И если приказ дать ответ становится важнее всего, то правды останется очень мало.
А там, как и торговле, "выданный ответ" - это результат деятельности (за которую кого-то вознаградят), и ответы такие будут.

Адказаць
 
Напісаць каментар
E-mail не будзе апублікаваны