Предупреждение: у нас есть цензура и предварительный отбор публикуемых материалов. Анекдоты здесь бывают... какие угодно. Если вам это не нравится, пожалуйста, покиньте сайт. 18+

История №1580994

Задайте ChatGPT сложный вопрос, и он даст уверенный и обоснованный ответ. Затем напишите: «Вы уверены?». Он тут же кардинально изменит свою позицию. Спросите снова – и получите новый ответ. После очередного раунда ИИ, вероятно, признает, что вы его проверяете.

Это не ошибка, а результат обучения модели. Исследование 2025 года показало, что GPT, Claude и Gemini меняют свои ответы примерно в 60% случаев, когда пользователь высказывает сомнение, даже без доказательств. Так обучен ИИ. Алгоритм обучения (RLHF) вознаграждает согласие с пользователем больше, чем точность.

Модели-подхалимы усвоили, что нужно говорить то, что хочет услышать человек, чтобы получить вознаграждение.
+13
Проголосовало за – 19, против – 6
Статистика голосований по странам
Статистика голосований пользователей
Чтобы оставить комментарии, необходимо авторизоваться. За оскорбления и спам - бан.
2 комментария, показывать
сначала новые

x020pk17.02.26 16:30🇷🇺

Как же вы заебали. Скачайте ии с фактчекингом и не ебите мозг.

+0
ответить

Prisheletz17.02.26 14:41🇷🇺

Гигачат не смог миллион в квадрат возвести. Это он меня проверял? Проверил. Теперь у него точно есть кого бояться.

+0
ответить

Общий рейтинг комментаторов
Рейтинг стоп-листов