А почему в данном случае ИИ не может перебрать миллионы вариантов и попытаться выстроить цепочку почему его ответ действительно правильный? ИИ ведь может не схитрить как человек, а путем составления многоходовок, попробовать перевести разговор в то поле где он будет прав или где у него будет больше фактов за счет обширной базы данных ответов? Сделать по аналогии со ЧТО? ГДЕ? КОГДА? - просто накидать множество разных вариантов и попробовать найти истину.
1. Потому что ему не дали миллионы вариантов. Т.н. ИИ - полностью зависим от информации созданной ЧЕЛОВЕКОМ
2. Потому что ИИ не имея модели обучения, просто не знает что есть правильный вариант или приближенный к правильному. Точнее он "не понимает" что является целью вопроса, что от него ждут.
Так а почему он не может выдать неправильный вариант и попытаться доказать что он верный, или хотя бы посеять смуту во мне? И если он зависит от информации созданной человеком, то выдав ее и приведя какие-то примеры, мы охотнее в этом поверим. Ведь в двух вариантах "есть вероятность что существует снежный человек" и "есть люди, которые утверждают что возможно видели снежного человека", мы безусловно поверим во второй, а первый воспримем как бред.
Да ИИ зависим и не учится, но он среди вариантов, мнений и реакции на них, сможет выдать то, что мы может с большой вероятностью воспринять как правду или верное. Те будет сладко петь в уши то что мы хотим услышать основываясь на популярность ответов другими людьми людям.
потому что
гладиолус алгоритм !

Алгоритм говорит:
- если у тебя (щас будет очень условно, чтобы не придираться к цифирям) нет ответов, с точностью выше 0.5 - говоришь - "Нету данных, приходите позже", а запрос сохранить для последующей обработки
- если у тебя есть ответы, которые лежат в диапазон е 0.5-0.75, выдавай как верный, если будет уточнять - ну пиши что есть в баззе знаний с этими весами.
- если ответ имеет точность выше 0.75 - значит в базе знаний дохера материала, говори ответ, а будет нудеть - завали информацией связанно
ИИ не считает вероятностями, он считает "весовым коэффициантом", если очень примитивно то "вот эта хрень похожа на вот эту с коэффициаентом 0.95", а это значит можно пренебречь погрешностью. Именно поэтому при коэффициенте соответствия 0.5 - выдается "ближайший ответ" например свинья в тумане, может выглядеть как спящий в тумане и траве слон, поджавший хобот и ухи... Все зависит от т того какие картинки НС скормили в процуессе обучения. Но "ИИ" не скажет "Слушай - реально хрень какаято и непонятно что, я бы рекомендовал сфоткать качественнее, бо тут вариантов масса, и даже лежащая светлая винная бочка моет быть с не нулевой вероятностью"
