А что для него будет считаться ПРАВДОЙ ? Какой критерий ? У него есть достаточно простой механизм: есть входные данные, на основании которых он построил базу знаний. И если есму сказать например Шар - это фигура с ребрами, он просто подняв данные что такое ребра и что такое шар, выдаст что вы ошибаетесь, шар не имеет ребер потому что блаблабла. Но если у него на входе, для обучения не будет определений что такое шар и у каких фигур есть ребра. Он скажет чтото из серии - "ХЗ возможно яне могу ни подтвердить ни опровергнуть ваше заявление т.к. у меня отсуствуют данные". И правду он не найдет. Более того, если система будет обчуаться на ответах людей, и ему все нальют в уши что шар это фигура которая имеет ребра, а других данных у нег не будет - он вообще ответит на предыдущий вопрос утвердительно.
Поэтому я и говорю, что современный искусственный интеллект, совсем не "интеллект", а просто набор данных и программных алгоритмов. Его легко убедить, обмануть, заставить верить во что-то чуждое человеку, а если он еще будет подпитываться сайтами с заведомо ложной информацией, то это приведет к непоправимым последствиям. Представляете, что если кто-то скажет человеку, что шар - это фигура с ребрами? Он просто покрутит у виска и не станет даже говорить или переубеждать.
От себя , из личного опыта добавлю: ранее использовал Phind для разработки. ChatGPT и Gemini были вспомогательными. После выхода нового ChatGPT - приоритет отдал ему, т.к качество ответов стало реально выше конкурентов. Phind и Gemini как то деградировали что ли... Но для меня получились менее качественными помощниками.
ПС Все построено и оценено на моих личных впечатлениях, а потому субьективно
А мне лично из всех использованных нейросетей не нравится Копилот от Microsoft, иногда такие чудные ответы выдает... Хотя некоторые люди говорят, что это мы не умеем задавать правильных вопросов, то есть составлять промты для них, они как-то выжимают максимум качества даже из самых простых нейросетей.