Віцепрезидент Meta назвав «маячнею» заяви про глобальну загрозу з боку ШІВіцепрезидент і провідний дослідник штучного інтелекту корпорації Meta Ян Лекун висловився щодо можливої загрози для людини з боку ШІ. За його словами, подібні припущення не мають нічого спільного з реальним станом справ у цьому сегменті,
пише WSJ.
Лауреат премії Тюрінга вважає, що
ШІ, як і раніше, перебуває на зародковому етапі розвитку. Великим мовним моделям (LLM) досі не вистачає кількох ключових компонентів, які дадуть їм змогу наблизитися
хоча б до рівня котячого мислення, впевнений учений. Зокрема, ці проєкти не володіють постійною пам’яттю, міркуваннями, умінням планувати та розуміти фізичний світ, підкреслив Лекун. Дослідник заявив, що LLM лише навчилися «
маніпулювати мовою і при цьому не бути розумними». Подібні розробки ніколи не приведуть до створення так званого штучного інтелекту загального призначення (AGI).
Відповідаючи на запитання журналістів про те, чи стане ШІ досить розумним, щоб становити екзистенціальну загрозу для всього людства, Лекун не став приховувати скептицизму. «Це повна маячня», — заявив віцепрезидент Meta. Вчений зазначив, що для створення AGI експертам з галузі необхідно переглянути підхід у роботі з технологією.
Зазначимо, що в грудні 2023 року Ян Лекун заявив, що в найближчі 10 років штучний інтелект не зможе досягти рівня людського розуму. За його словами, для навчання ШІ недостатньо отримувати інформацію з текстових матеріалів, аудіо та відео. У світі є багато даних, які ці джерела не охоплюють з різних причин, вважає вчений.