Categories:

Ассоциативная память

Вчера случился удивительный случай - ChatGPT не мог сказать о чем игра Panama Joe. Говорил - не знаю. После добавления к вопросу "на ZX Spectrum", он воскликнул
- Ah, I see! ...

И бодренько отрапортовал почти абстрактное описание, которое совпало по дате и сеттингу с игрой (80-е, поиск сокровищ в индейских пирамидах)

Есть подозрение, что, как и в рисовалках, слова и их комбинации в ChatGPT - это кнопки. Но более сложные, чем в рисовалках. Его псевдоподобие универсального интеллекта обманывает иллюзией, что к нему можно обращаться любыми формулировками. Но некоторые формулировки особенные.

Конкретно в этом случае сработало не слово, а прием - "добавить деталь к вопросу". Это напомнило мне, как работает память у человека - если добавлять детали, мы можем вспоминать то, что кажется навсегда забыли.

С другой стороны, перед нами такой конфабулятор-лжец, что я бы не стал говорить пока - да, у нейронки тоже ассоциативная память с эффектами "провалов" при слишком скудных вопросах. Надо больше экспериментов.