
У LLM нет сознания (пока что)
На прошлой неделе, я был на конференции OpenTalks.ai и один из вопросов, который теперь регулярно всплывает у меня в сознании - это вопрос о наличии сознания у языковых моделей.
Ответить на него односложно довольно легко - у современных LLM сознания нет. Нет его хотя бы по той причине, что у них нет внутреннего состояния, которое сохраняется между запросами и может меняться само по себе. Модель не может подумать о своем или еще раз вернуться к запросу, который она обрабатывала несколько часов назад.
Гораздо сложнее ответить на другой вопрос, а что же такое сознание? Есть какое-то количество необходимых условий, которые мы считаем необходимыми для его наличия. Но сделать “достаточное” описание пока не получается.
Забавно будет, если человечество сделает что-то, что мы будем с уверенностью считать осознанным, но так и не дадим к тому моменту ответа на вопрос: “Что это такое?”