
У LLM нет сознания (пока что)
На прошлой неделе, я был на конференции OpenTalks.ai и один из вопросов, который теперь регулярно всплывает у меня в сознании - это вопрос о наличии сознания у языковых моделей.
Ответить на него односложно довольно легко - у современных LLM сознания нет. Нет его хотя бы по той причине, что у них нет внутреннего состояния, которое сохраняется между запросами и может меняться само по себе. Модель не может подумать о своем или еще раз вернуться к запросу, который она обрабатывала несколько часов назад.
