Llm

У LLM нет сознания (пока что)

У LLM нет сознания (пока что)

На прошлой неделе, я был на конференции OpenTalks.ai и один из вопросов, который теперь регулярно всплывает у меня в сознании - это вопрос о наличии сознания у языковых моделей.

Ответить на него односложно довольно легко - у современных LLM сознания нет. Нет его хотя бы по той причине, что у них нет внутреннего состояния, которое сохраняется между запросами и может меняться само по себе. Модель не может подумать о своем или еще раз вернуться к запросу, который она обрабатывала несколько часов назад.

LLM-in-the-Loop

LLM-in-the-Loop

When discussing the production use of LLM-based agents for business-critical systems, there is often talk about adding a “human-in-the-loop.” But the human is already in the loop. People have always done things for themselves.