LLMs have no grounded understanding of the physical world. They model the statistical distribution of language about reality, not reality itself.
大多数人认为大型语言模型通过学习物理世界的知识来理解现实,但作者认为LLMs实际上只是学习了关于现实的文本统计分布,而非对现实本身的直接理解。这一观点挑战了人们对LLM能力本质的认知,暗示当前AI系统存在根本性的理解缺陷。