AI智慧秀 大模型边推理边纠错,有可能做到吗?这是ICML爆火的演讲 即便是最强大的语言模型(LLM),仍会偶尔出现推理错误。除了通过提示词让模型进行不太可靠的多轮自我纠错外,有没有更系统的方法解决这一问题呢?