图表30.大模型参数与训练数据规模呈正相关 原图定位 打造 Robot GPT 的关键是解决数据稀缺问题。Robot GPT 的泛化能力与 LLM 大模型的赝本数量直接相关。根据《PaLM-E: An Embodied Multimodal Language Model》,谷歌 PaLM-E 62B 的 LLM 相对于 8B 的 LLM 体现了更好的 out-of-distribution 泛化性,LLM 数据量的提升显著增强了 RObot GPT泛化性。目前通过大模型的涌现能力和思维链能力,可以使部分任务零样本学习到,但 Voxposer 机器人还是局限在桌面上进行操作,如果要实现更广阔空间的扩展,仍需要高质量数据做支撑。