2020年以来大模型发展历程 原图定位 Open AI 领投的人形机器人公司 1X Technologies AI 副总裁 Eric Jang 在《我们如何让机器人更像生成模型?》中提到,机器人相比生成式模型发展相对落后的原因在于大多数研究者仍在使用相对落后的 ResNet18 深度学习架构,而非在生成模型的巨大的数据集上进行模型训练。但随着生成模型的迅速发展,Robot GPT 进程有望加快。2018 年 6 月,OpenAI 发布 GPT-1 模型,参数达 1.1 亿。同年11 月,GPT-2 模型发布,参数提升至 15 亿。2020 年 5 月,GPT-3 的 beta 版本推出,模型参数迅速提升至 1750 亿。随后大模型发展开始进入到百花齐放阶段。2021年 1月,谷歌推出 Switch Transformer,参数量达 1.6 万亿,是史上首个万亿级语言模型;同年 12 月,谷歌推出了 1.2 万亿参数的通用稀疏语言模型 GLaM。2022 年 5 月,Meta AI 发布超大规模语言模型-OPT-175B,是参数超过千亿级别的开放模型。2023 年 12 月,谷歌 Gemini 原生多模态大模型发布,模型分为 Ultra、Pro 和 Nano 三个规格,目前 Gemini Pro 模型已整合到 Google AI Studio 和 Vertex AI 中,可供企业在开发中使用。