Google 深耕 AI 技术多年,为大模型领域奠基者。早在 2017 年,Google 就已经把发展战略从 Mobile First 转变为 AI First。同年 Google 发布 NLP 模型 Transformer,该模型通过引入 Self-Attention 机制,利用注意力机制来提高模型训练速度,使得模型可以并行化训练,这也为后续大语言模型的升级迭代奠定了基础。2018 年,Google 发布大规模预训练模型 BERT,可以进行双向预测,该模型进一步提升了自然语言理解及处理的精度。2022年,Google 推出模型 PaLM,该模型在语言理解、逻辑推理、代码生成等方面均实现了出色表现。2023 年以来,Google 先后推出 PaLM2 及 Gemini,模型能力进一步提升。
Google 深耕 AI 技术多年,为大模型领域奠基者。早在 2017 年,Google 就已经把发展战略从 Mobile First 转变为 AI First。同年 Google 发布 NLP 模型 Transformer,该模型通过引入 Self-Attention 机制,利用注意力机制来提高模型训练速度,使得模型可以并行化训练,这也为后续大语言模型的升级迭代奠定了基础。2018 年,Google 发布大规模预训练模型 BERT,可以进行双向预测,该模型进一步提升了自然语言理解及处理的精度。2022年,Google 推出模型 PaLM,该模型在语言理解、逻辑推理、代码生成等方面均实现了出色表现。2023 年以来,Google 先后推出 PaLM2 及 Gemini,模型能力进一步提升。