图2“书生”相较于同期最强开源模型CLIP在准确率和数据使用效率上均取得大幅提升 原图定位 而且,中国的超大模型并不落后于国外同类产品,在某些领域还能实现反超。以商汤科技的书生(INTERN)为例,书生(INTERN)在分类、目标检测、语义分割、深度估计四大任务 26 个数据集上,基于同样下游场景数据(10%),相较于同期OpenAI 发布的最强开源模型 CLIP-R50x16,平均错误率降低了 40.2%,47.3%,34.8%,9.4%。同时,书生只需要 10%的下游数据,平均错误率就能全面低于完整(100%)下游数据训练的 CLIP。