
与传统AI仅能处理单一任务相比,大模型技术通过其庞大的参数规模、强大的泛化能力以及对多模态数据的支持,展现出类似人类的通用智能“涌现”能力,能够学习多个领域知识、处理多种数据和任务。
OpenAI提出的“规模定律”(Scaling Law)驱动了大模型的快速发展,即:模型的性能与模型的规模、数据集大小和训练用的计算量之间存在幂律关系,性能会随着这三个因素的指数增加而线性提高,通俗而言就是“大力出奇迹”。传统AI模型参数量通常在数万至数亿之间,大模型的参数量则至少在亿级,并已发展到过万亿级的规模。