什么是大语言模型数据集 (什么是大语言模型(LLM)?)

admin 2024-11-19 47 0

本文目录导航:

什么是大语言模型数据集?

大模型是指具有大规模参数和复杂计算结构的机器学习模型,通常由深度神经网络构建而成,包含数十亿甚至数千亿个参数,模型大小可以达到数百GB甚至更大。

这种巨大的模型规模为其提供了强大的表达能力和学习能力,使其能够处理更加复杂的任务和数据。

什么是大语言模型数据集 (什么是大语言模型(LLM)?)

大模型一般会通过多任务学习来增强泛化能力,可以同时学习多种不同的自然语言处理任务,如机器翻译、文本摘要、问答系统等。

当前,国内AI大模型发展仍面临诸多困境。

其中,较为突出的就是高质量数据集的匮乏,这极大阻碍了大模型效果提升。

特别是专业的行业应用数据集,其获取难度更大,这导致大模型可使用的数据量受到限制,进而对大模型效果形成阻碍。

景联文科技是大语言模型数据供应商,致力于为不同阶段的模型算法匹配高质量数据资源。

世界知识类书籍、期刊、论文及高价值社区文本数据:

l 中文书籍 250万本

l 高质量外文文献期刊 8500万篇

l 英文高质量电子书 200万本

教育题库:

l 千12教育题库 1800万

l 大学题库 1.1亿,800万带解析

l 英文题库 500万

专业知识类期刊、专利、代码:

l 中文数字专利 4000万

l 程序代码(代码注释) 20万

多轮对话:

l 文本多轮对话 1500万

l 中英文剧本(电影、电视剧、剧本杀) 6万

音频数据:

l 普通话 65万小时

图片生成及隐式/显示推理多模态数据:

l 图文复杂描述 600万

l 图文推理问答对 600万

生物数据:

l 核酸库 4000万

l 蛋白库 50万

l 蛋白结构库 19万

l 通路库 1000万

l 生信工具

药学数据:

l 药物研发数据库 1300万

l 全球上市数据库 80万

l 一致性评价数据库 25万

l 生产检验数据库 40万

l 合理用药 300万

l 多维文献 1亿

l 原料药数据库 1100万

化学数据:

l 化合物数据库 1.6亿

l 反应信息数据库 4100万

l 物化性质数据库 1.6亿

l 谱图数据库 20万

l 晶体信息数据库 100万

l 安全信息数据库 180万

l 商品信息数据库 740万

材料数据:

l 金属材料数据 20万

l 纳米材料数据 30万

l 相图数据 6万

l 材料性能数据 20万

l 材料腐蚀数据

l 表面处理数据

l 焊接材料数据

专利数据:

l 全球专利基础著录数据 1.3亿

l 全球专利原文数据 1亿

l 全球专利附图数据

l 全球专利法律状态数据

l 全球专利法律状态数据

l 全球专利引文数据

l 全球专利分类索引数据

l 全球专利重点申请人工商关联数据

l 全球生化医药专利深加工数据

l 全球专利全文数据

医疗器械数据:

l 国内政策法规数据 3千

l 行业标准数据

l 中国医疗器械审评数据 20万

l 中国医械临床试验数据 5千

l 全球医械临床试验数据 7万

l 医用耗材中标数据 1400万

l 医用耗材带量采购数据 400万

l 医用设备招投标数据38万

同时景联文科技提供大模型训练数据的标注服务,致力于为全球数千家人工智能从业公司和高校科研机构交付海量、高质量的多模态大模型训练数据。

详情可咨询我们官网~网页链接

大型语言模型(LLM)训练指南🚀

近年来,大型语言模型的训练规模日益增长,以悟道 2.0 模型为例,其参数量达到 1.75T,是 GPT-3 的 10 倍。

然而,对于如何高效训练大型语言模型的信息却相对较少。

本文将整理出简单的训练指南,以助于深入了解这一过程。

以 BLOOM-175B 的训练为例,本文将分阶段介绍训练过程中的关键要素。

首先,硬件设施的选择至关重要。

BLOOM 的训练采用了一套硬件配置,具体细节可参考相关文档。

其次,模型训练涉及多个并行技术,包括数据并行、张量并行以及管道并行等。

在数据并行中,模型被复制到多个 GPU 上,并在每次迭代后同步状态。

通过在 N 台机器上复制模型,数据拆分以减少每台机器的工作量,并提高训练速度,前提是模型能够适应单个 GPU。

对于大规模模型,ZeRO 数据并行技术尤为有效,它通过优化器状态、梯度和参数的划分,显著减少显存冗余,使集群显存容量得到充分利用。

此技术在训练万亿参数模型时,仅需约 16GB 内存,大幅降低了内存需求。

张量并行则关注于权重矩阵的分割,以实现跨 GPU 的并行计算。

通过 Megatron-LM 论文中的实现,大型模型的并行计算得以高效进行,尤其是在 Transformer 架构中。

管道并行则通过将模型层分布在多个 GPU 上,实现数据的高效传输和计算,有效解决了 GPU 闲置问题。

通过调整超参数,如块大小,以实现 GPU 利用的最大化,从而减少通信开销。

将数据并行、张量并行和管道并行结合,形成 3D 并行,即在硬件层面实现三维的并行化,以达到更高的训练效率。

NCCL 库提供了高性能的多 GPU 通信支持,通过优化多 GPU 间的集体通信,如广播、聚合等操作,显著提升了训练速度。

在实际应用中,大型语言模型训练面临着 FP16 的局限性,特别是数值稳定性和精度问题。

BF16 格式被引入以解决这些挑战,它具有与 FP32 相同的指数位,能够避免溢出问题,同时保持较高的计算效率。

BF16Optimizer 的使用确保了在管道并行训练中的梯度累积能够保持精确性,从而实现高效的混合精度训练。

综上所述,本文整理了大型语言模型训练的关键步骤和策略,包括硬件设施的选择、并行技术的应用、通信库的优化等,为训练大规模模型提供了实用的指南。

通过采用这些方法,可以有效提高训练效率,降低资源消耗,实现高效、稳定的大型语言模型训练过程。

4个大语言模型训练中的典型开源数据集

随着统计机器学习和自然语言处理算法的发展,大量开源数据集被构建用于大语言模型训练。

本文将介绍几个典型的大语言模型训练开源数据集。

一、Pile 数据集Pile 数据集由22个高质量子集构成,包括Common Crawl、Wikipedia、OpenWebText等。

这些子集包含了多样化的文本,涵盖了不同领域和主题,提高训练数据集的多样性和丰富性。

Pile 数据集总大小约为825GB英文文本。

二、ROOTS 数据集ROOTS 数据集是BigScience项目在训练BLOOM大语言模型时使用的数据集合。

包含46种自然语言和13种编程语言,总计59种语言,整体数据集大小约1.6TB。

三、RefinedWeb 数据集RefinedWeb 数据集由位于阿布扎比的技术创新研究院在开发Falcon大语言模型时同步开源。

主要由从CommonCrawl数据集过滤的高质量数据组成,总数据量超过1PB。

四、SlimPajama 数据集SlimPajama 数据集由CerebrasAI公司针对RedPajama进行清洗和去重后得到。

原始RedPajama包含1.21万亿词元,经过处理后的SlimPajama数据集包含6270亿词元。

以上就是对四个典型大语言模型训练开源数据集的介绍。

评论(0)