LLM - ChatGPT
Timeline
- OpenAI 在
NLP
领域取得了突破性进展 - ChatGPT 背后包含了一系列的资源整合 - 技术、资源、大厂背书、国际巨头的通力合作 - 工程 + 产品
NLP
Transformer
基于 Transformer 架构的
语言模型
大体可分为两类
- 以
BERT
为代表的掩码语言模型 -Masked Language Model
- MLM - 以
GPT
为代表的自回归语言模型 -Autoregressive Language Mode
- ALM
OpenAI
- 创造造福全人类的安全通用人工智能 -
Artificial general intelligence
- AGI - 创立之初就摒弃了传统 AI
模型标注
式的训练方式- 可用来标注的数据总是
有限
的,而且很难做得非常通用
- 可用来标注的数据总是
Autoregressive
基于
自回归
的无监督
训练
- BERT 由 Google 发布,非常权威,GPT 早期压力巨大 -
GPT-2
引入了zero-shot
- 按照人类语言的习惯,语言本身是有
先后顺序
的,下文依赖上文- 自回归语言模型代表了标准的语言模型 -
利用上文信息预测下文
- 比传统 AI 预测
更加复杂
,但上限更高
,有望通向AGI
- 自回归语言模型代表了标准的语言模型 -
- 在 GPT-1 和 GPT-2 的探索中没有取得压倒性的效果
- 但验证了
标准语言模型
在zero-shot
等当面的潜在能力
- 但验证了
无监督自回归
的训练方式,使 GPT 模型可以接受大量文本数据
- GPT-3 的参数规模为
1750 亿
,使用了大约45 TB
的文本数据,一次训练费用为460 万美元
- GPT-3 的参数规模为
- GPT-3 还不具备直接和人类对话的能力,而
ChatGPT
所使用的模型为GPT-3.5
Alignment
与人类意识对齐
- GPT-3 和 GPT-3.5 是不同的系列
GPT-3
经过充分训练
,但依然不是一个适合与人类进行对话的模型- 从 GPT-3 到 GPT-3.5 再到 InstructGPT 和 ChatGPT,
参数规模
并没有太大变化,主要是经历了各种技术的微调
- 适配
人类
场景 - RLHF - Reinforcement Learning From Human Feedback
- 适配
Emergent Ability
突现能力
- 大语言模型展现出来的特有的强大能力 - 复杂推理 + 思维链 - NLP 领域所追求
1 | 问题:小明每天早饭吃2个馒头,他一个月会吃掉多少包馒头? |
- 语言和数学混在一起,在早期
GPT-3
模型上进行类型的推理
,准确率低于40%
- 后来在
code-davinci-002
上进行推理,准确率能达到80%
code-davinci-002
在模型规模
上并没有扩大,而是基于代码进行训练
的- 这些突现能力是大模型经过
大量代码训练
后展现出来的能力 代码训练
和思维链及复杂推理
有很强的相关性 - 暂无确定证据
小结
- 模型
并非越大越好
- GPT-3 的参数规模为 1750 亿
- 微软与英伟达联合开发的 Megatron-Turing 模型拥有超过 5000 个参数
- 但在性能方面却不是最好的,因为模型未经过充分训练
RLHF
并不是最早用在 GPT 上,而且在恰当的时机
用到了 ChatGPT 上- 只有 codex 使用了大量代码进行训练
自回归
语言模型 + 充分无监督
训练 + 大量代码
训练 + 有监督指令微调
+RLHF
超大规模预训练
超过 40T 的文本数据,
大模型训练
首先需要高质量的数据集
数据集
GPT-3
基础模型 GPT-3 具有
1750
亿个参数,训练数据集大约500B
个 Token
原始大约 45T 的纯文本数据,经过
过滤
后,大概是 750G 的高质量
文本数据
ChatGPT
- ChatGPT 属于 GPT-3.5 系列
- 大概率上,ChatGPT 的参数规模要
小于
GPT-3,其训练数据基于大量对话型数据
进行指令微调- 典型数据集 - Persona-Chat 的数据集、康奈尔电影对话语料库、Ubuntu 对话语料库、DailyDialog
- 互联网上大量
非结构化
数据的训练 - 网站、书籍、其它文本源- ChatGPT 能够从更一般的意义上了解语言的
结构
和模式
,然后可以针对对话管理或者情感分析等特定应用进行微调
- ChatGPT 能够从更一般的意义上了解语言的
训练成本
- GPT-3 的单次训练成本高达 460 万美元,为了
找钱
,OpenAI 从开源转为了闭源
- 早期的 OpenAI 是开源的,创办宗旨为创建
通用人工智能
- 为了引入资金,OpenAI 从开源转为闭源,设计了一种
商业模式
来吸引投资人,最主要为微软
- OpenAI 的母公司为
OpenAI Inc
- 为非营利性组织
- 后来成立一家子公司,
OpenAI LP
,即常说的OpenAI
- 为一家纯粹的商业化公司
,设置了最高100
倍的回报上限
产品化
- ChatGPT 在真正
产品化
后愿意公开免费
给普通用户使用 - 大部分的 AI 厂家只
发布模型
,技术人员去Huggingface
下载然后部署,但这样会将模型限制在一个非常小的范围
- ChatGPT 发布的是
普通大众用户
都可以使用的产品(使用门槛非常低) - 邮箱注册 + 全天候不限时 + 网页对话
优点
- 适用场景多
- 代码编写、代码翻译、智能问答、语言识别等
- 使用效果好
- 微软小冰由
小模型
组成,只能同时处理特定类型
的任务,无法相互关联
,此类产品无法做通用性回答
- ChatGPT 像
真人
在回答,甚至有记忆
和感情
- 微软小冰由
- 工程化应用
- ChatGPT 是以
大模型为内核
的整套技术完成了产品化
- 两个月注册用户过亿的世界级产品
- ChatGPT 是以
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.