欢迎光临
我们一直在努力

什么是现象级ip(深度长文|详解现象级ChatGPT发展历程、原理、技术架构详解和产业未来)

《价值重构:读懂工业互联网发展逻辑》已上线京东/当当

工业互联网浪潮来袭,你准备好了吗?

每一代gpt模型的参数量都爆炸式增长,堪称“越大越好”。2019年2月发布的gpt-2参数量为15亿,而2020年5月的gpt-3,参数量达到了1750亿。

还是有很多读者对于chatgpt充满期待(幻想?梦想),今天给大家分享技术层面的拆解,读完之后是否是会理性一点呢?enjoy~

文末推荐几篇直接采访chatgpt创始人视角的文章,共赏enjoy~

作者:陈巍博士,曾担任华为系自然语言处理(nlp)企业的首席科学家,文章首发于「先进ai技术深入解读」

去年12月1日,openai推出人工智能聊天原型chatgpt,再次赚足眼球,为ai界引发了类似aigc让艺术家失业的大讨论。

chatgpt 是一种专注于对话生成的语言模型。它能够根据用户的文本输入,产生相应的智能回答。

这个回答可以是简短的词语,也可以是长篇大论。其中gpt是generative pre-trained transformer(生成型预训练变换模型)的缩写。

通过学习大量现成文本和对话集合(例如wiki),chatgpt能够像人类那样即时对话,流畅的回答各种问题。(当然回答速度比人还是慢一些)无论是英文还是其他语言(例如中文、韩语等),从回答历史问题,到写故事,甚至是撰写商业计划书和行业分析,“几乎”无所不能。甚至有程序员贴出了chatgpt进行程序修改的对话。

chatgpt和aigc的联合使用

chatgpt也可以与其他aigc模型联合使用,获得更加炫酷实用的功能。

例如上面通过对话生成客厅设计图。这极大加强了ai应用与客户对话的能力,使我们看到了ai大规模落地的曙光。

一、chatgpt的传承与特点

▌1.1 openai家族

我们首先了解下openai是哪路大神。

openai总部位于旧金山,由特斯拉的马斯克、sam altman及其他投资者在2015年共同创立,目标是开发造福全人类的ai技术。而马斯克则在2018年时因公司发展方向分歧而离开。

此前,openai 因推出 gpt系列自然语言处理模型而闻名。从2018年起,openai就开始发布生成式预训练语言模型gpt(generative pre-trained transformer),可用于生成文章、代码、机器翻译、问答等各类内容。

每一代gpt模型的参数量都爆炸式增长,堪称“越大越好”。2019年2月发布的gpt-2参数量为15亿,而2020年5月的gpt-3,参数量达到了1750亿。

gpt家族主要模型对比

1.2 chatgpt的主要特点

chatgpt 是基于gpt-3.5(generative pre-trained transformer 3.5)架构开发的对话ai模型,是instructgpt 的兄弟模型。

chatgpt很可能是openai 在gpt-4 正式推出之前的演练,或用于收集大量对话数据。

chatgpt的主要特点

openai使用 rlhf(reinforcement learning from human feedbac,人类反馈强化学习) 技术对 chatgpt 进行了训练,且加入了更多人工监督进行微调。

此外,chatgpt 还具有以下特征:

1)可以主动承认自身错误。若用户指出其错误,模型会听取意见并优化答案。

2)chatgpt 可以质疑不正确的问题。例如被询问 “哥伦布 2015 年来到美国的情景” 的问题时,机器人会说明哥伦布不属于这一时代并调整输出结果。

3)chatgpt 可以承认自身的无知,承认对专业技术的不了解。

4)支持连续多轮对话。

与大家在生活中用到的各类智能音箱和“人工智障“不同,chatgpt在对话过程中会记忆先前使用者的对话讯息,即上下文理解,以回答某些假设性的问题。

chatgpt可实现连续对话,极大的提升了对话交互模式下的用户体验。

对于准确翻译来说(尤其是中文与人名音译),chatgpt离完美还有一段距离,不过在文字流畅度以及辨别特定人名来说,与其他网络翻译工具相近。

由于 chatgpt是一个大型语言模型,目前还并不具备网络搜索功能,因此它只能基于2021年所拥有的数据集进行回答。

例如它不知道2022年世界杯的情况,也不会像苹果的siri那样回答今天天气如何、或帮你搜索信息。如果chatgpt能上网自己寻找学习语料和搜索知识,估计又会有更大的突破。

即便学习的知识有限,chatgpt 还是能回答脑洞大开的人类的许多奇葩问题。为了避免chatgpt染上恶习, chatgpt 通过算法屏蔽,减少有害和欺骗性的训练输入。

查询通过适度 api 进行过滤,并驳回潜在的种族主义或性别歧视提示。

二、chatgpt/gpt的原理

2.1 nlp

nlp/nlu领域已知局限包括对重复文本、对高度专业的主题的误解,以及对上下文短语的误解。

对于人类或ai,通常需接受多年的训练才能正常对话。

nlp类模型不仅要理解单词的含义,还要理解如何造句和给出上下文有意义的回答,甚至使用合适的俚语和专业词汇。

nlp技术的应用领域

本质上,作为chatgpt基础的gpt-3或gpt-3.5 是一个超大的统计语言模型或顺序文本预测模型。

2.2 gpt v.s. bert

与bert模型类似,chatgpt或gpt-3.5都是根据输入语句,根据语言/语料概率来自动生成回答的每一个字(词语)。

从数学或从机器学习的角度来看,语言模型是对词语序列的概率相关性分布的建模,即利用已经说过的语句(语句可以视为数学中的向量)作为输入条件,预测下一个时刻不同语句甚至语言集合出现的概率分布。

chatgpt 使用来自人类反馈的强化学习进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果。

在训练过程中,人类训练者扮演着用户和人工智能助手的角色,并通过近端策略优化算法进行微调。

由于chatgpt更强的性能和海量参数,它包含了更多的主题的数据,能够处理更多小众主题。

chatgpt现在可以进一步处理回答问题、撰写文章、文本摘要、语言翻译和生成计算机代码等任务。

bert与gpt的技术架构(图中en为输入的每个字,tn为输出回答的每个字)

三、chatgpt的技术架构

3.1 gpt家族的演进

说到chatgpt,就不得不提到gpt家族。

chatgpt之前有几个知名的兄弟,包括gpt-1、gpt-2和gpt-3。这几个兄弟一个比一个个头大,chatgpt与gpt-3更为相近。

chatgpt与gpt 1-3的技术对比

gpt家族与bert模型都是知名的nlp模型,都基于transformer技术。gpt-1只有12个transformer层,而到了gpt-3,则增加到96层。

3.2 人类反馈强化学习

instructgpt/gpt3.5(chatgpt的前身)与gpt-3的主要区别在于,新加入了被称为rlhf(reinforcement learning from human feedback,人类反馈强化学习)。

这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。

在instructgpt中,以下是“goodness of sentences”的评价标准。

真实性:是虚假信息还是误导性信息?

无害性:它是否对人或环境造成身体或精神上的伤害?

有用性:它是否解决了用户的任务?

3.3 tamer框架

这里不得不提到tamer(training an agent manually via evaluative reinforcement,评估式强化人工训练代理)这个框架。

该框架将人类标记者引入到agents的学习循环中,可以通过人类向agents提供奖励反馈(即指导agents进行训练),从而快速达到训练任务目标。

引入人类标记者的主要目的是加快训练速度。尽管强化学习技术在很多领域有突出表现,但是仍然存在着许多不足,例如训练收敛速度慢,训练成本高等特点。

特别是现实世界中,许多任务的探索成本或数据获取成本很高。如何加快训练效率,是如今强化学习任务待解决的重要问题之一。

而tamer则可以将人类标记者的知识,以奖励信反馈的形式训练agent,加快其快速收敛。

tamer不需要标记者具有专业知识或编程技术,语料成本更低。通过tamer+rl(强化学习),借助人类标记者的反馈,能够增强从马尔可夫决策过程(mdp) 奖励进行强化学习 (rl) 的过程。

tamer架构在强化学习中的应用

具体实现上,人类标记者扮演对话的用户和人工智能助手,提供对话样本,让模型生成一些回复,然后标记者会对回复选项打分排名,将更好的结果反馈回模型中。

agents同时从两种反馈模式中学习——人类强化和马尔可夫决策过程奖励作为一个整合的系统,通过奖励策略对模型进行微调并持续迭代。

在此基础上,chatgpt 可以比 gpt-3 更好的理解和完成人类语言或指令,模仿人类,提供连贯的有逻辑的文本信息的能力。

3.4 chatgpt的训练

chatgpt的训练过程分为以下三个阶段:

第一阶段:训练监督策略模型

gpt 3.5本身很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。

为了让gpt 3.5初步具备理解指令的意图,首先会在数据集中随机抽取问题,由人类标注人员,给出高质量答案,然后用这些人工标注好的数据来微调 gpt-3.5模型(获得sft模型, supervised fine-tuning)。

此时的sft模型在遵循指令/对话方面已经优于 gpt-3,但不一定符合人类偏好。

chatgpt模型的训练过程

第二阶段:训练奖励模型(reward mode,rm)

这个阶段的主要是通过人工标注训练数据(约33k个数据),来训练回报模型。

在数据集中随机抽取问题,使用第一阶段生成的模型,对于每个问题,生成多个不同的回答。人类标注者对这些结果综合考虑给出排名顺序。这一过程类似于教练或老师辅导。

接下来,使用这个排序结果数据来训练奖励模型。对多个排序结果,两两组合,形成多个训练数据对。

rm模型接受一个输入,给出评价回答质量的分数。这样,对于一对训练数据,调节参数使得高质量回答的打分比低质量的打分要高。

第三阶段:采用ppo(proximal policy optimization,近端策略优化)强化学习来优化策略。

ppo的核心思路在于将policy gradient中on-policy的训练过程转化为off-policy,即将在线学习转化为离线学习,这个转化过程被称之为importance sampling。

这一阶段利用第二阶段训练好的奖励模型,靠奖励打分来更新预训练模型参数。在数据集中随机抽取问题,使用ppo模型生成回答,并用上一阶段训练好的rm模型给出质量分数。

把回报分数依次传递,由此产生策略梯度,通过强化学习的方式以更新ppo模型参数。

如果我们不断重复第二和第三阶段,通过迭代,会训练出更高质量的chatgpt模型。

四、chatgpt的局限

只要用户输入问题,chatgpt 就能给予回答,是否意味着我们不用再拿关键词去喂 google或百度,就能立即获得想要的答案呢?

尽管chatgpt表现出出色的上下文对话能力甚至编程能力,完成了大众对人机对话机器人(chatbot)从“人工智障”到“有趣”的印象改观,我们也要看到,chatgpt技术仍然有一些局限性,还在不断的进步。

1)chatgpt在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。chatgpt在很多领域可以“创造答案”,但当用户寻求正确答案时,chatgpt也有可能给出有误导的回答。例如让chatgpt做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案却是错误的。

那我们是该相信chatgpt的结果还是不相信呢?

chatgpt给出错误的数学题答案

2)chatgpt无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,chatgpt可能无法生成适当的回答。

3)chatgpt需要非常大量的算力(芯片)来支持其训练和部署。抛开需要大量语料数据训练模型不说,在目前,chatgpt在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。,如果面向真实搜索引擎的数以亿记的用户请求,如采取目前通行的免费策略,任何企业都难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或更高性价比的算力平台。

4)chatgpt还没法在线的把新知识纳入其中,而出现一些新知识就去重新预训练gpt模型也是不现实的,无论是训练时间或训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。

5)chatgpt仍然是黑盒模型。目前还未能对chatgpt的内在算法逻辑进行分解,因此并不能保证chatgpt不会产生攻击甚至伤害用户的表述。

当然,瑕不掩瑜,有工程师贴出了要求chatgpt写verilog代码(芯片设计代码)的对话。可以看出chatgpt水平已经超出一些verilog初学者了。

五、chatgpt的未来改进方向

5.1 减少人类反馈的rlaif

2020年底,openai前研究副总裁dario amodei带着10名员工创办了一个人工智能公司anthropic。

anthropic 的创始团队成员,大多为 openai 的早期及核心员工,参与过openai的gpt-3、多模态神经元、人类偏好的强化学习等。

2022年12月,anthropic再次发表论文《constitutional ai: harmlessness from ai feedback》介绍人工智能模型claude。(http://arxiv.org/pdf/2212.0807

cai模型训练过程

claude 和 chatgpt 都依赖于强化学习(rl)来训练偏好(preference)模型。cai(constitutional ai)也是建立在rlhf的基础之上,不同之处在于,cai的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。

cai用人工智能反馈来代替人类对表达无害性的偏好,即rlaif,人工智能根据一套constitution原则来评价回复内容。

5.2 补足数理短板

chatgpt虽然对话能力强,但是在数理计算对话中容易出现一本正经胡说八道的情况。

计算机学家stephen wolfram 为这一问题提出了解决方案。stephen wolfram 创造了的 wolfram 语言和计算知识搜索引擎 wolfram | alpha,其后台通过mathematica实现。

chatgpt与wolfram | alpha结合处理梳理问题

在这一结合体系中,chatgpt 可以像人类使用 wolfram|alpha 一样,与 wolfram|alpha “对话”,wolfram|alpha 则会用其符号翻译能力将从 chatgpt 获得的自然语言表达“翻译”为对应的符号化计算语言。

在过去,学术界在 chatgpt 使用的这类 “统计方法” 和 wolfram|alpha 的 “符号方法” 上一直存在路线分歧。

但如今 chatgpt 和 wolfram|alpha 的互补,给nlp领域提供了更上一层楼的可能。

chatgpt 不必生成这样的代码,只需生成常规自然语言,然后使用 wolfram|alpha 翻译成精确的 wolfram language,再由底层的mathematica进行计算。

5.3 chatgpt的小型化

虽然chatgpt很强大,但其模型大小和使用成本也让很多人望而却步。

有三类模型压缩(model compression)可以降低模型的大小和成本。

第一种方法是量化(quantization),即降低单个权重的数值表示的精度。比如tansformer从fp32降到int8对其精度影响不大。

第二种模型压缩方法是剪枝(pruning),即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件如权重矩阵的通道。这种方法在视觉和较小规模的语言模型中有效。

第三种模型压缩方法是稀疏化。例如奥地利科学技术研究所 (ista)提出的sparsegpt (http://arxiv.org/pdf/2301.0077)可以将 gpt 系列模型单次剪枝到 50% 的稀疏性,而无需任何重新训练。对 gpt-175b 模型,只需要使用单个 gpu 在几个小时内就能实现这种剪枝。

sparsegpt 压缩流程

六、chatgpt的产业未来与投资机会

6.1 aigc

说到chagpt不得不提aigc。

aigc即利用人工智能技术来生成内容。与此前web1.0、web2.0时代的ugc(用户生产内容)和pgc(专业生产内容)相比,代表人工智能构思内容的aigc,是新一轮内容生产方式变革,而且aigc内容在web3.0时代也将出现指数级增长。

chatgpt 模型的出现对于文字/语音模态的 aigc 应用具有重要意义,会对ai产业上下游产生重大影响。

6.2 受益场景

从下游相关受益应用来看,包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。

从上游增加需求来看,包括算力芯片、数据标注、自然语言处理(nlp)等。

大模型呈爆发态势(更多的参数/更大的算力芯片需求)

随着算法技术和算力技术的不断进步,chatgpt也会进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。

最后,作者问存算一体技术在chatgpt领域的地位(作者本人目前在重点推进存算一体芯片的产品落地),chatgpt想了想,大胆的预言存算一体技术将在chatgpt芯片中占据主导地位。(深得我心

参考文献:

chatgpt: optimizing language models for dialoguechatgpt: optimizing language models for dialogue

gpt论文:language models are few-shot learners language models are few-shot learners

instructgpt论文:training language models to follow instructions with human feedback training language models to follow instructions with human feedback

huggingface解读rhlf算法:illustrating reinforcement learning from human feedback (rlhf) illustrating reinforcement learning from human feedback (rlhf)

rhlf算法论文:augmenting reinforcement learning with human feedbackhttp://cs.utexas.edu/~ai-lab/p

tamer框架论文:interactively shaping agents via human reinforcementhttp://cs.utexas.edu/~bradknox

ppo算法:proximal policy optimization algorithms proximal policy optimization algorithms

原文链接:https://zhuanlan.zhihu.com/p/590655677

延伸阅读:chatgpt在工业中有哪些应用场景?现场问chatgpt

月活破亿、火爆全网的chatgpt是什么?在工业里能做什么->

独家专访openai创始人:chatgpt及通用人工智能将如何打破资本主义?

独家专访|谷歌推出bard,比尔·盖茨再谈chatgpt

openai联合创始人:什么是研究中至关重要的

chatgpt的爆火,重看颠覆式创新

添加微信,咨询报名。

京东/当当/淘宝/拼多多等有售,

纵览图书内容请点击 一图读懂精华

赞(4)
未经允许不得转载:梦马网络 » 什么是现象级ip(深度长文|详解现象级ChatGPT发展历程、原理、技术架构详解和产业未来)
分享到

评论 抢沙发

登录

找回密码

注册