Skip to content

ChatGPT真的那么强吗?解读背后的技术路线、差距与一些思考【白呀白Talk】

大家早上好

AI绘画的浪潮还没有散去

AIGC最近又快速的迎来出圈

异常火爆

在过去一两个月

OpenAI旗下的聊天机器人ChatGPT

可谓是风头正盛

不同于过去的机器人助手

它不仅能像真人一样聊天

回复的内容更加随机

并且能够总体保持

信息的专业性和参考性

随着人们的使用

借助其高质量的性息获取方式

大家发现

它不仅能够编写出像样的程序

检查出代码的bug

还能帮助学生写出不错的论文

甚至能够通过从医资格

律师资格的考试

这些延展能力

让人们“惊掉了下巴”

就连马斯克也忍不住表示

认为ChatGPT

离我们人类危险而强大的AI不远了

OpenAI的市值更是一度

突破了200亿美元

另一方面

我也关注到

随着ChatGPT的备受追捧

在我们国内业内

也引发了强烈而又广泛的震动

有百度的人士表示

他不愿多谈ChatGPT

言语之间

五味杂陈

有国内某厂表示

ChatGPT从回答的逻辑性和完整性上

都远超国内的大模型

国内大模型的答案带有明显的拼凑感

更多的

我关注的一些人工智能领域的专家

他们纷纷表示

如今ChatGPT所展示的能力

让他们寝食难安

难以入眠

那么今天这期视频

我们就来聊聊

我们应该如何看待

OpenAI的ChatGPT呢

ChatGPT到底厉害在哪里呢

对于我们来说

又有什么启发意义呢

首先我们要理解一项技术的应用能力

包括未来的具体商业价值

我们就一定要

自己去深入认真的去了解

其背后的技术原理

由于ChatGPT的论文还没有发布

我们还无法直接了解其背后的方法论

不过在OpenAI的官网

我们还是可以找到一些蛛丝马迹

里面提到ChatGPT和InstructGPT

所使用的方法和原理大体上是相同的

只是在数据的收集方式有所不同

而ChatGPT也是在基于

InstructGPT和GPT-3.5上

微调得来的

那么简单的说

InstructGPT就是ChatGPT的兄弟

那么正好

InstructGPT这篇论文

其实去年就发布了

我在这个周末

认认真真的读了两遍

我和大家大致介绍一下

ChatGPT的技术原理

纵观全文

导读中的这张图

其实就很好的说明了

ChatGPT的训练方式

首先是第一步

OpenAI找了一些人

文章说的是40多个外部团队

首先他们会写出一些各种各样的问题

有点类似于6岁小孩的“十万个为什么”

然后继续让人来写出答案

有了问题和答案之后

会在这上面会做一些fine-tuning

中文叫做监督学习下的指令微调

这个模型被叫做SFT

这里的步骤

有点类似于我们日常使用的

百度百科 维基百科 悟空问答的形式

我们会发现

撰写这些问题

筛选准确的答案

其实有着非常高的

筛选成本和管理成本

为了解决这个问题

然后到了第二步

这里InstructGPT

做了一件什么事情呢

首先它会根据具体的问题

生成一些随机答案

比如说 A B C D

让后它会通过这四个答案

让人们来进行排序

排序后的对比数据

继续RM训练

也就是奖励模型

计量模型会用于预测人类偏好的输出

最后第三步

根据生成好的标量奖励

结合前面生成好的SFT模型

再不断地更新梯度

形成正向迭代

从InstructGPT核心的强化学习函数模型中

其实也可以非常清楚的看出

其中这部分的是学习的RL策略

SFT是监督训练模型

Dpretrain是GPT3的训练分布

而其中每一次“x”的更新

“y”也会更新

再在加上原始的预训练函数

形成新的强化学习反馈

思路特点非常清晰

那么接下来

我就不和大家介绍

文章中使用的实验数据和方法论了

有兴趣的朋友

可以自己下载原文去学习一下

那么ChatGPT

到底牛在什么地方呢

我这里

简单和大家总结归纳一下

首先第一点

ChatGPT解决了过去AI领域

“大力难出奇迹大力”这样一个困局

在过去深度学习NLP领域

随着模型的增加

往往需要依靠

大量的训练数据来做支撑

但是随着数据量的增加

人们又发现

杂讯也会增多

提取有效数据内容和知识的难度

也会呈一个指数级的增加

而ChatGPT的方法论

其实就是提供了一个目前

解决这个矛盾一个非常有效的思路

然后第二点

随着ChatGPT

等大型语言模型(LLM)的成功

其实也标志着

各类模型有大一统的趋势

它让很多 NLP 的子领域

天然的失去了其存在的意义

包括机器翻译 文本归纳 QA问答

甚至是网页搜索等很多方面

我们可以想象

超大规模加上多样性的数据

以及充分的训练过程

这些领域完全可以无缝切换到

预训练+可监督微调

InstructGPT框架下

而事实上

语音翻译 知识问答 搜索引擎

单个宁出来

其背后都是百亿千亿级别的公司

第三点

我个人认为也是最主要的一点

说实话

目前我们担心的不是

ChatGPT 4.0 5.0 甚至6.0

而是一种趋势一种方法的深层次担忧

通过网上很多实例我们可以看到

ChatGPT确实是一个很实用的技术

特别是在一些专业领域

特别是在一些有专业人士

不断提问不断标记的情况下

它训练的精度准确性

还是非常恐怖的

这种担忧是切切实实的

比如说我表弟是做神经外科的医生

过年期间

我就和他讨论过AI诊断的话题

他明确的告诉我

在临床决策和诊断速度方面

机器目前已经有了无法比拟的优势

包括现在围棋项目

据我了解

现在与AI练棋

学习AI的下棋方式

反而成为了围棋届的大趋势

况且医生围棋如此

在其实大部分的领域

未来产生质的变化

可能性是越来越大

说实话再过几年

大家的工作被机器人所取代

可以说

其实完全不用感到惊讶

接下来我们讨论一个严肃的话题

我们落后了吗

不得不承认

我们确实落后了

随着GPT-3.5的推出

其实也就代表着

我们离OpenAI Deepmind的差距

将会进一步拉大

中国人是喜欢自我反思的

落后了

就会进一步的思考自身的不足

并采取行动

我发现网上有两派论调

一派是极度悲观的

认为我们在大型语言模型方向上

完全不应该投入

中文英文有本质的区别

我们无法用英文代码

编写出中文版的ChatGPT

对于这个观点我是完全不同意的

觉得可气又可笑

这类观点在中文网络被广为流传

我觉得不可思议

实际上

对于机器来说

语言只是外壳

包括中文分词

词性标注

NER

句法分析

这些其实都是小问题

我们国内其实也有百亿级别的

中文巨型模型

包括华智的GLM

百度文心大模型

阿里m6大模型

华为盘古大模型等等

还是一些数码博主

提到了AI芯片卡脖子问题

让我们很难追赶OpenAI

实际上我们国内现在训练百亿

千亿(模型)的规模

在基础设施层面上

实际上已经不是什么大问题了

除了能效低一点

总体上还是可以应付的

并非语言

并非芯片

那么也随之又有另一派

极度乐观的观点

他们认为我们已经具备了

复刻成ChatGPT所有的条件

只要我们投入足够大量的资金

就能够在短时间内

做成一个开源版的

中文版的ChatGPT

这一派的观点

我也不是特别认同

首先我们要知道

ChatGPT的前期投入

是在几百亿的量级

即使是当下的OpenAI

依然在大量的烧钱

依然没有看到任何

商业化的可行路线

我们要知道腾讯

2022年的全年利润

也就322亿人民币

即便是是腾讯

说实话也很难立即投入

这样打这样完全看不到

商业化目标的上百亿项目

同时

过去我们很多项目

都是建立在开源的改进上

GPT-3之后

OpenAI所有的模型都没有开源

ChatGPT如何优化数据

如何去提高数据的质量

说实话我并没有看到

国内任何厂商了解得特别清楚

所以并不是适合

在没有搞清楚 How 的情况下

去To do

推大LLM的模型

这件事情看似没有什么技术含量

实际上这件事情并不是

“大力能出奇迹”的

对于技术团队的数据工程实现能力

要求非常高

那么我们应该怎么去看待ChatGPT

两个方面

一方面

我们不要神话它

现阶段的ChatGPT

并非无所不能

首先ChatGPT是基于巨大模型的

端到端深度学习解决方案

线上部署的反应时效和用户量

依然很难平衡

目前OpenAi推出了付费订阅

但我听说目前相应时间还是比较慢

商业化道路依然还有很长的路要走

其次目前的GPT-3.5

并不具备真正的推理能力

虽然ChatGPT看似

有类似人类的学习能力

但事实上对于回答背后的概念

对于诗词背后的情感

数学公式背后的原理

对于人类知识的提炼

它是没有一个具体概念的

说人话就是ChatCPT还是只是

“聊天工具”

还不是“思维工具”

我比较认同

最近南京大学周志华教授的观点

他认为

未来人工智能

除了“数据 算法 和算力”

三个要素

还需要加上“知识”

第四要素

其实ChatGPT也是在大数据角度

展现出了人类提取知识

到用人类语言精简优化表述的目标

而从根本上

从GPT-1.0到GPT-3.5

进化的是记忆和语言组织能力

OpenAI其实并没有实现

从无尽的人类知识海洋

到抽象推理本质上的演变

在可见的未来

在当下中美的大环境下

可以预判

可以看到未来LLM一定是我们

被“卡脖子”的重要领域

我们一点要提前做好准备

我认为

对于LLM的发展

我们一定要持有长期主义

而不是功利主义

目前我们一定要放弃

过去 “跟风-模仿-量产” 的做法

而是要去思考一些深层次的问题

所谓长期主义

就是要不断地投入

小步慢跑

局部突破

我们需要思考什么是真正的AI

什么是真正的知识的提取

什么是真正的知识的判断和推理

这才是本质

抓住本质

保有长期主义

注重人才注重科学积累

这样我们才有未来

总而言之

ChatGPT需要我们引起足够的关注

关注它 就是关注我们的未来

这也是我做这期视频的动力

这期视频比较长

看到这里的朋友

内心是非常感谢的

如果大家有什么问题

也欢迎大家在下面留言

我们可以展开更多讨论

那么今天的视频就到这里

朋友们

我们下期再见!