chatgpt简单算法 一篇文章讲清楚ChatGPT(GPT4)的局限和坑?

AI资讯9个月前发布 fengdao
18 0

最近这个概念在国内爆火了一把,人们了解到了后有很多不同的反应,有焦虑的,有担心的,有恐惧的,有兴奋的。。。

然而这实际上只是个噱头而已,不知道其中的技术原理,自然很懵,但是如果搞明白其中的细节玩法,就知道这个技术的局限在哪里了。

就知道哪些功能对于来说实现很简单,哪些功能对其来说看似简单直接实现很难?

接下来我们进入主题:讲解5个关于GPT的问题。

先做个提示,重点强调一下:

所有教你用赚钱的,全都是割韭菜的!

(GPT4)只是一个工具,最多教教工具的使用。

这个都不用具体细看,只要想一下经济学 稀缺和价值的关系逻辑 就能明白了,太多复杂的说法都是花招。

接下来我们着重的讲一下如下5个问题:

1.简单讲一下,GPT4都是什么?

2.的出现,对大众影响大吗?

3. 为什么 大模型创业(GPT创业) 是个坑?

4.数字孪生人真的很神奇吗?

5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?

1.简单讲一下,GPT4都是什么?

就是最近美国火起来的一个文字软件交互程序而已,能根据文本输入做出很多智能的反应,比如:

1.按指定文字提示 写文章。

2.按指定文字提示 回答问题。

3.按指定文字提示 写程序等。。。

都是一些智能交互,重点是相比之前的文字交互软件智能了太多。

GPT4 (大模型4代) 也仅仅是一个基础程序而已,只不过是用很多数据和计算力训练出来的基础程序,基于GPT4之上开发而成。

2.的出现,对大众影响大吗?

(GPT4) 对 一般人来说 没有任何影响,大众不需要做任何事,

需要做的只是等着GPT技术成熟 彻底工具化后学一学使用工具即可,

一般不用想着什么创业机会啥的,这方面创业都是坑,下面会详细讲。

3. 为什么 大模型创业(GPT创业) 是个坑?

自从最近公司发布的概念在中国火了后,准备开始做国内大模型(GPT创业)的公司就如雨后春笋般的出现。

然而,你要明白了其中的技术原理 和 限制条件后,就会知道这是一个大坑!

那你可能会想了,怎么可能,那么多人搞这个创业,甚至百度,阿里都在搞,

他们傻吗?

首先说明一下,大公司搞这个起初就不是冲着盈利和赚钱的目的去的。

最近搞这类创业的有两类:

第1种:这是蹭热度,或者创业多久后盈利不是他们考虑的,

只要能一直融到资,哪怕连续亏损10年都没问题,

创始人,创始团队在某种程度上 是不依靠于大模型创业是否能盈利的(某种程度上可以这么理解)。

至于 投资人 则也是知道这中短期很难实现盈亏平衡,只是报个希望赌一把而已。

第2种:公司规模太大,不能不做, 钱太多,看着你的人也太多了,所以就把其GPT模型作为其一个基础支撑组件来用的,根本没想着赚钱去的,就是为了自己更好的使用一下,完善一下自己的生态。

好了,既然讲到这里,我们就得详细讲一下 大模型创业为什么很难盈利,为什么是个坑?

思考判断不能没有逻辑,一切的判断都要基于现实的技术和相关条件要素,等我们讲完大模型具体内部重要的要素有哪些,就能搞明白了。

我们先来讲一下 大模型 创业到底是干啥?

GPT4 就是 美国 搞的大模型4代,GPT4本质上是一个软件程序,是个程序,只不过这个程序我们叫其为 模型,把GPT4封装起来做个软件应用产品,就是, 这个程序的功能就是 能够通过 输入文字 给出对应的响应结果。

那么国内创业搞的是什么呢?

主要搞的产品 就是 国内某公司自己开发的大模型(本质是个软件程序),开发完后也能通字符输入给出对应的结果响应。

那不同公司 开发的 大模型 有什么区别吗?和美国的GPT4又有什么区别吗?

为什么那么多种大模型?百度搞个,阿里也搞个?

这就得看 想要开发好 大模型,让大模型给出的反应结果最准确 需要什么要素?

公式如下:

数据 + 深度学习算法 + 算力 = 大模型

1.数据(训练原材料)

2.深度学习算法(计算算法规则)

3.算力(硬件计算力)

4.大模型(预测模型,给出输入(比如文字),响应结果)

要想做好大模型, 就得满足好这三个要素条件,这三个要素条件越好,大模型训练出来效果越好。

那我们来逐个分析一下:

1.先讲数据:

数据的质量高低 直接 影响 大模型预测的效果好坏!

为什么?那数据质量高又是指的什么?

因为大模型给出反应结果的原理,就是通过字符匹配和预测,所以如果你给的数据内容本身就是错的,那么他是识别不出来其是错误的。

chatgpt简单算法_算法简单怎么发论文_算法简单解释

举例(只是为了讲清楚其 数据是如何影响准确率的):

你提供的一系列数据中有: 1+1 =3

如果所有和 1+1 = 3 的内容相似的都是这样,那么计算机模型是识别不来的,他会把3 当成咱们理解的2,然后 你给其输入提问一个: 3 +5 =?

他回答很可能就是 3+5 = 7 。(不接入计算器API的情况下,这例子只是为了说明信息错配的原理)

所以数据是否最准确,其中的知识是否最有用,有价值 直接影响了 模型预测的 效果好坏。

所以如何获得高质量,高专业度的数据 就是一大难题。

不同公司的训练数据不一样,自然模型预测的效果也不一样。

而很多数据在咱们国家 的获取规则更难,一般企业想要获取足够好的数据内容难度相当大。

这其中也涉及很多数据隐私的问题。

所以,做大模型,数据方面,也只有有官方支持的国企才能做的最好。

2.深度学习算法

关于深度学习算法,是一系列特定算法的一个分类总称,其下具体包含很多种不同的深度学习算法。

每一种算法 都是基于 数学原理 和 程序的一些逻辑修改 弄出来的。

这个算法基本是通用的,只不过有实力的公司可能会专门设立小组 定制化 修改其公司使用的深度学习算法。

每家做大模型创业的公司基于深度学习算法的算法定制方案也不同,这看各自公司的技术实力了。

3.计算力

最坑的就是这个计算力,因为其训练过程有点类似暴力破解的方式,所以需要很多算力,这个算力造成的硬件成本至少要数亿美金 ,算力少了或者训练的时间不够的话模型效果会很烂,基本等于白玩。

那这里就有个盈利悖论了,我们如何赚钱呢,基本有几种模式:

1.类SaaS(软件即服务),靠提供功能来收费,别人的公司调用我这模型1次,就需要交固定的钱。

而这个在国内想真正玩起来很难很难,你看一下国内搞数据服务或者其它服务的公司 情况就知道了。

2.封装GPT(大模型),打造一个产品来赚钱, 这个就又有悖论了:

如果你的产品好用能赚钱,那么靠的是什么核心竞争力,GPT的能力? 你能把这个GPT搞到这个功能强度,别人也能啊;靠产品模式吗? 你的产品模式好,GPT比别人的能力差,别人照样转眼把你模式一抄就全面超越你,所以这个盈利是存在悖论,至少中短期很难实现正负盈亏平衡。

还有一个就是GPT自身属性的原因:GPT自身的属性导致,什么属性?

工具属性。

用 工具属性 的产品 必然是赚钱困难的。

这几乎没有例外。

反着来看投入产出比,用了这么多算力资源:

从能量资源的角度来看 这个中短期就很难盈利。

你花了10亿美金 研发了一个 自动削苹果机,用这个苹果机削一次要收费1000元,

1000元够我买一车苹果了,那我为什么不自己削苹果呢?

而且GPT领域的竞争最终必然是充分竞争市场,你死我活的,最后只能留下一两家,

4.数字孪生人真的很神奇吗?

数字孪生人,这个说的太高大上了,我来给你讲清楚点把,实际上是个很low的东西,

和永生,脑机接口等那些高大上的概念完全不沾边。

数字卵生人本质上就是一个 : 能够聊天的软件程序 ,只不过这个聊天程序说话的风格,讲出内容以及涉及的内容范围上限 都 和现在的你一样, 就是拿你的一些特性 数据化然后 模仿出的一个软件程序。

这存在很多问题:

1. 这个软件程序不能真正 实现和你一模一样的性格,因为数据的提供是有限的,

而有些你内在的思维想法 完全不在提供的数据中,很多根本无法用数据描述,或

者说很多内在知识和反应你自己都不知道。

2.这个程序只是模仿现在的你, 准确说是模仿上限范围 就是由你提供的数据上限所

决定的,如果现在搞一个你的孪生聊天程序软件, 等过半年再来看,就很有可能和

你的性格和想法大相径庭了。

3.我彻底用一个案例来 讲一下 这个 和真人学习的区别在哪里把?为什么这个比人耗资源要多很多很多。

其根本区别在于:

人是通过五感的信息输入 和行为反馈来学习的,

而计算机或者说GPT本质上 是 通过 字符的信息输入来学习的。

五感信息 和 字符 信息输入 有什么差别呢?

差别就是字符信息输入 缺少很多隐藏的内在关联逻辑,这些内在关联关系让程序识别出来非常难(或者说不是难,而是和人比耗的资源差距太大了)。

举例:

我们用一个教小孩 识物 的例子来讲:

1.比如小A的妈妈 指着鱼缸里的鱼 对小A讲:鱼缸里这是一条金鱼。

用字符文字来简单描述 : 鱼缸中有一条金鱼等等。。。。

五感信息 和字符信息之间差了什么 隐藏的内在逻辑呢?

小A脑中的学习思考历程:

1).眼睛 看见 鱼缸中的金鱼:

内在隐藏逻辑关联:鱼是在水中生存的(自然看见导致的归纳学习法)

水知识点 ——连接———鱼

2).这鱼是金色的:

算法简单解释_chatgpt简单算法_算法简单怎么发论文

内在隐藏逻辑关联:金鱼应该有金色的。

金鱼—连接—- 金色

3).因为鱼在鱼缸中,所以鱼缸比鱼要大

内在隐藏逻辑关联:大小识别 鱼缸比这条鱼大。。。

等等。。。

上面讲的很多内在隐藏逻辑 对人来说是很容易学会的,

因为人是通过 五感 和行为反馈来学习的,

做个假设:

(只是为了理解而做的假设,现实情况是人完全不理解脑神经运转的真正原理,谁研究

懂就能拿诺贝尔奖了)。

假设: 学习的过程就是 存储着 某知识的神经元(神经细胞) 与相关的神经元 同时 被生物电激活,进而产生化学连接的过程。

那么五感连接的神经元同时激活的时候,他们之间的连接链路是明确的,有限的。

而 五感和行为反馈都和神经元 有直接连接通道:

那么只需要几条很少的神经连接都能把这些东西连接起来,因为五感是同时激发产生生物电的。

而计算机是怎么做的呢?

计算机当然也能识别这其中的逻辑,但是使用的学习方法耗能和人学习比简直是天翻地覆,

计算机最底层只能通过 分析 字符(输入图片音乐最终都会转成二进制数字) 来学习理解:

看这句话:鱼缸中有一条金鱼。。。。

如果想只 通过这一句话 分析出上面人所能理解的,是绝对不可能的。

计算机是怎么学习的呢? 最简单的就是字符匹配:

举例:你要输入1万句 包含鱼的句子, 一万句水缸中的水、水缸大小,鱼的总类相关的句子。。。。

字符信息: 然后计算机 根据这些句子数据 按照深度学习算法 训练出一个 匹配规则模型,

直到匹配的结果能实现和上面人一样的连接效果才行,

但是在原理层面来看, 计算机 是不懂 其真正内涵的, 只能做 文字预测匹配,只不过

这个预测匹配能实现和真人效果一模一样,这就是GPT4诞生的原因。

输入A———->经过模型计算 ———->输出B

你好吗?———->GPT 通过模型的字符匹配算出———->我很好(正确的回答)

你好吗-?———>五感+人的意识+ 思考———->我很好

这就相当于可以实现相同的功能效果 ,但是实现的方法完全是不同的:

举个例子:

要杀死一只羊,有两种方法:

第一种: 毒药毒死

第二种: 用水淹死

实现的结果都能弄死这只羊, 但是毒药的成本很低,而淹死需要一池子水,

水成本也高,那么两者都能弄死这只羊,但是使用的方法不一样,成本也不一样。

人们文字语言交流 本质上 就是一个 字符对应匹配的过程,我说什么字符,你按照

语法和语义回应对应的字符。

计算机也能实现对应的功能, 但是他用的是通过暴力破解 来打造一个 匹配规则

函数, 对话的结果相同,只不过你是根据语义语法的规则来回答的,计算机是根据字符匹配的概率规则来回答。

实现回答的结果一样,但这过程的意义完全不同,消耗的资源也完全不同。

5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?

人工智能有可能产生情感吗,有可能主动对人类进行破坏吗?

人工智能本质上是个软件程序,不能产生情感,但是可以表现出和有情感的人一模一样的效果和反应,让人分辨不出来真假。

所以说理论上:形式上可以和真人毫无差别。

但是就像刚才举的例子,一个真人和 一个人工智能实现的应对反应能一模一样,但是实现的过程方法不一样。

人是通过理性情感做出的反应, 计算机本质上是通过字符匹配进行的反应,

两者在结果形式上一模一样, 但是计算机还是没有情感,本质是不同的。

按上面的例子来说同样类别的话就是: 我能用毒药毒死这只羊,也能用水淹死这只羊,

因为都能弄死这只羊,所以水(纯水)也能毒死这只羊,毒也能淹死这只羊。。。

说计算机有情感 不就相当于 强行把 造成相同结果的两个过程 划上等号吗?

计算机有可能对人类造成破坏,不过原因是计算机程序的变化导致的,是一种事实上客观物理变化导致的,概率性的。

因为某种原因产生了 错误的程序,这错误程序对人有破坏,所以有可能对人造成伤害,绝对不是因为计算机有了情感然后自己想破坏人类。

这就相当于你把一个鸡蛋摔到地上, 鸡蛋碎了, 碎的原因 是 物质力物理规则的原因,而你要强说,因为这鸡蛋有情感, 不想困在我手里,想要自由,即使死掉也在所不惜,所以自己摔倒地上碎了。。。这不是强行给其加戏吗?

计算机程序只是个程序,执行固定规则的程序,永远不可能有生命。

甚至说绝点: 只要宇宙的物理定律,物理规则不变, 计算机就永远不会有生命。

这不是技术能改变的,这是物理规则决定的!

如果宇宙物理规则经常变化,那么世界就根本不稳定了,世界也就不会存在了。

本文先讲到此。。。

© 版权声明

相关文章

暂无评论

暂无评论...