跟ChatGPT聊完后,我在工作群写了句:散了吧......

跟ChatGPT聊完后,我在工作群写了句:散了吧......
2023年02月14日 18:56 一个PR的自我修养

最近不少打工人开始担心ChatGPT会导致自己失业。

甚至有人总结了未来因ChatGPT而失业的十大职业:1. 技术工种(程序员、软件工程师、数据分析师)2. 媒体工作者(广告、内容创作者、记者)3. 法律行业工作者(律师助理、法律助理)4. 市场研究分析师 5. 教师 6. 财务(财务分析师, 个人财务顾问)7. 交易员 8. 平面设计师 9. 会计师 10. 客服

虽然公关并未上榜,但是我认为,如果媒体老师们都失业了,还要我们干什么呢——皮之不存毛将焉附啊!也有同行快速得出结论:公关也要失业了。我个人认为,以我们这个职业渗透率之低,专业度之差,再参考大部分中国企业对公关不重视的程度,大家大可不必担心。因为,即使我们失业了,也没人会发现的。

玩笑归玩笑,我在后台接到不少私信,要求分析下ChatGPT是否会导致公关失业,今天咱们就来正经的盘盘ChatGPT的道儿。

首先什么是ChatGPT?

ChatGPT是美国人工智能研究实验室OpenAI(微软投资)新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构,也是GPT-3.5架构。这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。ChatGPT不单是聊天机器人,还能初步完成撰写邮件、视频脚本、文案、翻译、代码等任务。

为什么ChatGPT会火?

ChatGPT受到关注的重要原因是其引入的新技术RLHF(Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。RLHF 解决了生成模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。ChatGPT是AIGC(AI- Generated Content,人工智能生成内容)技术进展的成果。该模型能够促进利用人工智能进行内容创作、提升内容生产效率与丰富度。简单说就是,当你跟它对谈的时,特别是它回答你的提问时,非常像一个具备深厚知识背景的专家在回答你的问题,而且这个专家还很像一个活人。

ChatGPT是万能的吗?

跟其他的人工智能一样,ChatGPT模型的能力上限是由奖励模型决定的。该模型需要巨量的语言资料库来拟合真实世界,对标注员的工作量以及综合素质要求较高。ChatGPT可能会出现创造不存在的知识,或者主观猜测提问者的意图等问题,模型的优化将是一个持续的过程。若AI技术迭代不及预期,NLP模型优化受限,则相关产业发展进度会受到影响。此外,ChatGPT盈利模式尚处于探索阶段,后续商业化落地进展有待观察。

都说搜索是第一个被ChatGPT颠覆的行业,所以上面的答案我都是用百度搜索的。看着这种毫不智能的机械回答,是不是反而更有新鲜感了?接下来的问题是,为什么这10类工作这么倒霉被ChatGPT选中,成为天选失业人呢?

人工智能的两条腿一个是数据库另外一个是算法,两只手一个是硬件一个是软件。然后你会发现只有这四大抓手还是不够的。“奖励模型”才是人工智能的大脑。人工智能必须按照“奖励模型”来定自己的“规矩”。可是目前“奖励模型”还不能够由人工智能天然生成,必须由人类设定并且调教,才能让“AI的规矩就是规矩!”。

我认为,看上去这是10个不同的职业,其实这些都是一种职业:处理信息的输入和输出。他们不论是在处理数据信息、文字信息还是图片信息,都是在接受海量信息(数据库信息)之后,再根据个人的经验与工作方法处理信息(类似AI的算法+奖励模型),然后向外界输出信息(结论信息)

麻烦的是,这10个职业的“奖励模型”都比较单一。他们要接收的信息量级、处理信息的方法、输出信息的量级都比较固定。如果这些职业所处理信息的数据库也是非常稳定并且是电子化的(不需要向活人临时调取信息),那么他们被人工智能代替的概率就非常高了。

高到什么程度呢?高到只要你给AI一个可以商业化的应用场景,它就能在一个月内代替大部分活人来工作。AI所要处理信息的复杂度越低,它代替人工的概率就越高。所以最早被人工智能代替的其实是排在第10位的客服。

其实,京东与阿里巴巴早就开始应用人工智能客服了,而且应用概率已经高到足够让你惊讶的程度。目前你与京东客服的大部分对话其实也都是“对AI弹琴”。这主要是因为电商将客服的工作彻底从线下搬到了线上。同时客服能够在线上应对和解决的问题都是固定的几个模型,能够提供的解决方案也非常稳定。但是零售平台对一个客服的在线时长、反应速度、抗压能力提出了非常苛刻的要求。我在京东工作的时候,每次到了支援一线的时候我都不敢报客服,因为实在是被骂得太惨了。人工智能不仅可以24小时在线,还能够随时在线,而且不论怎么挨骂都会情绪稳定,因为它根本就不是人。

我们再用最熟悉的媒体记者职业来举例吧。

没有任何一个记者可以凭空捏造新闻的,如果有,那他就是小说家不是记者了。记者的工作模型也比较简单,就是采集信息,也就是采访,然后编辑信息也就是撰写新闻,再输出信息,也就是发布新闻。所以记者永远都是站在现在看过去,要通过采访(收集数据库)尽量的复原过去的原貌,再通过撰写(算法)完成信息数据的整理,最终将采访的信息写成了文章发表。

我们需要注意的是,在加工信息的过程中,基本上不会允许记者进行再创造。记者的使命是通过自己对信息的整合让受众更加便捷、准确的接受信息。如果记者根据自己的主观意志改变原始信息的内容,那就会让受众无法接受到最准确的信息,也会违背记者的职业操守。

那么,AI可以对活人进行高质量的采访吗?如果其他AI不能,那么ChatGPT也许可以。因为它目前在应用层面最强大的场景就是拟人的交流。虽然目前它还是被提问的一方,但是我们如果按照记者的“奖励模型”训练它。它肯定比一个活人更快学会如何做个会提问题的优秀记者。

事实上根本不用等到ChatGPT问世,早在十年前代替记者撰写评测类、行业分析类、财报披露类文章的写作机器人就开始商用了。目前相当比例的新闻也早就不是“人写的”。特别是每当股市开始之后,各大媒体5分钟内所发布那些千字新闻,不用猜也知道,没有活人可以写这么快的。

这一切实现的前提还是“AI记者”所处理的海量信源全都是真实的。但即使你没有从事媒体记者的工作也会知道,这个前提根本就不现实。如何判断信源的准确性、剔除虚假错误的信源,尤其是判断受访者是否在撒谎,恐怕还是要通过活人记者的经验来决策。所以啊,短期内ChatGPT还无法取代活人媒体记者。

那需要主动创造的工作呢?

反观ChatGPT撰写的小说和诗歌,其水平只能说是幼儿园级别的。我想最主要的原因是人类目前自己也还没完全透视自己的心理活动和创造力的秘密。所以目前人工智能在“创造力”方面,其实还是低级别的重新排列组合,并不是高级的原创。

总结来看,当一个职业的职业规范和职业道德不允许从业者在整理过去信息的时候进行再创造,那么它被“还不会再创造”的人工智能取代的概率就变高了。注意,我这里说的活人是不被允许再创造,而不是不会再创造。人工智能目前才是真的不会再创造。

我们再来看看公关被ChatGPT取代的概率有多高。

首先:一个公关正确的工作路径应该是站在未来看现在。也就是公关需要通过他对核心信息的覆盖去构想未来可能会发生的事实,并且整合社会关系让这些事实发生,再配合媒体报道事实。这种被动的前瞻性,就决定了公关不能单纯只是向后看,还要向前看。要培养这种能力非常困难,这也是优秀的公关非常稀少的原因。但是这种策略性,却是人工智能不具备的。

其次,公关的工作有两大部分看上去跟媒体记者是一样的。第一就是搜集信源,第二是撰写稿件。同时公关还有一些舆情分析报告,项目总结报告之类的衍生工作。但是这些工作的本质还是信息的搜集和梳理,而且基本上不需要再创造。这部分工作被取代的概率就非常高了。

最后,公关的工作中最主要的还不是处理文字信息,而是整合社会关系。这就需要一个优秀的公关具备与其他人顺畅的交流沟通的能力。同时与人交互,并且整合社会关系,也是公关必须去做的一项工作。目前这类的工作ChatGPT还无能为力。至少在中国公关圈,不会喝酒的ChatGPT,没什么发挥空间。

可惜很多公关都把自己的发力点放在了整合社会关系上面,反而忽略了对信息的整合以及建立在数据分析基础之上的公关策略。所以公关才会被误解为一种陪吃陪喝陪聊,搞关系走后门的职业。不懂得覆盖信源,不重视数据分析的公关被ChatGPT取代,那也真是活该!

另外一方面,我们也得到了启发,人工智能在覆盖信源、整理信息方面确实远远胜过人类。未来在公关职能中的这部分工作,应该被ChatGPT所代替。我们再总结一下,需要再创造并且需要针对人类的判断做出决策的工作,目前不容易被ChatGPT取代。

那么ChatGPT具体有什么用呢?人工智能取代人类的临界点是什么呢?

针对这个问题我请教了具有12年人工智能技术研究及丰富的产业化落地实践经验的码隆智能科技有限公司副总裁赵从志先生。他的观点让我醍醐灌顶。因为码隆智能科技的核心产品是基于教育+AI的基础上构建的,所以他从教育行业举例来说明了ChatGPT的神奇之处。

首先,教师的工作也是不允许他们再创造的。他的职业操守一定是原封不动的传递前人已经总结认定的公理、真理或规则,肯定不是重新创造新的知识。所以教师的职业也容易被ChatGPT所取代。

其次,最理想的教育状态是因材施教,但是不论是多小的小班授课其实还是不可能做到每个学生定制化教育的。如果从头到底1V1开展教育,孩子又会失去社会性训练。

而ChatGPT与其他人工智能不同的地方就是他的新技术RLHF(Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。这让ChatGPT具备了在输出结果的时候,点对点的输出内容,并产生多样性结论的可能性。

当我们跟ChatGPT对谈的时候,如果我们输入的前提条件是一样的,不论主观提问者还是客观环境发生什么样的变化,只要后台数据库没有发生巨大的变化。它给出的答案都比较类似,并不具备多样性。未来它可能会具备针对受众不同时期的不同特点给出个性化答案的能力。也就是每个人不同时期针对同一个主题会得出不同的结论。

这种多样性的结果如果应用在教育行业就能解决因材施教的问题了。未来的智能教育时代,不论我们是开几千人还是几万人的“大班”,每个人从人工智能老师那里得到的都会是个性化的教育方案。

基于这种可能性我们再回到公关领域。

根据厦门大学邹振东教授的两个世界理论,人类同时生活在现实世界和舆论世界之中,现实世界是强世界,舆论世界是弱世界。公关的使命就是在舆论世界中构建一个拟真的世界,把一种信念植入公共领域,再通过舆论世界影响现实世界。

如果ChatGPT未来能够实现点对点的输出内容,那么这种同时给出多样性结果的能力,就会让他能够在舆论世界中轻松构建一个拟真的世界,从而影响现实世界。那么它就成为了世界上最高效、最强大的公关。它不仅能够快速的传递一个信息,还能够轻松决定任何人对一件事情的认知。那个时候活人公关就真的没用了。

所以输出结果是否具备多样性,将会是人工智能是否会彻底代替人类的临界点。到那个时候,失业的肯定不只是公关。

在这里我不仅想到,我们为什么要研发ChatGPT呢?其实跟研发织布机、蒸汽机、火车、汽车、电子技术的时候一样,我们想要更加高效的生活。这种对高效的活着的执着追求,其实是因为人类知道自己早晚有一天会死。在追逐高效的过程中,我们不断的发现总有新技术能够比人类更高效。那么这种对高效率的追逐,是否也会让我们彻底放弃自己呢?

其实我们已经正在慢慢放弃自己了。还好,我岁数大了,看不到自己被彻底放弃的那一天。于是,在跟ChatGPT聊完之后,我在工作群写了句:散了吧,我们有生之年肯定看不到自己的灭亡了。

最后,就让我们用尼采收尾吧:对待生命,你不妨大胆一点,因为我们始终都要失去它。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部