ChatGPT:读懂人工智能新纪元2023-04-13 18:54·畅琦的成长
前言- 2022年11月30日,OpenAI发布AI对话模型ChatGPT。
- 由于ChatGPT的能力过于惊艳,上线仅5天就吸引了100万名用户。
- 推出两个月后,ChatGPT的月活跃用户就已经达到1亿人次,成为历史上用户数量增长最快的消费级应用
ChatGPT火爆1.1 横空出世的ChatGPTChatGPT是由OpenAI公司发布的最新一代的AI语言模型,是自然语言处理(Natural Language Processing,NLP)中一项引人瞩目的成果。
GPT的英文全称为Generative Pre-trained Transformer(生成式预训练转换器),是一种基于互联网可用数据训练的文本生成深度学习模型。ChatGPT“脱胎”于OpenAI在2020年发布的GPT-3,任何外行都可以使用GPT-3,在几分钟内提供示例,并获得所需的文本输出。
不管是过去的GPT-3还是现在的ChatGPT,都会犯一些可笑的错误,尤其是文化常识问题、数学计算题等。而且,ChatGPT的回答往往是大段的,过于冗长,看似逻辑自洽,但有时却是一本正经地“忽悠”。这也是此类方法难以避免的弊端,因为它在本质上只是通过概率最大化不断生成数据而已,而不是通过逻辑推理来生成回复。
由于当前的ChatGPT只是基于2021年及之前的数据进行训练的,加之使用的范围不大,存在一些知识盲区,或者是会出现一些对话的笑话,这也在情理之中。但是随着大规模的用户对话训练,以及大规模的数据更新,ChatGPT将会以超出我们想象的速度进化。
OpenAI宣布开发了一款名为“AI Text Classifier”的鉴别工具,目的是帮助用户分辨文字是否由ChatGPT AI等生成。
2022年,ChatGPT和生成式AI(AIGC)领域“吸金”超过26亿美元,共诞生6家独角兽企业,估值最高的就是290亿美元的OpenAI。
1.2 ChatGPT是如何炼成的NLP是人工智能(AI)和机器学习(ML)的子集,专注于让计算机处理和理解人类语言。虽然语音是语言处理的一部分,但NLP最重要的进步在于它对书面文本的分析能力。
ChatGPT是一种基于Transformer模型的预训练语言模型。它通过庞大的文本语料库进行训练,学习自然语言的知识和语法规则。在被人们询问时,它通过对询问的分析和理解,生成回答。Transformer模型提供了一种并行计算的方法,使得ChatGPT能够快速生成回答。
在Transformer模型出现以前NLP领域的主流模型是循环神经网络(RNN),再加入注意力机制(Attention)。循环神经网络模型的优点是,能更好地处理有先后顺序的数据,如语言;而注意力机制就是让AI拥有理解上下文的能力。但是,“RNN+Attention”模型会让整个模型的处理速度变得非常慢,因为RNN是一个词接一个词进行处理的,并且,在处理较长序列,如长文章、书籍时,存在模型不稳定或者模型过早停止有效训练的问题。
Transformer模型2017年,谷歌大脑团队在神经信息处理系统大会上发表了一篇名为Attention is All You Need(《自我注意力是你所需要的全部》)的论文,该论文首次提出了基于自我注意力机制(Self-attention)的变换器(Transformer)模型,并首次将其用于NLP。相较于此前的RNN模型,2017年提出的Transformer模型能够同时进行数据计算和模型训练,训练时长更短,并且训练得出的模型可用语法解释,也就是模型具有可解释性。
这个最初的Transformer模型,一共有6500万个可调参数。谷歌大脑团队使用了多种公开的语言数据集来训练这个最初的Transformer模型。这些语言数据集包括2014年英语—德语机器翻译研讨班(WMT)数据集(有450万组英德对应句组),2014年英语—法语机器翻译研讨班数据集(有3600万组英法对应句组),以及宾夕法尼亚大学树库语言数据集中的部分句组(分别取了库中来自《华尔街日报》的4万个句子,以及另外的1700万个句子)。而且,谷歌大脑团队在文中提供了模型的架构,任何人都可以用其搭建类似架构的模型,并结合自己手上的数据进行训练。
经过训练后,这个最初的Transformer模型在翻译准确度、英语句子成分分析等各项评分上都达到了业内第一,成为当时最先进的大语言模型。ChatGPT使用了Transformer模型的技术和思想,并在其基础上进行扩展和改进,以更好地适用于语言生成任务。正是基于Transformer模型,ChatGPT才有了今天的成功。
在ChatGPT出现以前,OpenAI已经推出了GPT-1、GPT-2、GPT-3。虽然前几代声量不大,但模型都是极大的。 GPT-1具有1.17亿个参数,OpenAI使用了经典的大型书籍文本数据集进行模型预训练。该数据集包含超过7000本从未出版的书稿,涵盖冒险、奇幻等类别。在预训练之后,OpenAI针对问答、文本相似性评估、语义蕴含判定及文本分类这四种语言场景、使用不同的特定数据集对模型进一步训练。最终形成的模型在这四种语言场景下都取得了比基础Transformer模型更优的结果,成为新的业内第一。 2019年,OpenAI公布了一个具有15亿个参数的模型:GPT-2。该模型架构与GPT-1原理相同,主要区别是GPT-2的规模更大。不出意料,GPT-2模型刷新了大语言模型在多项语言场景下的评分纪录。 而GPT-3的整个神经网络更是达到了惊人的1750亿个参数。除规模大了整整两个数量级外,GPT-3与GPT-2的模型架构没有本质区别。不过,就是在如此庞大的数据训练下,GPT-3模型已经可以根据简单的提示自动生成完整的文从字顺的长文章,让人几乎不敢相信这是机器的作品。GPT-3还会写程序代码、创作菜谱等几乎所有的文本创作类任务。
1.3 “ChatGPT+”无所不能微软CEO纳德拉透露,计划将ChatGPT、Dall-E等人工智能工具整合进微软旗下的产品中,包括Office全家桶、Azure云服务、Teams聊天程序等。ChatGPT已整合进入搜索引擎Bing,为用户呈现更完整的信息并附加信息来源,同时借助更强大的自然语言处理系统识别关键字,提供更精准和个性化的相关内容推荐
1.4 AI生成大流行AIGC是一个组合词:AI+GC,意思是用人工智能生产内容(AI Generated Content)。从内容创作方式来看,我们曾经听到的大多是PGC和UGC
2022年10月,Stability Al获得约1亿美元融资,估值高达10亿美元,跻身独角兽公司行列。Stability Al发布的开源模型Stable Diffusion,可以根据用户输入的文字描述自动生成图像,即文生图(Text-to-Image,T2I)。Stable Diffusion、Dall-E 2、MidJourney等可以生成图片的AIGC模型引爆了AI作画领域
AI音频生成中的部分技术已经较为成熟,被应用于多种C端产品中。音频生成可分为语音合成(Text-to-speech,TTS)和乐曲生成两类。其中,TTS具有语音客服、有声读物制作、智能配音等功能。乐曲生成包括基于开头旋律、图片、文字描述、音乐类型、情绪类型等生成特定乐曲。典型的产品或算法模型有DeepMusic、WaveNet、Deep Voice、MusicAutoBot等。
AI生成还包括代码生成、游戏生成、3D生成等。今天,AI生成已经步入了春天,可以预见,作为数字内容的新生产方式,AIGC的渗透率还将逐步提升,应用场景日益丰富,包括游戏、动漫、传媒等行业。根据Gartner预测,到2025年,人工智能生成数据占比将达到10%。2022年9月,红杉资本发布的文章Generative AI:A Creative New World的分析则显示,AIGC有潜力产生数万亿美元的经济价值。
通用AI,奇点将近2.2 从狭义AI到通用AI基于AI的能力不同,我们可以把AI归为三大类
- 狭义AI(ANI):ANI就像计算机发展的初期,人们最早设计电子计算机是为了代替人类计算者完成特定的任务。
- 通用AI(AGI):AGI将拥有在事务中推理、计划、解决问题、抽象思考、理解复杂思想、快速学习和从经验中学习的能力,能够像人类一样轻松地完成所有这些事情。
- 超级AI(ASI)
AIGC技术方面的进展主要表现在三个方面:
- 图像生成,即以Dall-E 2、Stable Diffusion为代表的扩散模型;
- NLP,即基于GPT-3.5的ChatGPT;还有一个就是代码生成,如基于CodeX的Copilot。
2.3 通用AI初具雏形- 从GPT-1到GPT-3,OpenAI用了两年多的时间,以“大力出奇迹”的办法,证明了大模型的可行性,参数从1.17亿飙升至1750亿,也似乎证明了参数越大,AI能力越强
- 在GPT-3成功后,包括谷歌在内,都在竞相追逐做大模型,参数高达惊人的万亿甚至10万亿规模,掀起了一场参数竞赛
- 反而是GPT系列的开发者冷静了下来,没有再推高参数,而是又用了近两年时间,花费重金,用人工标注大量数据,将人类反馈和强化学习引入大模型,让GPT系列能够按照人类价值观优化数据和参数。
发展算力是件高耗能的事情。以GPT-3为例,GPT-3的每次训练都要消耗巨量算力,需用掉约19万度电力、产生85万吨二氧化碳,可谓“耗电怪兽”。仅从量的方面看,根据不完全统计,2020年全球发电量中,有5%左右用于计算能力消耗,而这一数字到2030年将有可能提高为15%~25%。也就是说,计算产业的用电量占比将与工业等耗能大户相提并论。实际上,对于计算产业来说,电力成本也是除芯片成本之外的核心成本。
ChatGPT基于聊天的服务也面临类似的挑战——如果模型只是学会了语法和语义,但是在语用或常识推理方面失败了,那么我们可能根本就无法获得可信任的AGI。
2.4 奇点隐现,未来已来李开复曾经提过一个观点——思考不超过5秒的工作,在未来一定会被AI取代。现在来看,在某些领域,ChatGPT已远远超过“思考5秒”这个标准了
ChatGPT商业3.1 OpenAI:从非营利组织,到独角兽公司Dall-E是一个基于120亿个参数的GPT-3版本,它被训练成使用文本-图像对的数据集,从文本描述中生成图像。Dall-E可以创造动物和物体的拟人化版本,以合理的方式组合不相关的概念,渲染文本,对现有图像进行转换。
- 2021年8月10日,OpenAI发布了CodeX。OpenAI CodeX是GPT-3的“后代”,它的训练数据既包含自然语言,还包含数十亿行公开的源代码,以及GitHub公共存储库中的代码。OpenAI CodeX就是GitHub Copilot背后的模型。
- 9月21日,OpenAI发布了Whisper,这是一个语音识别预训练模型,结果逼近人类水平,支持多种语言。最重要的是,相较于不开源成果的其他模型,这是一个完全开源的模型,而其参数仅15.5亿。
- 而仅仅是订阅费,都将是OpenAI一笔可观的收入。要知道,ChatGPT仅用2个月时间,就达到了1亿月活跃用户量(MAU)的惊人数字。如果用最低的收费标准来看,假设有10%的人愿意在之后付费使用,就能给OpenAI带来24亿美元的潜在年收入。而OpenAI旗下另一个文字转图像的Dall-E应用,在2022年9月时就已经拥有150万MAU,其更为专业的使用场景给了人们很大的想象空间。
- 全球最大的开源代码托管网站GitHub与OpenAI基于GPT-3合作打造的一款AI辅助编程工具——Copilot,在2022年6月开始收费后第一个月便拥有了40万订阅人数,用户付费率为1/3,远高于一般的生产力软件。
- 2023年2月1日,微软在旗下工作协同软件Teams中推出高级服务,嵌入ChatGPT功能,可以自动生成会议笔记、推荐任务和个性化重点内容,并自动以话题为单位,将会议视频分为多个单元。用户即使错过会议,也能获得个性化的重要信息。Teams高级服务的价格为7美元/月。
- 业内预测,GPT-4的规模会达到100万亿个参数。相比而言,每个人类大脑有1000亿个神经元、100万亿个突触。也就是说,下一代AI大模型的参数量已经与人类大脑的突触数齐平
3.6 亚马逊:新机还是危机在过去很长的一段时间里,亚马逊是全球“电商之王”。当然,这离不开其多年来打造的三个“杀手锏”:
- 一是商家端的FBA(Fulfillment by Amazon)服务
- 二是客户端的Prime会员模式
- 三是亚马逊在技术上的支撑。
3.7 英伟达:ChatGPT背后的赢家就在ChatGPT狂飙突进,引爆价值万亿美元AIGC这一赛道的同时,还有一个大型科技公司正在闷声发财,那就是英伟达。
2023年1月3日——美股新年第一个交易日,英伟达的收盘价为143美元,一个月后的2月3日,英伟达的收盘价为211美元,一个月涨了47%。华尔街分析师预计,英伟达在1月的股价表现预计将为其创始人黄仁勋增加了51亿美元的个人资产
CPU往往会串行执行任务。而GPU的设计则与CPU完全不同,它期望提高系统的吞吐量,在同一时间竭尽全力处理更多的任务。GPU的这一特性被深度学习领域的开发者注意到。
作为一种图形处理芯片,GPU难以像CPU一样运用C语言、Java等高级程序语言,极大地限制了GPU向通用计算领域发展。 为了让开发者能够用英伟达GPU执行图形处理以外的计算任务,英伟达在2006年推出了CUDA平台,支持开发者用熟悉的高级程序语言开发深度学习模型,灵活调用英伟达GPU算力,并提供数据库、排错程序、API接口等一系列工具。虽然当时的深度学习并没有给英伟达带来显著的收益,但英伟达一直坚持投资CUDA产品线,推动GPU在AI等通用计算领域前行。
直到2012年,来自多伦多大学的博士生Alex Krizhevsky用120万张图片训练神经网络模型,以约15%的差错率夺冠,与前人不同的是,他选择了英伟达GeForce GPU为训练提供算力。 这一标志性事件,证明了GPU对于深度学习的价值,也打破了深度学习的算力枷锁。自此,GPU被广泛应用于AI训练等大规模并发计算场景
人工智能产品想要做得更智能就需要训练AI,而算力则是“能量”,是驱动AI在不断学习中慢慢变得智能的动力源泉。英伟达则正是目前人工智能算力加速领域的“第一名”,其在2022年4月发布的Hopper H100,是目前最强的人工智能GPU。
从算力来看,ChatGPT至少导入了1万块英伟达高端GPU,总算力消耗达到了3640PF-days,并且,ChatGPT很可能推动英伟达相关产品在12个月内销售额达到35亿至100亿美元。
在AIGC领域搅动风云的AI绘画工具Stable Diffusion,就是在4000块Ampere A100显卡组成的集群上,训练一个月时间诞生的产物。
ChatGPT将继续增长,可能会进一步提高2023年英伟达GPU的销售额,估计为3亿~110亿美元。美国银行和富国银行的分析师也表示,英伟达将从围绕AI、ChatGPT业务的流行中获益。
中国ChatGPT4.2 百度:冲刺首发中国版ChatGPT参数量1750亿,预训练数据量45TB,据Semianalysis估算,ChatGPT一次性训练费用就达8.4亿美元,生成一条信息的成本约1.3美分,是传统搜索引擎的3到4倍,这是OpenAI培育ChatGPT的成本,OpenAI差点因此倒闭
ChatGPT革谁的命5.1 ChatGPT重新定义搜索查询从满足个人的信息需求来看,分为几个步骤,第一步是对意图的理解,第二步是去寻找合适的信息,第三步是寻找到合适的信息之后做理解和整合,第四步可能就是回答。当前传统的搜索引擎,无论是谷歌还是百度,或者是其他搜索引擎,都跳过了第三步,即理解意图,随后进行信息的寻找和匹配,再进行呈现。于是,在传统的搜索模式中,我们输入问题,搜索引擎会返回一些片段,通常是返回链接列表。
新版Bing体现出三个不同于传统搜索引擎的特征
- 首先,在新版Bing上进行搜索后,可以质询结果,而不仅是重新输入关键词查询
- 其次,新版Bing提供的搜索结果可以超出搜索的内容范畴,这能够帮助搜索者了解更多相关的内容
- 最后,新版Bing能提供更人性化的建议
- 另外,新版Bing还可以帮助用户自动生成旅行计划
整合了ChatGPT的新版Bing集搜索、浏览、聊天于一体,给人们带来了前所未有的全新体验:更高效的搜索、更完整的答案、更自然的聊天,还有高效生成文本和编程的新功能。也就是说,搜索引擎不再只是查询工具,它已经变成了人们的高级助理。微软CEO萨蒂亚·纳德拉对此表示,网页搜索的模式已经停滞数十年,而AI的加入将让搜索进入全新的阶段。
5.2 GhatGPT颠覆内容生产进入2023年,ChatGPT逐渐从聊天工具向效率工具迈进,各种应用场景被不断挖掘出来。显然,ChatGPT不是简单的智能问答系统,它可以生成各种各样的文书。而ChatGPT首先引发的就是内容生产模式的大变革
- PGC(Professional Generated Content)是传统媒体时代及互联网时代早期的内容生产方式,特指专业生产内容。一般由专业化团队操刀,制作门槛较高、生产周期较长的内容,最终用于商业变现,如电视、电影和游戏等。PGC时代也是门户网站的时代,从国内市场看,这个时代的标志就是以资讯类“四大门户网站”为主流。
- 随着论坛、博客,以及移动互联网的兴起,内容生产进入UGC时代。UGC(User Generated Content)指用户生成内容,即用户将自己原创的内容通过互联网平台进行展示或者提供给其他用户。微博的兴起降低了用户发布信息的门槛;智能手机的普及让更多的普通人也能创作图片、视频等数字内容,并分享到短视频平台上;移动网络的进一步提速,更是让普通人也能进行实时直播。UGC不仅数量越来越大,而且种类、形式越来越多,推荐算法的应用更是让消费者能迅速找到满足自己个性化需求的UGC。如今我们所处的内容生产时代,其实是UGC和PGC混合的时代。UGC将数字内容的供应扩容,满足了人们个性化及多样性的内容需求。
- 随着AI技术的发展与完善,其丰富的知识图谱、自生成及涌现性的特征,会在内容的创作方面为人类带来前所未有的帮助,如帮助人类提高内容生产的效率、丰富内容生产的多样性及提供更加动态且可交互的内容。
5.3 ChatGPT进军医疗ChatGPT对医疗行业的颠覆,将非常有效地解决当前医疗水平之间的差异,以及最大限度地解决“就医难”的问题。根据世界卫生组织的数据,预计到2030年,全球将短缺1000万名医护人员,主要是在低收入国家。
在全球医疗服务匮乏的地区,人工智能可以扩大人们获得优质医疗保健的机会。未来,大部分的常规疾病的诊断都可以由人工智能医生替代。
2012年,数字疗法的概念就已经在美国流行,根据美国数字疗法联盟的官方定义,数字疗法是一种基于软件、以循证医学为基础的干预方案,用以治疗、管理或预防疾病。通过数字疗法,患者得以循证治疗和预防,管理身体、心理和疾病状况。数字疗法可以独立使用,也可以与药物、设备或其他疗法配合使用
数字疗法则是将药物更换为某款手机软件,当然,也可能是软硬件结合的产品。数字疗法的处方可能是一款游戏,也可能是行为指导方案等,其作用机制是通过行为干预,带来细胞甚至分子生物学层面的变化,进而影响疾病状况。
5.4 ChatGPT引发律师“饭碗焦虑”无论是诉讼律师,还是非诉律师,其很大一部分时间都用于做“案头工作”,与海量的文件、资料、合同打交道。而法律的严谨性,要求其不得有半点疏忽。这种大同小异的工作模式、重复的机械式工作,就是AI的优势领域。
在法律咨询方面,早在2016年,美国企业研发的机器人律师Ross已经实现了对客户提出的法律问题立即给出相应的回答,为客户提供个性化的服务。Ross解决问题的思路与执业律师通常回答法律问题的思路相一致,即先对问题本身进行理解,拆解成法律问题;再进行法律检索,在法律条文和相关案例中找出与问题相关的材料;最后总结知识和经验回答问题,提出解决方案。人类律师往往需要花费大量的精力和时间寻找相应的条文和案例,与人类律师相区别的是,人工智能咨询系统只要在较短时间内就可以完成相应的工作量。
在法律领域- ChatGPT完全可以演化成“智能律师助手”,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;
- 可以变成“法律问答机器人”,回答法律问题并提供相关的信息和建议。
- ChatGPT还可以进行合同审核、辅助诉讼、分析法律数据等,从而提高法律工作者的效率和准确性
5.6 ChatGPT掀起新零售狂飙当前,人工智能已渗透到零售价值链各个环节。ChatGPT的爆发,还将推动人工智能在零售行业的应用从个别走向聚合
ChatGPT能够在顾客端实现个性化推荐,让商家快速调整产品和推广策略成为可能。如果输入相关的大量产品知识并且经过一段时间的算法训练,ChatGPT对产品的了解可能比一个从业十年的导购人员还要专业,因为ChatGPT的记忆力更强,善于选择最佳答案。而随着消费数据积累,商家又可以基于这些数据,通过ChatGPT对产品研发和推广策略再进行调整。越是了解客户行为和趋势,越能精准地满足消费者的需求。简单来说,ChatGPT可以帮助零售商改进需求预测,做出定价决策和优化产品摆放,让客户在正确的时间、正确的地点与正确的产品产生联系
ChatGPT还能够助力零售业提升供应链管控效率。传统零售商面临的一大挑战就是,保持准确的库存,而ChatGPT能够打通整个供应链和消费侧环节,为零售商提供包括店铺、购物者和产品的全面细节化数据,这有助于零售商对库存管理的决策更加合理。此外,ChatGPT可以快速识别缺货商品和定价错误,提醒员工库存不足或物品错位,以便获得更及时的库存信息
5.7 应用场景落地金融业相较于传统的投资顾问服务,智能投顾具有独特的优势:
- 一是能够提供高效便捷的广泛投资咨询服务;
- 二是具有低投资门槛、低费率和高透明度;
- 三是可克服投资主观情绪化,实现投资客观、理性和分散化;
- 四是提供个性化财富管理服务和丰富的定制化场景。
对于投资领域而言,更准确、更快速、更真实的数据信息就是最大的价值,而这正是ChatGPT的优势所在。比如,对于股票的投资而言,ChatGPT可以抓取相关的各种新闻,实时监测资金的流动,并且能够结合金融投资者领域的各种技术分析,给出一个相对客观的分析建议——比人类投顾更客观、实时、全面
5.8 人形机器人爆发前夜- 人形机器人可以更好地充当人类的劳动力
- 在很多领域,机器人作为侍者,具有人类的外表才更容易被接受。如产后护理、幼儿陪伴、老人看护——人类与人形机器人更容易产生情感上的交流
未来,留给人类的工作或许只有两类:
人类准备好了吗?6.1 ChatGPT还需完善ChatGPT本质上只是通过概率最大化不断生成数据而已,而不是通过逻辑推理来生成回复:ChatGPT的训练使用了前所未有的庞大数据,并通过深度神经网络、自监督学习、强化学习和提示学习等人工智能模型进行训练。
6.2 从算力之困到能耗之伤- 有数据显示,训练GPT-3消耗了1287兆瓦时的电,相当于排放了552吨碳
- 仅以552吨排放量计算,这相当于126个丹麦家庭每年消耗的能量。
- 在运行阶段,虽然人们在操作ChatGPT时的动作耗电量很小,但累计之下,其可能成为第二大碳排放来源。
- 深度学习中使用的计算能力在2012年至2018年间增长了30万倍,这让GPT-3看起来成了对气候影响最大的一个。然而,当它与人脑同时工作,人脑的能耗仅为它的0.002%。
Databoxer联合创始人克里斯·波顿解释了一种计算方法:“首先,我们估计每个响应词在A100 GPU上需要0.35秒,假设有100万名用户,每名用户有10个问题,产生了1000万个响应和每天3亿个单词,每个单词用时0.35秒,可以计算得出每天的A100 GPU运行了29167小时。”Cloud Carbon Footprint列出了Azure数据中心中A100 GPU的最低功耗46瓦和最高功耗407瓦,由于很可能没有多少ChatGPT处理器处于闲置状态,以该范围的顶端消耗计算,每天的电力能耗将达到11870千瓦时。克里斯·波顿表示:“美国西部的排放因子为0.000322167吨/千瓦时,所以每天的二氧化碳当量为3.82吨,与93个美国人每天的二氧化碳当量相等。”
ChatGPT向前狂奔,必然将人类带向一个“高能量的世界”,如何回应巨大的算力需求和能耗需求,则成为一个当前难解的现实问题。
6.4 ChatGPT“换人”进行时麦肯锡全球研究院的报告则显示,预计到2055年,自动化和人工智能将取代全球49%的有薪工作,印度和中国受影响可能会最大。麦肯锡全球研究院预测,中国具备自动化潜力的工作内容达51%,这将对相当于3.94亿全职人力工时产生冲击。
媒体网站Insider编制了一份最有可能被人工智能技术取代的工作类型清单,一共包含了十类工种:
- 技术工作,如程序员、软件工程师、数据分析师。ChatGPT等先进技术可以比人类更快地生成代码,这意味着未来可以用更少的员工完成一项工作
- 媒体工作,如广告、内容创作、技术写作、新闻从业者。所有媒体工作——包括广告、技术写作、新闻等内容创作——都可能受到ChatGPT和类似形式的人工智能的影响。究其原因,ChatGPT可以很好地读取、写入和理解基于文本的数据。当前,媒体行业已经在试验人工智能生成内容
- 法律工作,如法律助理或律师助理。与媒体行业从业者一样,律师助理和法律助理等法律行业工作者需要综合所学内容,消化大量信息,然后通过撰写法律摘要或意见使内容易于理解。这些数据本质上是非常结构化的,这也正是ChatGPT的擅长所在
- 市场研究分析。市场研究分析师负责收集数据、识别和确定数据趋势,然后根据他们的研究分析来设计有效的商业战略,包括营销活动或决定在何处放置广告。而人工智能也擅长分析数据和预测结果,并且能够更高效地做好这些研究分析,这使得市场研究分析师非常容易受到AI技术的影响
- 教师职业。ChatGPT是基于庞大知识库训练的结果,当我们给ChatGPT提供足够优秀的教学方法进行训练之后,AI就能根据我们所提供的优质教学样本进行整合,并输出更为优秀的教学方式与内容结构。这一方面可以极大地缩短由于教师之间经验与培训的差异所造成的教师水平的差异
- 财务职位,如财务分析师、个人财务顾问。会计师、审计师、市场研究分析师、金融分析师、个人财务顾问等需要处理大量数字数据的工作将受到AI的影响。尤其是在规范化的财务制度环境中,基于企业的各项经营、往来、收支等方面的财务数据,AI能实时生成财务报表,并且失误率比财务人员更低
- 金融交易。无论对于金融行业的分析师,还是对于从事金融行业的投资顾问,或是对于金融行业的交易人员而言,AI能更加实时全面获取数据,并且给出基于数据的精准判断
- 平面设计。Dall-E是一种图像生成器,可以在几秒钟内生成图像,是平面设计行业的“潜在颠覆者”
- 科研工作。对于任何领域的科研,我们通常以前人的研究基础为依据,然后构建新的研究方向。但是我们阅读与了解相关的科研内容有着一定的局限性,很难像人工智能一样阅读庞大资料。而ChatGPT就能基于我们想要了解与研究的方向,只要我们能够开发足够的数据库,它就能用非常短的时间阅读完我们所提供的所有数据库信息,并且能够结合这些过往研究给出一些新的研究方案
- 客户服务。几乎每个人都有过给公司客服打电话或聊天,然后被机器人接听的经历。而ChatGPT和相关技术可能会延续这一趋势,ChatGPT或许会大规模取代人工在线客服。如果一家公司,原来需要100个在线客服,以后可能只需要2~3个在线客服就够了。90%以上的问题都可以交给ChatGPT去回答
在高技能与中低技能劳动力就业中出现明显的极化趋势:对高技能劳动力,尤其是创造力与创新力领域的就业需求将显著提升;加剧了通用生产领域中低技能劳动力的去技能化趋势
在传统行业智能化升级过程中,伴随着大量智能化项目的落地应用,不仅需要大量的数据科学家、算法工程师等,而且由于数据处理环节仍需要大量人工操作,因此对数据清洗、数据标定、数据整合等普通数据处理人员的需求也将大幅度增加。并且,人工智能还将带动智能化产业链就业岗位线性增长。人工智能所引领的智能化大发展,必将带动各相关产业链发展,打开上下游就业市场。