中华网 china.com

娱乐
当前位置:娱乐 > 影视长廊 > 正文

chatgpt会取代脑力劳动吗 chatgpt会取代人类工作吗

chatgpt会取代脑力劳动吗 chatgpt会取代人类工作吗
2023-02-21 13:30:34
《家有儿女》“夏东海”扮演者高亚麟被曝出轨家暴14:05

chatgpt会取代脑力劳动吗

尽管语言模型(如ChatGPT)已经在许多领域取得了令人惊叹的成果,但它们仍然存在很多限制。目前,语言模型仍然不能像人类一样理解世界,而且它们的回答也不总是正确的。因此,它们不能完全取代人类的智慧和判断力。

此外,有些工作需要人类的创造力和想象力,这是语言模型难以模仿的。比如,艺术家、作家和音乐家的工作都需要丰富的创造力和想象力,而这是语言模型难以替代的。

同样,一些工作需要人类的情感和关爱,例如护理工作、教育工作和心理咨询工作。在这些领域,语言模型不能取代人类的温情和关爱。

总之,语言模型可以为人类工作带来很多方便和效率的提高,但不可能完全取代人类的工作。人类的智慧、判断力、创造力和情感都是语言模型难以替代的。因此,语言模型可以与人类合作,共同为人类带来更多的价值。

正如前面所提到的,语言模型在解决一些特定任务方面已经取得了显著的进展,例如问答、文本生成和语音识别。然而,它们仍然不具备完全取代人类的能力。

首先,语言模型受到训练数据的限制。它们的知识和理解只能基于训练数据,如果训练数据不全面或不准确,语言模型的答案也不会是正确的。因此,语言模型的正确性受到训练数据质量的限制。

其次,语言模型缺乏人类的判断力和创造力。它们无法像人类一样判断复杂的问题,并且在解决复杂的问题时不具有创造力。例如,在做决策时,语言模型可能不能考虑到所有的因素和影响,并且可能不能提出创造性的解决方案。

此外,语言模型缺乏人类的情感和关爱。在与人类互动时,语言模型不能像人类一样理解和表达情感,并且不能像人类一样关心他人的感受。因此,在需要情感和关爱的工作中,语言模型仍然不能完全取代人类。

chatgpt会取代人类工作吗

据了解,此前市面上不乏一些AI应用,可对话、可唱歌、可写作,甚至还可以提供一些诸如“问路”这样的基础服务,ChatGPT和这些人工智能有哪些不一样呢?

沈阳表示,ChatGPT和原来一些人工智能有所不同,比如它可以通过连续追问来了解一个问题的深度,一些探索的答案,这个是它的直接功能,“使用多了以后,你甚至会发现ChatGPT还能在多轮的对话中有一定的逻辑关联。”

“ChatGPT现在一个显著的功能是撰写文章或提供文章架构,未来学生在大专或者本科毕业时要求写的论文,可能大量的都是用人工智能来自动生成了。”沈阳称,目前看,ChatGPT相当于211高校中等偏上的本科生水平。

另外,沈阳还表示,未来,ChatGPT和虚拟人、机器人的结合将是必须的。虚拟人和机器人最重要的就是云大脑,下一步ChatGPT接入到各类虚拟人和机器人中将是全球趋势。

“ChatGPT可以在数字藏品领域大展身手,从辅助设计、数字文创、自动化生成等步骤都可以改进和提升效率。”沈阳称。

沈阳总结,人工智能潜在的服务会从比较准确性的知识,逐步转向解释性、阐述性的知识,到最后就是创新性的知识,它会逐步形成这样一个演化逻辑。

会替代哪些“饭碗”?对就业有影响吗?

沈阳表示,首先ChatGPT让一些工具很容易被替代,同时一些工具被增强了。比如说搜索引擎、绘图软件、office办公软件等都将增强。“工具的增强会带来效率的提升,也就是经常使用这类软件的工种,可能会比较早的被替代。”

“还有就是客服,目前各类电商平台或者是某个公司的网站上面,有些是真人在回答消费者问题,未来这些人的作用会进一步降低,因为你只要把这个行业的知识灌输进去之后,在人工智能的加持下,自动回复或者说在线机器人它是能够比较准确的回答这些问题的。”

沈阳举例,还有程序员的“饭碗”也可能面临ChatGPT的挑战,你只需要描述好任务,人工智能就可以生成相对比较简单的代码,当然下一步这些代码会越来越复杂,但是因为人工智能也可以去通读网络上这些所有的开源代码,它未来编程能力也会越来越强。

有网友在网络上称,“讽刺的是,程序员开发出了ChatGPT,但ChatGPT却想让程序员失业。”

最后,沈阳强调,要两面性的看待ChatGPT带来的就业问题,这是一把双刃剑。比如文创行业,用ChatGPT进行文稿撰写能让一些“自媒体”失业,但同时在一定程度上也能让某一个平庸的“写手”,作品质量突然有所提升。

“总之,ChatGPT要么提高了质量,要么提升了效率,提升了效率的话,实际上就会造成一部分人失业了。”沈阳称。

被吐槽没“人性”,可能产生哪些危害?

ChatGPT走红以后也引发一些争议,多家媒体报道,苹果联合创始人史蒂夫·沃兹尼亚克甚至直接吐槽ChatGPT在给我们带来一些便利的同时,可能犯下一些可怕的错误,因为它不懂“人性”,缺乏独一无二的人类情感和品质。

沈阳认为,ChatGPT的危害首先表现在它输出的内容到底可信不可信上面。很多测试结果显示,唯一性答案的问题,ChatGPT回答得很准确;但如果提的问题稍微深奥一点,可能是一个多选项时,ChatGPT出错率就增加了。

“如果是一个完全开放,并且胡诌的问题,ChatGPT有时候也给你胡诌。即便你正儿八经地问问题,它可能也会给你回复一条夹杂了不实信息的内容。”沈阳举例说。

实际上,谷歌为此已经付出代价。谷歌母公司Alphabet最近发布的新人工智能技术Bard在演示时发生了一个错误,引发投资者担忧,导致该公司股价大跌,市值当时蒸发约1000亿美元。

另外,沈阳表示,ChatGPT回答包含的媒体发布的信息相对是比较少的,所以在回答内容的质量上面,在价值观的偏见上面,在某些领域它还是存在很大的问题的,这些问题都是未来其他的AIGC平台需要去避免的。

沈阳还表示,当AI能够代替人脑的一部分思考,人脑的思考价值性就被抵消了一部分。在教育中使用,还怎么训练学生的思维能力?如果教育无法优化教学效果,人类怎么去培育新生代呢?

以上内容仅中华网独家使用,未经本网授权,不得转载、摘编或以其他方式使用。
(责任编辑:乔娇 TT0002)
关键词:

相关报道:

    关闭
     

    相关新闻