湖北日报全媒记者 农新瑜 田佩雯 张歆


(资料图)

ChatGPT热潮中,如何理性看待人工智能(AI)所带来的喜与忧?如何应对其带来的挑战?湖北日报全媒记者采访了部分专家和相关人士。

警惕:别被AI误导“入坑”

基于目前自身的局限性,ChatGPT在为用户服务时,有时会写出看似合理、但不正确甚至荒谬的答案,还会“一本正经地胡说八道”。为此,有专家担忧,“这个工具可能成为互联网上有史以来最强大的传播错误信息的工具。”

《纽约时报》不久前报道称,美国新闻可信度评估与研究机构NewsGuard曾对ChatGPT进行测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本等形式写出了文章,在几秒钟内就编成了大量令人信服的、干净的而毫无信源的内容,其造假能力之强大令人吃惊。

武汉一家IT企业负责人李伟向记者表示,如果一些心术不端之人借助它造假传假,完全可以实现低成本、大规模和快速传播,这一隐患堪忧。

清华大学物理系博士生王博说,他在使用一段时间ChatGPT后,也发现了它令人震惊的“胡诌”能力。如果完全信任它的回答,就有可能被“带到沟里”。他同时也担心ChatGPT产生的错误虚假信息,会对互联网知识库造成污染,带偏受众。

直面:AI对人类职业的威胁

前段时间,“ChatGPT引发十大职业危机”“哪些职业将被AI取代”等话题频上热搜。

AI真的会跟人类抢饭碗吗?

湖北籍青年学者、中国社科院大学博士杜雨认为,ChatGPT这类生成式AI工具,让机器开始大规模涉足知识类和创造性工作,首先受到冲击的将是知识类工作者。不过,大多数场景下,这些知识类和创造性工作无法直接完全由AI进行,还需要人的参与。AI也许将取代一些枯燥、重复的创造性工作,而那些凝结“真听真看真感受”的人类情感和复杂技艺,则是机器难以取代的。

知名专家李开复博士在其新著《AI:未来进行式》中认为,今后,有些从事相对简单工作的人,将无法避免被AI取代的命运;而那些需要高度社交技巧并且相对重复执行的工作,将由人类与AI共同承担,二者将各自发挥所长,实现人机协同合作;还有一些既需要创造力、又需要社交技能的工作,它们将成为未来人类职场中的“闪光点”,很难被AI取代,比如帮助老年人洗澡的护理员等。

“人类累积情感和经验,不断地肯定和否定,实现自我超越,这一过程是AI无法企及的,因此AI也无法垄断人的所有创作。”湖北大学新闻传播学院副教授罗宜虹认为。

不少人认同,AI的挑战,恰恰也是催促人类进步的契机。李开复博士倡导人们积极投入“二次学习”,掌握那些AI无法取代的工作新技能,为适应AI时代做好准备。清华大学物理系博士夏易表示,人类借助AI从简单劳动中解放出来以后,可在其他领域做更多学习探索,尤其是在AI尚触及不到的领域。

隐忧:AI助长人类之“懒”

采访中,部分人士还提到了这样的隐忧:AI日益融入日常生活,会不会让人类产生依赖,而使自己变得更偷懒?

教育界对“ChatGPT助长作弊”的担忧尤为突出。

据报道,国外一项对1000多名学生展开的调查显示,超过89%的学生使用ChatGPT来帮助完成家庭作业。因担心助长学生作弊,目前美国多所公立学校已禁用ChatGPT。

在武汉高校,不少老师也开始对“AI式作弊”保持警惕。一些老师结合自己所教课程,想办法布置“AI写不了”的作业。而对使用AI,学生们心态复杂。记者询问多位在读大学生,他们均认为:AI方便,但不可靠。一位学生直言:若大家都用AI,作业很容易千篇一律,老师一眼就看出来了。

华中农业大学经管学院副教授郝晶辉认为,AI工具确实能提高学习效率,但如果用它来投机取巧,应付考核,最终还是不利于自身成长。

学术界也面临ChatGPT带来的挑战。据了解,目前国外多家知名学术期刊已在更新编辑规则,防范ChatGPT可能带来的不良影响。

杜雨博士认为,机器只会调用语料实现答案,就其本身而言,它没有价值判断能力,这就要求使用它的人要有自己的价值判断,遵守学术道德。

多位专家向记者表示,要警惕人工智能弱化人类思维。如果人类完全依赖于机器,而放弃了自己的语言表达、思考创造,无疑是非常可悲的。

关键词: 清华大学 湖北日报 人工智能