新华财经北京10月28日消息,近期,美国斯坦福大学的研究人员组织了全球首个以人工智能(AI)作为核心作者和论文评审的线上开放会议。主办方表示,此次会议意在打造一个“相对安全的试验场”,探究AI能否以及怎样独立产生新颖的科学见解、假设和方法论等。
当下,AI已然成为我们工作与生活的得力助手,不过它也提供了一种“认知捷径”,让人们无需费力思考就能得到想要的答案。起初人们只是用它查询信息、翻译文字,随后逐渐借助AI辅助撰写邮件、工作总结和研究论文,甚至进行重要决策。过度依赖AI,将思维工作“外包”给它,有可能使我们逐渐丧失思维的主导权。
在人机共生的时代,人类该如何保持独立思考呢?
AI“思维外包”暗藏隐患
正如上述会议所探讨的,大模型、智能体等AI应用已经在包括科研在内的多个领域广泛助力人类的生产生活,推动学术研究和生产生活的质量与效率提升,但其带来的技术红利背后也隐藏着问题。一些新的研究表明,过度依赖AI模型可能会引发“AI脑雾”,降低工作动力。
美国麻省理工学院的研究显示,长期使用AI会导致认知能力下滑。研究人员对受试者进行脑电图扫描后发现,与未使用AI工具的人相比,长期使用AI大语言模型的人大脑神经连接数量减少,影响到语言和行为等方面。微软和卡内基-梅隆大学的研究也有类似发现,生成式AI会削弱批判性思维能力,造成过度依赖,可能降低人们独立解决问题的能力。
研究人员认为,开发者在设计生成式AI工具时,要有支持用户提升批判性思维的意识,比如提示需要验证的场景。特别是在设计法律文书、医疗建议等高风险任务时,应强制弹出验证提醒(如“请核对AI引用的法规条款”)等,标注潜在风险,打破用户认为AI“无所不知”的认知误区。
浙江大学管理学院吴苏青团队今年在英国《科学报告》杂志发表的研究还指出,AI的应用导致认知需求出现“空心化”。当AI完成工作中需要深度思考的部分,人类仅剩下机械性的执行工作,工作变成“被动填空”,可能会导致心理疏离,丧失工作动力。这就要求企业、政府部门等在部署AI时要“放慢速度”,可以先进行小范围试点,可控推进,同时观察其对员工积极性和创造力的影响。
人们为何“轻信”AI
人们越来越依赖AI,源于近年来AI在专业化能力和交互便捷性方面的巨大进步:它生成内容的专业程度,让很多人将其视为专家,而对话式的交互方式让它仿佛是一位学识渊博、能畅所欲言的“好友”,更容易让人产生心理依赖和信任。
如今,AI大模型“即开即用”的便捷性,进一步降低了使用门槛。由于缺乏基本的AI素养教育,使用者对AI本身的技术缺陷认识不足,更容易“轻信”它。英国高等法院今年6月要求律师采取紧急措施,防止AI被滥用,原因是有几份可能由AI生成的虚假案例引用被提交到法庭。今年由美国卫生与公众服务部牵头,“让美国再次健康”委员会发布的儿童慢性病报告也因使用了生成式AI内容而出现重大引用错误。
荷兰阿姆斯特丹大学研究人员詹姆斯·皮尔逊表示,AI极大地推动了科研进程,例如可用于绘制蛋白质结构、研发新型抗生素,还能加快文献综述等环节的速度。但当AI产生的“幻觉”出现在论文评审或研究中时,十分令人担忧,AI还可能带有其训练数据中存在的偏见,进而加剧种族、性别等不平等问题。
“我们在使用AI的同时,也把判断力一并交给了它,不再验证AI给出的答案,不再反思使用AI的过程。无条件接受AI提供的任何信息,会导致人的主观能动性降低,深度阅读思考和表达能力也会随之退化。”科幻作家、中国作协科幻文学委员会副主任陈楸帆在接受新华社记者采访时说道。
建立思维的“AI缓冲带”
未来,AI肯定会更深入地融入我们的工作和生活。在这个人机共生的新时代,与AI相处需要更具智慧。美国AI教育公司Section 4首席执行官格雷格·肖夫预测,未来10年,使用AI的知识型劳动者将分化为两类群体:“AI乘客”和“AI驾驭者”。
“AI乘客”乐意将自身的认知工作全部交给AI处理,短期内可能因工作效率提高而获得认可。但随着AI能力的不断升级,这些人最终会被AI取代。而“AI驾驭者”则坚持掌控AI的运作,把AI生成的内容当作初稿,对结果进行严格核查,有时还会关闭AI独立思考。
“我们需要在不同的学习和工作场景中,学会分辨哪些场景适合使用AI,哪些场景需要人类进行有效辅助,判断和甄别AI给出的结果。”陈楸帆持有相同观点。在他看来,人们应该对自己的心智和认知掌握主动权,有意识地建立一个“AI缓冲带”,即面对新问题时,先从自己的角度给出答案,再借助AI进行深化和拓展。
“我们甚至可以进行‘对抗性生成’,即当AI给出与自己观点高度契合的答案时,要有批判性思维去质疑,究竟是我受到了AI的影响,还是AI在我的不断训练下,变得越来越相似?我们能否跳出思维定式做出不同的选择,给出AI想不到的答案。”他说。
