中国出版传媒商报讯 7月10日,爱思唯尔基于对全球123个国家和地区近3000名科研人员和临床医生的调研发布《洞察2024:人工智能态度报告》(以下简称“报告”),全面呈现了受访者对人工智能(AI)的态度和期望。
报告显示,尽管AI在科研和医疗领域拥有巨大潜力,但目前其在科研人员和临床医生工作中的应用仍有限。受访者认为AI在加速知识发现、推动研究产出和节约成本方面具有巨大潜力,但确保AI基于高质量、可信赖的内容,并具备足够的透明度,是科研人员和临床医生眼中AI应用于其工作的前提条件。
报告在展现全球洞察的同时,也从多维度比较分析了中国、美国、印度三国的科研人员和临床医生对待AI的态度:熟悉AI的受访者中有54%自认为是AI活跃用户。但其中仅有31%的受访者出于特定工作目的而使用AI。中国受访者中,这一比例接近40%,高于美国的30%和印度的22%。仅有11%的受访者认为,自己非常熟悉AI或经常使用AI。在未使用过AI的受访者中,有67%的受访者预计未来2~5年内会使用AI,在中国受访者中这一比例高达84%,高于印度的76%和美国的53%。在谈及AI对科研和医学领域的影响时,中国受访者表现出更积极的态度,46%的受访者认为AI将对其工作领域产生积极影响,而美国和印度分别为28%和41%。
中国、美国、印度三国的受访者均认为,AI工具将帮助他们开展更多工作,但在使用可信赖的AI助手工具来阅读过往研究、识别知识差距、构想新的研究假设以进行实验的可能性方面仍存有差异。其中,中国受访者使用AI助手工具的可能性为96%,印度为100%,美国为84%。
在全球范围内,受访的科研人员和临床医生认为,AI能帮助他们及其机构的工作。94%的科研人员和96%的临床医生认为,AI将加速知识发现。92%的科研人员和96%的临床医生认为,AI将增加学术研究和医学研究的数量。92%的科研人员和临床医生认为,未来AI将为机构和企业节省成本。87%的科研人员和临床医生认为,AI将提高整体工作质量。85%的受访者认为,AI将为他们节约时间,使他们能够专注于更有价值的项目。
同时,他们也意识到AI可能带来的挑战,以及这些挑战可能对关键决策产生的负面影响。95%的科研人员和93%的临床医生认为,AI可能会被用于传播错误信息。86%的科研人员和85%的临床医生认为,AI可能导致严重错误。81%的科研人员担心AI会削弱批判性思维,82%的临床医生担心医生会过度依赖AI作出临床决策。80%的科研人员和79%的临床医生认为,AI有可能对社会造成危害。
报告进一步指出,为充分发挥AI潜力,科研人员和临床医生希望AI工具基于高质量、可信赖的内容,并对生成式AI工具的透明度提出了要求。透明度是关键,81%的科研人员和临床医生希望知悉他们使用的工具是否基于生成式AI。71%的科研人员和临床医生希望生成式AI工具提供的结果仅基于高质量、可信赖的内容。78%的科研人员和80%的临床医生希望知悉他们收到的论文同行评议是否使用了生成式AI。如果AI工具基于高质量、可信赖的内容,并且贯彻负责任的AI原则,89%的科研人员表示愿意使用此类工具生成论文综述,而94%的临床医生表示他们会使用AI来评估症状、诊断疾病。(陆云)