调查发现,五分之一的全科医生使用 ChatGPT 等人工智能来完成日常任务

2024-09-19 币安交易所

一项调查显示,五分之一的全科医生正在使用 ChatGPT 等人工智能 (AI) 工具来帮助完成预约后为患者写信等任务。

该调查发表在《BMJ 健康与护理信息学》杂志上,对 1,006 名全科医生进行了调查。他们被问到是否在临床实践中使用过任何形式的人工智能聊天机器人,例如 ChatGPT、Bing AI 或 Google 的 Gemini,然后被问及他们使用这些工具的用途。

五分之一的受访者表示,他们在临床实践中使用过生成式人工智能工具,其中近三分之一 (29%) 表示,他们在患者预约后使用这些工具生成文档,而 28% 的受访者表示,他们曾使用这些工具生成文档。使用这些工具提出不同的诊断。

四分之一的受访者表示,他们曾使用人工智能工具为患者提出治疗方案建议。这些人工智能工具(例如 ChatGPT)的工作原理是针对向软件提出的问题生成书面答案。

研究人员表示,研究结果表明“全科医生可以从这些工具中获得价值,特别是在管理任务和支持临床推理方面”。

然而,研究人员继续质疑这些正在使用的人工智能工具是否可能存在损害和破坏患者隐私的风险,“因为尚不清楚生成人工智能背后的互联网公司如何使用他们收集的信息”。

他们补充道:“虽然这些聊天机器人越来越成为监管工作的目标,但目前尚不清楚立法将如何在临床实践中以实际方式与这些工具相结合。”

医疗防御联盟的医疗法律顾问艾莉·梅恩博士表示,全科医生使用人工智能可能会引发包括不准确和患者保密等问题。

“这是一项有趣的研究,与我们为 MDU 成员提供咨询的经验一致,”Mein 说。 “对于医疗保健专业人员来说,想要找到更明智地工作来应对所面临压力的方法是很自然的。除了 BMJ 论文中确定的用途之外,我们还发现一些医生正在求助于人工智能程序来帮助他们起草投诉回复。我们已就由此引发的问题向 MDU 成员发出警告,包括不准确和患者机密性。还有数据保护方面的考虑。”

她补充道:“在处理患者投诉时,人工智能起草的回复可能听起来似乎有道理,但可能包含不准确之处,并引用了不正确的指导方针,当这些指导方针融入到非常雄辩的文本段落中时,很难被发现。医生以合乎道德的方式使用人工智能并遵守相关指南和法规至关重要。显然,这是一个不断发展的领域,我们同意作者的观点,即当前和未来的医生需要更多地认识到在工作中使用人工智能的好处和风险。”

风险提示

登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。

本站为您提供币安交易所官网的注册地址、加密货币及区块链的科普文章以及行业资讯等内容.