首页 > 热闻 >

研究发现聊天机器人无法胜任多语言医疗顾问的工作

发布时间:2024-05-29 10:36:57来源:

佐治亚理工学院的研究人员表示,非英语人士不应该依赖 ChatGPT 等聊天机器人来提供有价值的医疗保健建议。

佐治亚理工学院计算机学院的一组研究人员开发了一个用于评估大型语言模型 (LLM) 能力的框架。博士生 Mohit Chandra 和 Yiqiao (Ahren) Jin 是论文《最好用英语提问:跨语言评估用于医疗保健查询的大型语言模型》的共同主要作者。该论文发表在arXiv预印本服务器上。

他们的论文研究结果揭示了法学硕士与回答健康相关问题的能力之间存在差距。Chandra 和 Jin 指出了法学硕士对用户和开发者的局限性,但也强调了其潜力。

他们的 XLingEval 框架告诫非英语人士不要使用聊天机器人代替医生寻求建议。不过,通过使用多语言源材料(例如他们提出的 XLingHealth 基准)深化数据库,模型可以得到改进。

金表示:“对于用户来说,我们的研究支持了 ChatGPT 网站已经指出的观点:聊天机器人会犯很多错误,所以我们不应该依赖它们进行关键决策或获取需要高精度的信息。”佐治亚理工学院的研究人员表示,非英语人士不应该依赖 ChatGPT 等聊天机器人来提供有价值的医疗保健建议。

佐治亚理工学院计算机学院的一组研究人员开发了一个用于评估大型语言模型 (LLM) 能力的框架。博士生 Mohit Chandra 和 Yiqiao (Ahren) Jin 是论文《最好用英语提问:跨语言评估用于医疗保健查询的大型语言模型》的共同主要作者。该论文发表在arXiv预印本服务器上。

他们的论文研究结果揭示了法学硕士与回答健康相关问题的能力之间存在差距。Chandra 和 Jin 指出了法学硕士对用户和开发者的局限性,但也强调了其潜力。

他们的 XLingEval 框架告诫非英语人士不要使用聊天机器人代替医生寻求建议。不过,通过使用多语言源材料(例如他们提出的 XLingHealth 基准)深化数据库,模型可以得到改进。

金表示:“对于用户来说,我们的研究支持了 ChatGPT 网站已经指出的观点:聊天机器人会犯很多错误,所以我们不应该依赖它们进行关键决策或获取需要高精度的信息。”

(责编: BAZHONG)

版权声明:网站作为信息内容发布平台,为非经营性网站,内容为用户上传,不代表本网站立场,不承担任何经济和法律责任。文章内容如涉及侵权请联系及时删除。