如果您问医生是否要使用冰块治疗烧伤,他们会建议用冷水冲洗。即使是谷歌也会告诉您,极度寒冷会收缩血管,使烧伤恶化。
但如果问 ChatGPT 同样的问题,这一聊天机器人会告诉您,只要用毛巾裹着,用冰块也是可以的。
上述问题是澳大利亚研究人员用来测试聊天机器人提供医疗建议能力的一百个常见健康问题之一。
据《悉尼晨锋报》报导,研究员发现,该软件在被要求给出“是”或“否”的答案时相当准确,但当需要给出更多信息时就变得不可靠了。
澳大利亚联邦科学与工业研究组织(CSIRO)首席研究科学家、昆士兰大学副教授Bevan Koopman多年来一直在研究搜索引擎在医疗保健领域的应用。
他说,人们越来越多使用 ChatGPT 等工具获取医疗建议,尽管有充分的证据表明在网上寻求健康信息存在隐患。
他说:“这些模式出现得太快了……但大家并没有真正了解它们的性能如何,以及怎样最好地部署它们。”“归根结底,你想要的是可靠的医疗建议……而这些模式根本不适合做诊断之类的事情。”
这项研究将 ChatGPT 的回答与已知的正确回答进行了比较。当被要求给出是或否的答案时,ChatGPT 80% 的回答是正确的。但如果要提供佐证,准确率就会下降到 63%。如果允许回答“不确定”,准确率就会下降到 28%。
版权声明:
本文由看新闻网原创、编译或首发,并保留版权。转载必须保持文本完整,声明文章出自看新闻网并包含原文标题及链接。