布里格姆和妇女医院的研究人员评估了 GPT-4 在临床决策中是否存在种族和性别偏见。他们发现,GPT-4 在生成患者案例、制定诊断和治疗计划,以及评估患者特征时存在明显的偏见。研究呼吁对大型语言模型进行偏见评估,以确保其在医学领域的应用不会加剧社会偏见。研究结果已发表在《柳叶刀数字健康》杂志上。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21866
该文观点仅代表作者本人,平台仅提供信息存储空间服务。
[db:摘要]
布里格姆和妇女医院的研究人员评估了 GPT-4 在临床决策中是否存在种族和性别偏见。他们发现,GPT-4 在生成患者案例、制定诊断和治疗计划,以及评估患者特征时存在明显的偏见。研究呼吁对大型语言模型进行偏见评估,以确保其在医学领域的应用不会加剧社会偏见。研究结果已发表在《柳叶刀数字健康》杂志上。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21866
该文观点仅代表作者本人,平台仅提供信息存储空间服务。