视听数据区分精神分裂症、双相情感障碍
(每日健康)视听数据可以区分精神分裂症疾病和双相情感障碍,据一项研究发表在1月的问题JMIR心理健康。
迈克尔·l·伯恩鲍姆,医学博士从格伦橡树Zucker山坡上医院,纽约,和同事检查是否可靠inferences-psychiatric迹象,症状,并使用视听diagnoses-can从视听模式中提取数据从89名参与者:41人精神分裂症谱系障碍,21个人双相情感障碍,27岁健康志愿者。
机器学习模型是基于声学和面部运动特征提取参与面试。模型性能评估使用接受者操作特征曲线下面积(AUROC) 5倍交叉验证。
研究人员发现,当聚合的脸和声音的特性,该模型成功地分化之间精神分裂症谱系障碍和双相情感障碍(AUROC, 0.73)。最强的信号对于男性被认为面部动作单元,包括cheek-raising肌肉和chin-raising肌肉(AUROCs,分别为0.64和0.74)。对于女性来说,最强的信号是所提供的特性,包括能量频带1到4 kHz和光谱调和性(AUROCs,分别为0.80和0.78)。
对于男性和女性,嘴唇corner-pulling肌肉信号诊断之间的歧视(AUROCs,分别为0.61和0.62)。成功推断某些精神病的症状和体征,包括情感迟钝、方案中,缺乏声音音调变化,无社会性,毫无价值(AUROCs, 0.81, 0.72, 0.71, 0.63,和0.61,分别)。
“集成视听数据可以改变心理健康临床医生诊断和监测患者,使更快,更准确的识别疾病和提高个性化的医学方法,”作者写道。
更多信息:迈克尔·伯恩鲍姆et al,声学和面部特征从机器上优于精神病诊断的临床访谈:算法的发展,JMIR心理健康(2022)。DOI: 10.2196/24699
版权©2022每日健康。保留所有权利。