香港中科院发布聆音大模型,400万张图喂出个“AI超声神医”

AIGC动态3小时前发布 AIGCOPEN
42 0 0
香港中科院发布聆音大模型,400万张图喂出个“AI超声神医”

 

文章摘要


【关 键 词】 人工智能超声诊断自监督学习医疗创新开源模型

中国科学院香港创新研究院人工智能与机器人创新中心(CAIR)发布的超声大模型“聆音”(EchoCare)标志着医疗AI领域的重大突破。该模型基于全球规模最大的超声数据集(超过400万张图像),通过自监督学习框架实现了多项诊断任务的性能超越。超声检查因其安全性、实时性和低成本成为临床首选,但其诊断质量高度依赖医生操作经验,导致结果存在主观差异。传统超声AI因数据规模小、来源单一而难以投入临床,EchoCare通过构建覆盖全球23个地区、38种设备、4大人种的多样化数据集(EchoAtlas),从根本上解决了数据瓶颈问题。

自监督学习技术的创新应用是模型成功的核心。不同于传统监督学习依赖人工标注,EchoCare采用结构化对比自监督框架,通过预测图像遮挡部分和分层解剖分类任务,使AI自主掌握超声图像的深层规律。这种方法不仅降低了标注成本,更让模型具备类似医生的全局认知能力——能同时理解局部像素特征与器官的空间关系。研究团队还首创性地将医学先验知识融入训练过程,为AI构建了解剖学层次结构的知识图谱。

临床验证数据显示,EchoCare在多项关键任务中显著超越现有水平。在山东大学齐鲁医院的1556例卵巢肿瘤检测中,模型灵敏度达85.6%(提升8%),特异度88.7%;中南大学湘雅医院的甲状腺结节测试显示,其良恶性分类灵敏度突破90.5%,平均精度提高5%。香港中文大学的实时演示进一步证明,模型能快速识别心脏超声视频中的主动脉瘤并自动生成报告。跨机构的回溯性研究证实,该模型在器官分割、病变检测等七大类任务中,性能平均优于现有最高水平3%-5%。

CAIR宣布全面开源模型、代码及数据集,这一举措将加速全球超声AI研究。结合自主研发的“超声助手”机器人,团队正在构建智能诊疗系统:机器人自主完成标准化扫描,AI实时分析图像,医生专注决策判断。这种模式不仅能消除地域间的医疗资源差距,更可能重塑诊疗流程——当AI掌握专家级经验时,基础诊断的普惠性将得到质的提升。从数据规模到技术框架,从临床效果到应用生态,EchoCare的突破性进展预示着医疗AI正从辅助工具向核心生产力演进。

原文和模型


【原文链接】 阅读原文 [ 2198字 | 9分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...