EJNMMI | 可解釋機器學習新方法提升肺結節(jié)良惡性診斷精度
近日,中國科學院深圳先進技術研究院醫(yī)學成像科學與技術系統(tǒng)全國重點實驗室、醫(yī)工所影像中心孫濤副研究員團隊,聯(lián)合中國醫(yī)學科學院腫瘤醫(yī)院深圳醫(yī)院、河南省人民醫(yī)院,圍繞動態(tài) [1?F]FDG PET/CT 成像,提出了一種融合血流與代謝動態(tài)特征的可解釋機器學習方法,顯著提高了對肺部結節(jié)良惡性的分類準確性。相關成果以題為 “Leveraging machine learning with dynamic 18F-FDG PET/CT: integrating metabolic and flow features for lung cancer differential diagnosis” 發(fā)表在醫(yī)學影像與核醫(yī)學領域權威期刊European Journal of Nuclear Medicine and Molecular Imaging。
研究亮點
在肺結節(jié)影像診斷中,提升良惡性鑒別的準確性始終是醫(yī)學影像與核醫(yī)學的重要研究方向。傳統(tǒng)的CT結構影像的參數(shù)與PET的SUVmax參數(shù)在肺癌診斷中存在一定局限,且依賴于復雜的動力學建模。該研究創(chuàng)新性地將病灶的時間-活度曲線(TAC)分解為血流(Cb)、游離態(tài)(Cf)和代謝態(tài)(Cm)三部分,分別提取關鍵動態(tài)特征,如峰值、斜率、AUC等,構建可解釋的分類特征集合。
研究基于Bagging集成學習方法,結合LASSO特征篩選和SHAP值可解釋性分析,構建了肺結節(jié)良惡性預測模型。在187例訓練集上,模型AUC達到0.89,在42例獨立驗證集上AUC也達到0.86,均顯著優(yōu)于SUVmax(0.79)和Ki(0.76)(圖2)。預測分數(shù)在良惡性人群中差異顯著(p < 0.001),Cohen's效應量高達1.71。
該模型在短軸的GE DMI PET/CT設備和長軸的聯(lián)影uEXPLORER PET/CT設備上均表現(xiàn)穩(wěn)定,展示出良好的泛化能力。此外,模型推理時間僅10秒以內,特征提取約8秒/例,完全可集成于臨床流程,具備落地潛力。最后,模型輸出不僅限于預測結果,更通過可解釋分析展示了每個動態(tài)特征在單個病人中的診斷貢獻(圖3),讓醫(yī)生“看得懂、用得上”。
應用前景
該研究為動態(tài)PET在肺癌良惡性鑒別中的應用提供了新型可解釋性手段,尤其適用于靜態(tài)顯像模糊、腫瘤標志物陰性、或高假陽性風險的復雜病例。未來計劃進一步縮短掃描時間、與CT特征融合、開展多中心驗證等推動臨床轉化。
本研究由中國科學院深圳先進技術研究院孫濤副研究員、中國醫(yī)學科學院腫瘤醫(yī)院深圳醫(yī)院核醫(yī)學科梁穎主任,聯(lián)合河南省人民醫(yī)院王梅云副院長團隊共同完成。深圳先進院南科大聯(lián)培學生姚志恒、腫瘤醫(yī)院王禹博醫(yī)師為共同第一作者。本研究受到中國科學院、科技部、深圳市和廣東省的項目支持。
圖1:文章上線截圖
圖2:可解釋機器學習模型(TAC features)在本地(a)及外部驗證數(shù)據(jù)(b)中均優(yōu)于常規(guī)定量方法,顯著提升了分類診斷性能
圖3:個體動態(tài)影像特征的重要性排序分析,輔助臨床理解
附件下載: