iconLogo
Published:2025/8/22 20:20:35

ICDコーディング、LLMで未来開く✨

  1. タイトル & 超要約: ICDコーディングの透明化!LLMで医療ITをアゲる🚀

  2. ギャル的キラキラポイント:✨

    • ● AIの診断、根拠が丸見え💖透明感爆上がり!
    • ● LLM(大規模言語モデル)が根拠を生成、マジ優秀👏
    • ● 医療IT企業、爆益の予感…!💰
  3. 詳細解説:

    • 背景: 医療のデータって、ICD(国際疾病分類)コードで整理されてるんだけど、AIがそれを自動でやるのが、最近のスゴ技✨ でも、AIがなんでそのコードにしたのか、説明が足りないことがあったの😭
    • 方法: 高品質なデータセットを使って、AIが「なんでこのコードにしたか」っていう根拠を学習させたんだって! しかも、LLMっていう優秀なAIを使って、根拠を生成できるようにしたらしい👏
    • 結果: AIが「私、こう考えたからこのコードにしたの!」って説明してくれるようになった! 専門家も「なるほど!」って納得できるレベルみたい😳
    • 意義: これ、IT企業にとってはめっちゃチャンス到来!AIの判断が透明になることで、医療機関とか患者さんからの信頼度が爆上がりするじゃん? そしたら、新しいサービスとかアプリが作れるし、IT企業が医療分野で大活躍できるってワケ😍
  4. リアルでの使いみちアイデア:💡

    • 医療機関向け: 医師がAIの診断結果と根拠を同時に確認できる、診断支援ツールとか最高じゃない?
    • 患者向け: 自分の病気について、AIが分かりやすく説明してくれるアプリがあったら、安心だよね😊
  5. もっと深掘りしたい子へ:🔍

    • LLM
    • ICDコーディング
    • 説明可能性

続きは「らくらく論文」アプリで

Evaluation and LLM-Guided Learning of ICD Coding Rationales

Mingyang Li / Viktor Schlegel / Tingting Mu / Wuraola Oyewusi / Kai Kang / Goran Nenadic

Automated clinical coding involves mapping unstructured text from Electronic Health Records (EHRs) to standardized code systems such as the International Classification of Diseases (ICD). While recent advances in deep learning have significantly improved the accuracy and efficiency of ICD coding, the lack of explainability in these models remains a major limitation, undermining trust and transparency. Current explorations about explainability largely rely on attention-based techniques and qualitative assessments by physicians, yet lack systematic evaluation using consistent criteria on high-quality rationale datasets, as well as dedicated approaches explicitly trained to generate rationales for further enhancing explanation. In this work, we conduct a comprehensive evaluation of the explainability of the rationales for ICD coding through two key lenses: faithfulness that evaluates how well explanations reflect the model's actual reasoning and plausibility that measures how consistent the explanations are with human expert judgment. To facilitate the evaluation of plausibility, we construct a new rationale-annotated dataset, offering denser annotations with diverse granularity and aligns better with current clinical practice, and conduct evaluation across three types of rationales of ICD coding. Encouraged by the promising plausibility of LLM-generated rationales for ICD coding, we further propose new rationale learning methods to improve the quality of model-generated rationales, where rationales produced by prompting LLMs with/without annotation examples are used as distant supervision signals. We empirically find that LLM-generated rationales align most closely with those of human experts. Moreover, incorporating few-shot human-annotated examples not only further improves rationale generation but also enhances rationale-learning approaches.

cs / cs.AI