タイトル & 超要約:医療AIで未来を予測!Curiosity爆誕✨
🌟 ギャル的キラキラポイント✨ ● 過去の医療記録(カルテ)から、未来の病気をズバッと予測しちゃうんだって!🔮 ● AIが先生の代わりに、色んな診断とか治療をサポートしてくれるから、医療がもっと身近になるかも😳 ● モデルのサイズを大きくしたり、データ量を増やせば増やすほど、精度が上がるっていうのがスゴくない?📈
詳細解説 ● 背景 医療の世界では、AIを使って患者さんの情報を分析して、もっと良い医療を提供したいって思ってるのね!👩⚕️ でも、今までのやり方じゃ、色んなデータに対応できなかったり、予測がイマイチだったりしたみたい😢 ● 方法 そこで登場したのが「Curiosity」!😍 過去の検査結果とか、お薬の情報とかをAIが学習して、将来どんな病気になるかとか、どんな治療が良いかを予測してくれるんだって! しかも、色んなことに対応できるからスゴイ👏 ● 結果 Curiosityは、色んな臨床タスク(診断とか治療とか)で、今までのAIよりも良い結果を出してるんだって!🎉 モデルのサイズとか、データ量を増やすと、どんどん精度が上がるから、これからもっとすごくなる予感💖 ● 意義(ここがヤバい♡ポイント) Curiosityを使えば、先生の負担が減って、患者さんももっと良い治療を受けられるようになるかもしれない!✨ しかも、医療費が安くなる可能性もあるから、みんなにとって良いことづくしじゃん?😎
リアルでの使いみちアイデア💡
もっと深掘りしたい子へ🔍 キーワード
続きは「らくらく論文」アプリで
Realizing personalized medicine at scale calls for methods that distill insights from longitudinal patient journeys, which can be viewed as a sequence of medical events. Foundation models pretrained on large-scale medical event data represent a promising direction for scaling real-world evidence generation and generalizing to diverse downstream tasks. Using Epic Cosmos, a dataset with medical events from de-identified longitudinal health records for 16.3 billion encounters over 300 million unique patient records from 310 health systems, we introduce the Curiosity models, a family of decoder-only transformer models pretrained on 118 million patients representing 115 billion discrete medical events (151 billion tokens). We present the largest scaling-law study of medical event data, establishing a methodology for pretraining and revealing power-law scaling relationships for compute, tokens, and model size. Consequently, we pretrained a series of compute-optimal models with up to 1 billion parameters. Conditioned on a patient's real-world history, Curiosity autoregressively predicts the next medical event to simulate patient health timelines. We studied 78 real-world tasks, including diagnosis prediction, disease prognosis, and healthcare operations. Remarkably for a foundation model with generic pretraining and simulation-based inference, Curiosity generally outperformed or matched task-specific supervised models on these tasks, without requiring task-specific fine-tuning or few-shot examples. Curiosity's predictive power consistently improves as the model and pretraining scale. Our results show that Curiosity, a generative medical event foundation model, can effectively capture complex clinical dynamics, providing an extensible and generalizable framework to support clinical decision-making, streamline healthcare operations, and improve patient outcomes.