論文の概要: Rethinking the Efficiency and Effectiveness of Reinforcement Learning for Radiology Report Generation
- arxiv url: http://arxiv.org/abs/2603.04022v1
- Date: Wed, 04 Mar 2026 12:57:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.31058
- Title: Rethinking the Efficiency and Effectiveness of Reinforcement Learning for Radiology Report Generation
- Title(参考訳): 放射線学レポート作成における強化学習の有効性と効果の再考
- Authors: Zilin Lu, Ruifeng Yuan, Weiwei Cao, Wanxing Chang, Zhongyu Wei, Sinuo Wang, Yong Xia, Ling Zhang, Jianpeng Zhang,
- Abstract要約: 本稿では,データ量と品質が医学的文脈における強化学習(RL)のパフォーマンスに与える影響について論じる。
そこで本研究では,より少ないサンプルで同等の性能を実現する診断的多様性に基づくデータサンプリング戦略を提案する。
本稿では,診断のためのF1スコアを報奨信号として利用することにより,臨床の精度を直接最適化する診断トークン重み付けポリシー最適化(DiTPO)を提案する。
- 参考スコア(独自算出の注目度): 43.67582796047454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiologists highly desire fully automated AI for radiology report generation (R2G), yet existing approaches fall short in clinical utility. Reinforcement learning (RL) holds potential to address these shortcomings, but its adoption in this task remains underexplored. In this paper, we revisit RL in terms of data efficiency and optimization effectiveness for R2G tasks. First, we explore the impact of data quantity and quality on the performance of RL in medical contexts, revealing that data quality plays a more critical role than quantity. To this end, we propose a diagnostic diversity-based data sampling strategy that enables comparable performance with fewer samples. Second, we observe that the majority of tokens in radiology reports are template-like and diagnostically uninformative, whereas the low frequency of clinically critical tokens heightens the risk of being overlooked during optimization. To tackle this, we introduce Diagnostic Token-weighted Policy Optimization (DiTPO), which directly optimizes for clinical accuracy by using a diagnostic F1 score as the reward signal. Unlike standard RL approaches that treat all tokens equally, DiTPO explicitly models the varying importance of different tokens through rule- or gradient-based mechanisms to prioritize clinically relevant content. Extensive experiments on the MIMIC-CXR, IU-Xray, and CheXpert Plus datasets demonstrate that our framework achieves state-of-the-art (SOTA) performance while requiring substantially fewer training samples in RL. Notably, on MIMIC-CXR, our framework attains an F1 score of 0.516 using only 20% of the RL training samples.
- Abstract(参考訳): 放射線医は、放射線学報告生成のための完全自動化AI(R2G)を強く望んでいるが、既存のアプローチは臨床的有用性に乏しい。
強化学習(Reinforcement Learning, RL)はこれらの欠点に対処する可能性を秘めている。
本稿では、R2Gタスクのデータ効率と最適化効率の観点から、RLを再考する。
まず,データ量と品質が医学的文脈におけるRLの性能に与える影響について検討し,データ品質が量よりも重要な役割を担っていることを明らかにした。
そこで本研究では,より少ないサンプルで同等の性能を実現する診断的多様性に基づくデータサンプリング戦略を提案する。
第2に,放射線学報告のトークンの大部分はテンプレート的かつ診断的に非形式的であるのに対して,臨床的に重要なトークンの低頻度は,最適化中に見落としのリスクを高める。
そこで本研究では,診断のためのF1スコアを報奨信号として利用することにより,臨床精度を直接最適化する診断トークン重み付けポリシー最適化(DiTPO)を提案する。
すべてのトークンを平等に扱う標準的なRLアプローチとは異なり、DiTPOは、臨床的に関係のあるコンテンツを優先順位付けするための規則または勾配に基づくメカニズムを通じて、異なるトークンの様々な重要性を明示的にモデル化する。
MIMIC-CXR、IU-Xray、CheXpert Plusのデータセットに対する大規模な実験は、我々のフレームワークが最先端(SOTA)のパフォーマンスを達成し、RLのトレーニングサンプルをかなり少なくすることを示した。
特にMIMIC-CXRでは,RLトレーニングサンプルの20%しか使用せず,F1スコアが0.516に達している。
関連論文リスト
- RL-BioAug: Label-Efficient Reinforcement Learning for Self-Supervised EEG Representation Learning [1.7893310647034184]
ラベル効率強化学習(RL)エージェントを利用して最適な拡張ポリシーを自律的に決定するフレームワークであるRL-BioAugを提案する。
実験の結果,RL-BioAugはランダム選択戦略よりも有意に優れていた。
我々のフレームワークは、従来の(10%)ベースの拡張を置き換え、データ拡張のための新しい自律パラダイムを確立する可能性を示唆している。
論文 参考訳(メタデータ) (2026-01-20T13:38:01Z) - A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - Revolutionizing Radiology Workflow with Factual and Efficient CXR Report Generation [0.0]
本稿では,胸部X線自動生成に特化して開発されたLLM中心の基盤モデルであるCXR-PathFinderを紹介する。
本稿では,専門的な臨床フィードバックを相手の学習フレームワークに統合する,ユニークな訓練パラダイムであるCGAFTを提案する。
我々の実験は、CXR-PathFinderが、様々なメトリクスで既存の最先端の医療ビジョン言語モデルを大幅に上回っていることを実証した。
論文 参考訳(メタデータ) (2025-06-01T18:47:49Z) - Enhancing Treatment Effect Estimation via Active Learning: A Counterfactual Covering Perspective [61.284843894545475]
治療効果推定のための複雑なアルゴリズムは、不十分なラベル付きトレーニングセットを扱う際には効果がない。
我々は,最適化目標をtextitFactual と textitCounterfactual Coverage Maximization に変換して,データ取得時の有効半径削減を実現するFCCMを提案する。
FCCMを他のベースラインに対してベンチマークすることは、完全に合成されたデータセットと半合成されたデータセットの両方にその優位性を示す。
論文 参考訳(メタデータ) (2025-05-08T13:42:00Z) - Machine Learning and statistical classification of CRISPR-Cas12a diagnostic assays [0.0]
CRISPRベースの診断は、現代の分子診断テストの限界に対処できるバイオセンシングツールとして注目を集めている。
我々は、CRISPRバイオセンシングデータを分類し、モデルデータセットの100%特異性を達成するために、長期間のメモリリカレントニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2025-01-08T10:59:36Z) - Electroencephalogram Emotion Recognition via AUC Maximization [0.0]
不均衡データセットは神経科学、認知科学、医学診断などの分野で大きな課題を提起する。
本研究は,DEAPデータセットにおけるライキングラベルを例として,イシュークラスの不均衡に対処する。
論文 参考訳(メタデータ) (2024-08-16T19:08:27Z) - DTR-Bench: An in silico Environment and Benchmark Platform for Reinforcement Learning Based Dynamic Treatment Regime [18.443316087890324]
強化学習(Reinforcement Learning, RL)は、個人化医療における動的治療体制(DTR)を最適化する可能性の認知度を高めている。
多様な医療シナリオをシミュレートするベンチマークプラットフォームであるtextitDTR-Benchを紹介した。
我々はこれらの設定の様々な最先端のRLアルゴリズムを評価し、特に実世界の課題の中でその性能を強調した。
論文 参考訳(メタデータ) (2024-05-28T21:40:00Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost
Functions [80.12620331438052]
深層学習は サイリコの何十億もの分子を 迅速にスクリーニングする 重要なツールとなりました
その重要性にもかかわらず、厳密なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける基底真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。
このような場合、クラス不均衡に対するロバスト性から、レシーバ動作特性(ROC)を直接最適化することを好んで論じる。
論文 参考訳(メタデータ) (2020-06-25T08:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。