論文の概要: Simple Radiology VLLM Test-time Scaling with Thought Graph Traversal
- arxiv url: http://arxiv.org/abs/2506.11989v1
- Date: Fri, 13 Jun 2025 17:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.904184
- Title: Simple Radiology VLLM Test-time Scaling with Thought Graph Traversal
- Title(参考訳): シンクグラフトラバーサルを用いた簡易ラジオロジーVLLMテストタイムスケーリング
- Authors: Yue Yao, Zelin Wen, Yan Tong, Xinyu Tian, Xuqing Li, Xiao Ma, Dongliang Xu, Tom Gedeon,
- Abstract要約: テストタイムスケーリングは、追加のトレーニングなしで視覚言語による大規模モデル(VLLM)の推論性能を改善するための有望な方法を提供する。
医学的に整合した順序で臓器特異的な発見を通してモデルを推論するための軽量なThought Graph Traversalフレームワークを導入する。
このフレームワークは、構造化された医学的前提をプロンプトに統合し、基礎となるモデルを変更することなく、より深くより論理的な分析を可能にする。
- 参考スコア(独自算出の注目度): 13.163721600136835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time scaling offers a promising way to improve the reasoning performance of vision-language large models (VLLMs) without additional training. In this paper, we explore a simple but effective approach for applying test-time scaling to radiology report generation. Specifically, we introduce a lightweight Thought Graph Traversal (TGT) framework that guides the model to reason through organ-specific findings in a medically coherent order. This framework integrates structured medical priors into the prompt, enabling deeper and more logical analysis with no changes to the underlying model. To further enhance reasoning depth, we apply a reasoning budget forcing strategy that adjusts the model's inference depth at test time by dynamically extending its generation process. This simple yet powerful combination allows a frozen radiology VLLM to self-correct and generate more accurate, consistent chest X-ray reports. Our method outperforms baseline prompting approaches on standard benchmarks, and also reveals dataset biases through traceable reasoning paths. Code and prompts are open-sourced for reproducibility at https://github.com/glerium/Thought-Graph-Traversal.
- Abstract(参考訳): テストタイムスケーリングは、追加のトレーニングなしで視覚言語による大規模モデル(VLLM)の推論性能を改善するための有望な方法を提供する。
本稿では,テストタイムスケーリングをラジオロジーレポート生成に適用するための,単純かつ効果的なアプローチについて検討する。
具体的には,TGT(Thought Graph Traversal)フレームワークを導入する。
このフレームワークは、構造化された医学的前提をプロンプトに統合し、基礎となるモデルを変更することなく、より深くより論理的な分析を可能にする。
推論深度をさらに高めるため,実験時のモデル推論深度を動的に拡張して調整する推理予算強制戦略を適用した。
この単純な強力な組み合わせにより、凍結放射線学のVLLMは自己修正が可能となり、より正確で一貫した胸部X線レポートを生成する。
提案手法は,標準ベンチマークにおけるベースラインプロンプトアプローチよりも優れ,また,トレース可能な推論経路を通じてデータセットバイアスを明らかにする。
コードとプロンプトはhttps://github.com/glerium/Thought-Graph-Traversal.comで再現性のためにオープンソース化されている。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - High-Fidelity Pseudo-label Generation by Large Language Models for Training Robust Radiology Report Classifiers [0.2158126716116375]
DeBERTa-RADは、最先端のLLM擬似ラベル付けのパワーと、DeBERTaに基づく効率的な知識蒸留を組み合わせた、高精度で高速な胸部X線レポートラベリングのための新しいフレームワークである。
専門家によるMIMIC-500ベンチマークで、DeBERTa-RADは最先端のマクロF1スコア0.9120を達成している。
論文 参考訳(メタデータ) (2025-05-03T04:50:55Z) - Scaling Test-Time Compute Without Verification or RL is Suboptimal [70.28430200655919]
RL法や検索法に基づく検証器ベース (VB) 手法による微調整は, 一定量の計算・データ予算を条件として, 蒸留・クローニングに基づく検証器フリー (VF) 手法よりもはるかに優れていることを示す。
我々は,3/8Bの事前学習型LLMのドクティクスと数学推論の両問題に対して,我々の理論を実証的に相関させ,テスト時間計算のスケーリングには検証が不可欠であることを確認した。
論文 参考訳(メタデータ) (2025-02-17T18:43:24Z) - CXPMRG-Bench: Pre-training and Benchmarking for X-ray Medical Report Generation on CheXpert Plus Dataset [14.911363203907008]
X線画像に基づく医療報告生成は、診断上の負担と患者待ち時間を著しく削減することができる。
我々は、CheXpert Plusデータセット上で、既存の主流X線レポート生成モデルと大規模言語モデル(LLM)の包括的なベンチマークを行う。
自己教師付き自己回帰生成やX線レポートによるコントラスト学習を含む,多段階事前学習戦略を用いたX線画像生成のための大規模モデルを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:07:01Z) - X-ray Made Simple: Lay Radiology Report Generation and Robust Evaluation [21.425178466284017]
ラジオロジーレポート生成(RRG)はマルチモーダル生成モデルの開発で大きく進歩している。
既存の語彙ベースのメトリクスで高いパフォーマンスを持つRRGは、単なるミラージュです - モデルはレポートのテンプレートを学習することでのみ、高いBLEUを得ることができます。
本稿では,BLEUの膨らませた数を軽減し,より堅牢な評価を行うセマンティクスに基づく評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T19:52:01Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。