論文の概要: Large-scale automatic carbon ion treatment planning for head and neck cancers via parallel multi-agent reinforcement learning
- arxiv url: http://arxiv.org/abs/2511.02314v1
- Date: Tue, 04 Nov 2025 06:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.836999
- Title: Large-scale automatic carbon ion treatment planning for head and neck cancers via parallel multi-agent reinforcement learning
- Title(参考訳): マルチエージェント強化学習による頭頸部癌に対する大規模自動炭素イオン治療計画
- Authors: Jueye Zhang, Chao Yang, Youfang Lai, Kai-Wen Li, Wenting Yan, Yunzhou Xia, Haimei Zhang, Jingjing Zhou, Gen Yang, Chen Lin, Tian Li, Yibao Zhang,
- Abstract要約: Intensity-modulated carbon-ion therapy (IMCT) は、高用量適合性とOARスペーシングを提供するが、相対的生物学的有効性(RBE)モデルにより遅いままである。
近年のディープラーニング(DL)手法は,データバイアスと計画実現可能性によって制限されている。
IMCTにおける45TPPの並列チューニングのためのスケーラブルなマルチエージェントRL(MARL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.599617076883613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Head-and-neck cancer (HNC) planning is difficult because multiple critical organs-at-risk (OARs) are close to complex targets. Intensity-modulated carbon-ion therapy (IMCT) offers superior dose conformity and OAR sparing but remains slow due to relative biological effectiveness (RBE) modeling, leading to laborious, experience-based, and often suboptimal tuning of many treatment-planning parameters (TPPs). Recent deep learning (DL) methods are limited by data bias and plan feasibility, while reinforcement learning (RL) struggles to efficiently explore the exponentially large TPP search space. We propose a scalable multi-agent RL (MARL) framework for parallel tuning of 45 TPPs in IMCT. It uses a centralized-training decentralized-execution (CTDE) QMIX backbone with Double DQN, Dueling DQN, and recurrent encoding (DRQN) for stable learning in a high-dimensional, non-stationary environment. To enhance efficiency, we (1) use compact historical DVH vectors as state inputs, (2) apply a linear action-to-value transform mapping small discrete actions to uniform parameter adjustments, and (3) design an absolute, clinically informed piecewise reward aligned with plan scores. A synchronous multi-process worker system interfaces with the PHOENIX TPS for parallel optimization and accelerated data collection. On a head-and-neck dataset (10 training, 10 testing), the method tuned 45 parameters simultaneously and produced plans comparable to or better than expert manual ones (relative plan score: RL $85.93\pm7.85%$ vs Manual $85.02\pm6.92%$), with significant (p-value $<$ 0.05) improvements for five OARs. The framework efficiently explores high-dimensional TPP spaces and generates clinically competitive IMCT plans through direct TPS interaction, notably improving OAR sparing.
- Abstract(参考訳): 頭部頸部癌(HNC)の計画は、複数の重篤臓器(OAR)が複雑な標的に近いため困難である。
IMCT(Intensity-modulated carbon-ion therapy)は、高用量適合性とOARスペーシングを提供するが、相対的生物学的有効性(RBE)モデリングにより、遅いままであり、多くの治療計画パラメータ(TPP)の、退屈で経験に基づく、しばしば最適でないチューニングをもたらす。
近年の深層学習 (DL) 法はデータバイアスと計画実現可能性によって制限されているが, 強化学習 (RL) は指数関数的に大きいTPP探索空間を効率的に探索するのに苦労している。
IMCTにおける45TPPの並列チューニングのためのスケーラブルなマルチエージェントRL(MARL)フレームワークを提案する。
集中学習型分散実行(CTDE)QMIXバックボーンとDouble DQN, Dueling DQN, Recurrent encoding (DRQN)を用いて,高次元非定常環境下での安定した学習を行う。
効率を高めるために,(1)コンパクトな歴史的DVHベクトルを状態入力として使用し,(2)一様パラメータ調整に小さな離散的なアクションを線形にマッピングし,(3)プランスコアに整合した絶対的,臨床的に情報を得た報酬を設計する。
並列最適化と高速化データ収集のためにPHOENIX TPSとの同期マルチプロセスワーカーシステム。
ヘッド・アンド・ネックのデータセット(10トレーニング、10テスト)では、45のパラメータを同時に調整し、専門家のマニュアルと同等以上の計画(相対計画スコア: RL 8,5.93\pm7.85%$ vs Manual 8,5.02\pm6.92%$)を作成した。
このフレームワークは、高次元TPP空間を効率的に探索し、直接TPS相互作用、特にOARスペーシングの改善を通じて、臨床競争力のあるIMCT計画を生成する。
関連論文リスト
- A learning-driven automatic planning framework for proton PBS treatments of H&N cancers [2.0765076553348316]
逆パラメータは、タスク固有のデータ分布から学習することで更新ステップを予測する学習最適化(L2O)手法である。
実験では、両側または同側性H&N癌に合併した97人の患者を訓練と検査のために収集した。
論文 参考訳(メタデータ) (2025-08-14T21:50:31Z) - Automated Treatment Planning for Interstitial HDR Brachytherapy for Locally Advanced Cervical Cancer using Deep Reinforcement Learning [3.9838929530763076]
本研究の目的は、完全に自動化されたHDRブラキセラピー計画フレームワークを開発することである。
階層的な2段階自動計画フレームワークを提案する。
未確認の患者では、RLベースの自動計画法が平均93.89%を達成し、平均91.86%の臨床計画を上回りました。
論文 参考訳(メタデータ) (2025-06-13T17:07:30Z) - Patient-Specific Deep Reinforcement Learning for Automatic Replanning in Head-and-Neck Cancer Proton Therapy [8.677300387603356]
頭頸部癌(HNC)に対するIMPT治療中の解剖学的変化は、ブラッグピークをシフトさせ、腫瘍のアンダードと臓器-アット・リスクオーバードーシングのリスクを負う。
本稿では,IMPT自動更新のための患者固有の深層強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-11T18:00:06Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Offline Behavior Distillation [57.6900189406964]
大規模な強化学習(RL)データは通常、インタラクションを必要とせずにポリシをオフラインにトレーニングするために収集される。
準最適RLデータから限られた専門家の行動データを合成するオフライン行動蒸留(OBD)を定式化する。
そこで本研究では, 蒸留データとオフラインデータ, ほぼ専門的ポリシーのいずれにおいても, 蒸留性能を判断的差異によって測定する2つの単純OBD目標であるDBCとPBCを提案する。
論文 参考訳(メタデータ) (2024-10-30T06:28:09Z) - Solving Continual Offline Reinforcement Learning with Decision Transformer [78.59473797783673]
連続的オフライン強化学習(CORL)は、連続的およびオフライン的な強化学習を組み合わせたものである。
Actor-Critic構造とエクスペリエンス・リプレイ(ER)を取り入れた既存の手法は、分散シフト、低効率、知識共有の弱さに悩まされている。
我々は,マルチヘッドDT (MH-DT) とローランク適応DT (LoRA-DT) を導入し,DTの無視問題を緩和する。
論文 参考訳(メタデータ) (2024-01-16T16:28:32Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。