論文の概要: A learning-driven automatic planning framework for proton PBS treatments of H&N cancers
- arxiv url: http://arxiv.org/abs/2508.11085v2
- Date: Mon, 15 Sep 2025 17:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.323712
- Title: A learning-driven automatic planning framework for proton PBS treatments of H&N cancers
- Title(参考訳): H&N癌に対するプロトンPBS治療のための学習駆動型自動計画フレームワーク
- Authors: Qingqing Wang, Liqiang Xiao, Chang Chang,
- Abstract要約: 逆パラメータは、タスク固有のデータ分布から学習することで更新ステップを予測する学習最適化(L2O)手法である。
実験では、両側または同側性H&N癌に合併した97人の患者を訓練と検査のために収集した。
- 参考スコア(独自算出の注目度): 2.0765076553348316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Proton pencil beam scanning (PBS) treatment planning for head & neck (H&N) cancers involves numerous conflicting objectives, requiring iterative objective parameter adjustments to balance multiple clinical goals. We propose a learning-driven inverse optimizer and integrate it into a proximal policy optimization (PPO)-based planning framework to automatically generate high-quality plans for patients with diverse treatment requirements. The inverse optimizer is a learning-to-optimize (L2O) method that predicts update steps by learning from task-specific data distributions. For the first time, long-context processing techniques developed for large language models (LLMs) are utilized to address the scalability limitations of existing L2O methods, enabling simultaneous optimization over a substantially large set of variables. The PPO framework functions as an outer-loop virtual planner, autonomously adjusting objective parameters through a policy network, and the inner-loop L2O inverse optimizer computes machine-deliverable spot monitor unit (MU) values based on the PPO-refined objectives. Moreover, a Swin UnetR dose predictor is trained with prescription- and beam-specific information to estimate the initial objective parameters. In our experiments, total 97 patients with bilateral or ipsilateral H&N cancers are collected for training and testing. Compared with the second-order gradient-based methods, our L2O optimizer improves the effectiveness and efficiency of the time-consuming inverse optimization by 22.97% and 36.41%, respectively, and in conjunction with the PPO-based virtual planner, plans are generated within clinically acceptable times, i.e. 2.55 hours in average, and shows improved or comparable organs-at-risk sparing with superior target coverage compared with human-generated plans.
- Abstract(参考訳): 頭頸部癌(H&N)に対するプロトン鉛筆ビームスキャン(PBS)治療計画には、複数の臨床的目標のバランスをとるために反復的目標パラメータ調整が必要である。
そこで我々は,学習駆動逆最適化システムを提案し,それをPPOベースの計画フレームワークに統合し,多彩な治療要件を持つ患者のための高品質な計画を自動的に生成する。
逆オプティマイザは、タスク固有のデータ分布から学習することで更新ステップを予測する学習最適化(L2O)手法である。
大規模言語モデル(LLM)向けに開発された長期コンテキスト処理技術は,従来のL2O手法のスケーラビリティ限界に対処するために初めて利用され,かなり大きな変数集合に対する同時最適化が可能となった。
PPOフレームワークは、ポリシーネットワークを介して目標パラメータを自律的に調整する外ループ仮想プランナとして機能し、インナーループL2O逆オプティマイザは、PPO修正対象に基づいて、マシン配信可能なスポットモニタユニット(MU)値を演算する。
さらに、Swin UnetR線量予測器に処方およびビーム固有情報を訓練し、初期目標パラメータを推定する。
本実験では, 両側および両側のH&N癌患者97名を対象に, 訓練, 検査を行った。
L2Oオプティマイザは, 2次勾配法と比較して, 時間的逆最適化の有効性と効率を22.97%, 36.41%向上させ, PPOベースの仮想プランナーと組み合わせて, 平均2.55時間, 臨床的に許容できる時間内に計画が作成され, 人為的な計画よりも優れた目標範囲を有する臓器・リスク空間が改善または同等であることを示す。
関連論文リスト
- Automated Treatment Planning for Interstitial HDR Brachytherapy for Locally Advanced Cervical Cancer using Deep Reinforcement Learning [3.9838929530763076]
本研究の目的は、完全に自動化されたHDRブラキセラピー計画フレームワークを開発することである。
階層的な2段階自動計画フレームワークを提案する。
未確認の患者では、RLベースの自動計画法が平均93.89%を達成し、平均91.86%の臨床計画を上回りました。
論文 参考訳(メタデータ) (2025-06-13T17:07:30Z) - Autonomous Radiotherapy Treatment Planning Using DOLA: A Privacy-Preserving, LLM-Based Optimization Agent [2.1986172572830096]
Dose Optimization Language Agent (DOLA) は、放射線治療計画の最適化を目的とした、LLMベースの自律型大規模言語モデルである。
DOLAはLLaMa3.1 LLMを商業的な治療計画システムと直接統合している。
完全に安全なインフラで 稼働しています
論文 参考訳(メタデータ) (2025-03-21T22:01:19Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - Automating proton PBS treatment planning for head and neck cancers using policy gradient-based deep reinforcement learning [0.7519872646378836]
本稿では,PPOアルゴリズムと線量分布に基づく報酬関数を用いた自動治療計画モデルを提案する。
実験的なルールのセットは、ターゲットのボリュームとリスクのある臓器から補助的な計画構造を作成するために使用される。
PPOを用いて訓練された意思決定ポリシーネットワークを開発し、連続的な行動空間において、関連する計画目標パラメータを反復的に調整する。
論文 参考訳(メタデータ) (2024-09-17T22:01:56Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Sample-efficient Iterative Lower Bound Optimization of Deep Reactive
Policies for Planning in Continuous MDPs [27.41101006357176]
本研究では,最小化-最大化の観点から反復的に最適化する。
w.r.t.は局所的に厳密な下界の目的である。
反復的下界最適化(ILBO)としての学習の新たな定式化は、(i)各ステップが全体目標よりも構造的に容易に最適化できるため、特に魅力的である。
実験的な評価により、ILBOは最先端のプランナーよりもはるかに試料効率が高いことが確認された。
論文 参考訳(メタデータ) (2022-03-23T19:06:16Z) - Resource Planning for Hospitals Under Special Consideration of the
COVID-19 Pandemic: Optimization and Sensitivity Analysis [87.31348761201716]
新型コロナウイルス(covid-19)パンデミックのような危機は、医療機関にとって深刻な課題となる。
BaBSim.Hospitalは離散イベントシミュレーションに基づく容量計画ツールである。
BaBSim.Hospitalを改善するためにこれらのパラメータを調査し最適化することを目指しています。
論文 参考訳(メタデータ) (2021-05-16T12:38:35Z) - A feasibility study of a hyperparameter tuning approach to automated
inverse planning in radiotherapy [68.8204255655161]
本研究の目的は,計画品質を保ちながら,逆計画プロセスを自動化し,積極的な計画時間を短縮することである。
本研究では, 線量パラメータの選択, ランダムおよびベイズ探索法, ユーティリティ関数形式が計画時間と計画品質に及ぼす影響について検討した。
100個のサンプルを用いて良好な計画品質が得られ、平均計画時間は2.3時間であった。
論文 参考訳(メタデータ) (2021-05-14T18:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。