論文の概要: Learn to optimize for automatic proton PBS treatment planning for H&N cancers
- arxiv url: http://arxiv.org/abs/2508.11085v1
- Date: Thu, 14 Aug 2025 21:50:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.680246
- Title: Learn to optimize for automatic proton PBS treatment planning for H&N cancers
- Title(参考訳): H&N癌に対するプロトンPBS自動治療計画の最適化について
- Authors: Qingqing Wang, Liqiang Xiao, Chang Chang,
- Abstract要約: 本稿では,データ駆動逆解析手法を提案し,それをPPOベースの自動処理計画フレームワークに統合する。
PPOフレームワークは外部ループ仮想プランナとして機能し、ポリシーネットワークを介して客観的パラメータを自律的に調整する。
L-BFGSBと比較すると、L2Oベースの逆は効率を22.97%、効率を36.41%向上させる。
- 参考スコア(独自算出の注目度): 3.384581246727367
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Proton PBS treatment planning for H&N cancers involves numerous conflicting objectives, requiring significant effort from human planners to balance and satisfy multiple clinical goals during planning. To achieve this, experience-demanding objective parameter adjustment and computationally expensive inverse optimization are performed iteratively. Extensive efforts have been made to automatically adjust objective parameters, but the most time-consuming component, i.e., inverse optimization, still relies heavily on theory-driven approaches. We propose a data-driven inverse optimizer and integrate it into a PPO-based automatic treatment planning framework to automatically generate high-quality plans within a clinical acceptable planning time. The inverse optimizer is a L2O method that predicts update steps by learning from the task-specific data distribution. For the first time, we integrate techniques designed for long-context processing, originally developed for LLMs, into a Transformer-based L2O framework to address the scalability issue of existing L2O methods. The PPO framework functions as an outer-loop virtual planner, autonomously adjusting objective parameters through a policy network, and the dose predictor is used to initialize objective parameters. The inner-loop L2O inverse optimizer computes machine-deliverable MU values based on objectives refined by the PPO policy network. 97 patients are collected in this study, and compared with L-BFGSB, our L2O-based inverse optimizer improves the effectiveness and efficiency by 22.97% and 36.41%, respectively. In conjunction with the PPO-based learned virtual planner, plans generated by our framework within an average of 2.55 hours show improved or comparable OAR sparing with superior target coverage for patients with different prescription dose levels, number of target volumes, beam angles, etc., compared with human-generated plans.
- Abstract(参考訳): H&Nがんに対するプロトンPBS治療計画には、多くの矛盾する目標が含まれており、計画中の複数の臨床目標のバランスと満足のために、人間のプランナーからの多大な努力が必要である。
これを実現するために、経験要求目標パラメータ調整と計算コストの高い逆最適化を反復的に行う。
対象パラメータを自動的に調整する大規模な努力がなされているが、最も時間を要するコンポーネント、すなわち逆最適化は理論駆動のアプローチに大きく依存している。
本稿では,データ駆動逆オプティマイザを提案し,それをPPOベースの自動治療計画フレームワークに統合し,臨床に許容される計画時間内に高品質な計画を自動的に生成する。
逆オプティマイザは、タスク固有のデータ分布から学習することで更新ステップを予測するL2Oメソッドである。
従来のL2O手法のスケーラビリティ問題に対処するトランスフォーマーベースのL2Oフレームワークに,LLM用に開発された長文処理用に設計された技術を初めて統合した。
PPOフレームワークは、ポリシーネットワークを介して客観的パラメータを自律的に調整する外ループ仮想プランナとして機能し、その線量予測器を用いて目的パラメータを初期化する。
インナーループL2O逆オプティマイザは、PPOポリシーネットワークによって洗練された目的に基づいて、マシン配信可能なMU値を演算する。
L-BFGSBと比較すると,L2Oをベースとした逆最適化器は効率を22.97%,効率を36.41%向上させる。
PPOをベースとした学習型仮想プランナーと合わせて, 平均2.55時間以内の計画では, 服用量, ターゲット量, ビーム角などの異なる患者に対して, 平均2.55時間以内のOAR間隔の改善が見られた。
関連論文リスト
- Automated Treatment Planning for Interstitial HDR Brachytherapy for Locally Advanced Cervical Cancer using Deep Reinforcement Learning [3.9838929530763076]
本研究の目的は、完全に自動化されたHDRブラキセラピー計画フレームワークを開発することである。
階層的な2段階自動計画フレームワークを提案する。
未確認の患者では、RLベースの自動計画法が平均93.89%を達成し、平均91.86%の臨床計画を上回りました。
論文 参考訳(メタデータ) (2025-06-13T17:07:30Z) - Autonomous Radiotherapy Treatment Planning Using DOLA: A Privacy-Preserving, LLM-Based Optimization Agent [2.1986172572830096]
Dose Optimization Language Agent (DOLA) は、放射線治療計画の最適化を目的とした、LLMベースの自律型大規模言語モデルである。
DOLAはLLaMa3.1 LLMを商業的な治療計画システムと直接統合している。
完全に安全なインフラで 稼働しています
論文 参考訳(メタデータ) (2025-03-21T22:01:19Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - Automating proton PBS treatment planning for head and neck cancers using policy gradient-based deep reinforcement learning [0.7519872646378836]
本稿では,PPOアルゴリズムと線量分布に基づく報酬関数を用いた自動治療計画モデルを提案する。
実験的なルールのセットは、ターゲットのボリュームとリスクのある臓器から補助的な計画構造を作成するために使用される。
PPOを用いて訓練された意思決定ポリシーネットワークを開発し、連続的な行動空間において、関連する計画目標パラメータを反復的に調整する。
論文 参考訳(メタデータ) (2024-09-17T22:01:56Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Sample-efficient Iterative Lower Bound Optimization of Deep Reactive
Policies for Planning in Continuous MDPs [27.41101006357176]
本研究では,最小化-最大化の観点から反復的に最適化する。
w.r.t.は局所的に厳密な下界の目的である。
反復的下界最適化(ILBO)としての学習の新たな定式化は、(i)各ステップが全体目標よりも構造的に容易に最適化できるため、特に魅力的である。
実験的な評価により、ILBOは最先端のプランナーよりもはるかに試料効率が高いことが確認された。
論文 参考訳(メタデータ) (2022-03-23T19:06:16Z) - Resource Planning for Hospitals Under Special Consideration of the
COVID-19 Pandemic: Optimization and Sensitivity Analysis [87.31348761201716]
新型コロナウイルス(covid-19)パンデミックのような危機は、医療機関にとって深刻な課題となる。
BaBSim.Hospitalは離散イベントシミュレーションに基づく容量計画ツールである。
BaBSim.Hospitalを改善するためにこれらのパラメータを調査し最適化することを目指しています。
論文 参考訳(メタデータ) (2021-05-16T12:38:35Z) - A feasibility study of a hyperparameter tuning approach to automated
inverse planning in radiotherapy [68.8204255655161]
本研究の目的は,計画品質を保ちながら,逆計画プロセスを自動化し,積極的な計画時間を短縮することである。
本研究では, 線量パラメータの選択, ランダムおよびベイズ探索法, ユーティリティ関数形式が計画時間と計画品質に及ぼす影響について検討した。
100個のサンプルを用いて良好な計画品質が得られ、平均計画時間は2.3時間であった。
論文 参考訳(メタデータ) (2021-05-14T18:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。