論文の概要: Interactive Radiotherapy Target Delineation with 3D-Fused Context
Propagation
- arxiv url: http://arxiv.org/abs/2012.06873v1
- Date: Sat, 12 Dec 2020 17:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 05:12:56.091627
- Title: Interactive Radiotherapy Target Delineation with 3D-Fused Context
Propagation
- Title(参考訳): 3D-Fused Context Propagationを用いたインタラクティブ放射線治療
- Authors: Chun-Hung Chao, Hsien-Tzu Cheng, Tsung-Ying Ho, Le Lu, and Min Sun
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、自動3D医療セグメンテーションタスクで支配されています。
編集したスライスを3Dボリューム全体に伝搬する3D融合コンテキスト伝搬を提案する。
- 参考スコア(独自算出の注目度): 28.97228589610255
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Gross tumor volume (GTV) delineation on tomography medical imaging is crucial
for radiotherapy planning and cancer diagnosis. Convolutional neural networks
(CNNs) has been predominated on automatic 3D medical segmentation tasks,
including contouring the radiotherapy target given 3D CT volume. While CNNs may
provide feasible outcome, in clinical scenario, double-check and prediction
refinement by experts is still necessary because of CNNs' inconsistent
performance on unexpected patient cases. To provide experts an efficient way to
modify the CNN predictions without retrain the model, we propose 3D-fused
context propagation, which propagates any edited slice to the whole 3D volume.
By considering the high-level feature maps, the radiation oncologists would
only required to edit few slices to guide the correction and refine the whole
prediction volume. Specifically, we leverage the backpropagation for activation
technique to convey the user editing information backwardly to the latent space
and generate new prediction based on the updated and original feature. During
the interaction, our proposed approach reuses the extant extracted features and
does not alter the existing 3D CNN model architectures, avoiding the
perturbation on other predictions. The proposed method is evaluated on two
published radiotherapy target contouring datasets of nasopharyngeal and
esophageal cancer. The experimental results demonstrate that our proposed
method is able to further effectively improve the existing segmentation
prediction from different model architectures given oncologists' interactive
inputs.
- Abstract(参考訳): 放射線治療計画と癌診断には,Gross tumor volume (GTV) delineation on tomography Medical imagingが重要である。
畳み込みニューラルネットワーク(CNN)は、放射線治療対象の3次元CTボリュームの設定を含む、自動的な3次元医療セグメンテーションタスクに優先されている。
cnnは有望な結果をもたらす可能性があるが、臨床シナリオでは、予期せぬ患者に対するcnnの一貫性の欠如により、専門家による二重チェックと予測の洗練が依然として必要である。
モデルを再トレーニングすることなくCNNの予測を効率的に修正する方法を提供するため,我々は3次元ボリューム全体に対して編集されたスライスを伝播する3Dフューズしたコンテキスト伝搬を提案する。
高レベルの特徴マップを考えると、放射線腫瘍学者は修正をガイドし、予測ボリューム全体を洗練するために、わずかなスライスを編集するしかなかった。
具体的には、バックプロパゲーションを利用したアクティベーション手法を用いて、ユーザ編集情報を潜在空間に後方に伝達し、更新された特徴とオリジナル機能に基づいて新たな予測を生成する。
相互作用の間,提案手法は既存の3次元CNNモデルアーキテクチャを変更せずに既存の特徴を再利用し,他の予測に対する摂動を回避する。
本手法は,鼻咽頭癌と食道癌に対する放射線治療標的2例について検討した。
実験の結果,提案手法は,oncologistの対話型入力により,異なるモデルアーキテクチャから既存のセグメンテーション予測をより効果的に改善できることがわかった。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - DoseGNN: Improving the Performance of Deep Learning Models in Adaptive
Dose-Volume Histogram Prediction through Graph Neural Networks [15.101256852252936]
AAPM (AAPM 65th Annual Meeting $&$ Exhibition) に発表された最近の研究成果を拡張した。
本研究の目的は,高性能CBCTシステムを備えた一般放射線治療プラットフォーム上でのDVH予測のための効率的なディープラーニングモデルを設計することである。
DVH予測タスクで広く採用されている深層学習モデルを,新しい放射線治療プラットフォーム上で評価する。
論文 参考訳(メタデータ) (2024-02-02T00:28:19Z) - The Impact of Loss Functions and Scene Representations for 3D/2D
Registration on Single-view Fluoroscopic X-ray Pose Estimation [1.758213853394712]
我々はまずデジタル再構成ラジオグラフィー(DRR)の効率的な計算のための微分可能プロジェクションレンダリングフレームワークを開発する。
次に, 合成したDRRの画像差を, 地表面の蛍光X線画像に対して定量化する, 様々な候補損失関数を用いて, 反復降下によるポーズ推定を行う。
Mutual Information Loss を用いて,50 人の頭蓋骨の断層X線データを用いて行ったポーズ推定を総合的に評価した結果,DiffProj における識別 (CBCT) とニューラル (NeTT/mNeRF) のシーン表現のどちらを用いたかが示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:12:29Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - A Novel Multi-scale Dilated 3D CNN for Epileptic Seizure Prediction [6.688907774518885]
脳波(eeg)信号の時間,周波数,チャネル情報を解析するために,新しい畳み込みニューラルネットワーク(cnn)を提案する。
モデルは3次元(3D)カーネルを使用して、3次元上の特徴抽出を容易にする。
提案されたCNNモデルはCHB-MIT EEGデータベースで評価され,本モデルが既存の最新技術を上回ることを実験的に示した。
論文 参考訳(メタデータ) (2021-05-05T07:13:53Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Probabilistic 3D surface reconstruction from sparse MRI information [58.14653650521129]
スパース2次元MR画像データとアレータティック不確実性予測から3次元表面再構成を同時に行うための新しい確率論的深層学習手法を提案する。
本手法は,3つの準直交MR画像スライスから,限られたトレーニングセットから大きな表面メッシュを再構成することができる。
論文 参考訳(メタデータ) (2020-10-05T14:18:52Z) - Segmentation-free Estimation of Aortic Diameters from MRI Using Deep
Learning [2.231365407061881]
大動脈径の直接推定のための教師付き深層学習法を提案する。
提案手法では,3Dスキャンを入力とし,所定の位置で大動脈径を出力する3D+2D畳み込みニューラルネットワーク(CNN)を用いる。
全体として、3D+2D CNNは大動脈の位置によって2.2-2.4mmの平均的な絶対誤差を達成した。
論文 参考訳(メタデータ) (2020-09-09T18:28:00Z) - Ensemble Transfer Learning for the Prediction of Anti-Cancer Drug
Response [49.86828302591469]
本稿では,抗がん剤感受性の予測にトランスファーラーニングを適用した。
我々は、ソースデータセット上で予測モデルをトレーニングし、ターゲットデータセット上でそれを洗練する古典的な転送学習フレームワークを適用した。
アンサンブル転送学習パイプラインは、LightGBMと異なるアーキテクチャを持つ2つのディープニューラルネットワーク(DNN)モデルを使用して実装されている。
論文 参考訳(メタデータ) (2020-05-13T20:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。