論文の概要: Learning to Scan: A Deep Reinforcement Learning Approach for
Personalized Scanning in CT Imaging
- arxiv url: http://arxiv.org/abs/2006.02420v5
- Date: Tue, 14 Sep 2021 07:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:48:30.309971
- Title: Learning to Scan: A Deep Reinforcement Learning Approach for
Personalized Scanning in CT Imaging
- Title(参考訳): スキャンへの学習:ct画像におけるパーソナライズドスキャンのための深層強化学習アプローチ
- Authors: Ziju Shen and Yufei Wang and Dufan Wu and Xu Yang and Bin Dong
- Abstract要約: CT (Computed Tomography) は, 被検体のX線計測を行い, 断層像の再構成を行う。
圧縮センシングのような伝統的な方法は、通常ランダムに角度を選択し、許容される線量も等しく分配する。
本稿では,RL(Reinforcement Learning)を用いてパーソナライズされたスキャンポリシーを学習し,各被験者に対して選択した角度と線量を選択することを提案する。
- 参考スコア(独自算出の注目度): 14.659201272881079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computed Tomography (CT) takes X-ray measurements on the subjects to
reconstruct tomographic images. As X-ray is radioactive, it is desirable to
control the total amount of dose of X-ray for safety concerns. Therefore, we
can only select a limited number of measurement angles and assign each of them
limited amount of dose. Traditional methods such as compressed sensing usually
randomly select the angles and equally distribute the allowed dose on them. In
most CT reconstruction models, the emphasize is on designing effective image
representations, while much less emphasize is on improving the scanning
strategy. The simple scanning strategy of random angle selection and equal dose
distribution performs well in general, but they may not be ideal for each
individual subject. It is more desirable to design a personalized scanning
strategy for each subject to obtain better reconstruction result. In this
paper, we propose to use Reinforcement Learning (RL) to learn a personalized
scanning policy to select the angles and the dose at each chosen angle for each
individual subject. We first formulate the CT scanning process as an MDP, and
then use modern deep RL methods to solve it. The learned personalized scanning
strategy not only leads to better reconstruction results, but also shows strong
generalization to be combined with different reconstruction algorithms.
- Abstract(参考訳): CT (Computed Tomography) は被検体のX線計測を行い, 断層像の再構成を行う。
X線は放射性であるため、安全上の懸念から全線量を制御することが望ましい。
したがって、測定角度の限られた数だけを選択し、それぞれに限られた量の線量を与えることができる。
圧縮センシングのような伝統的な方法は、通常ランダムに角度を選択し、許容線量を均等に分配する。
ほとんどのct再構成モデルでは、効果的な画像表現の設計に重点を置いているが、スキャン戦略の改善にはあまり重点を置いていない。
ランダム角選択と等量分布の単純な走査戦略は一般によく機能するが、各被験者に理想的ではないかもしれない。
各被験者にパーソナライズされたスキャン戦略をデザインし、より良い再構成結果を得るのがより望ましい。
本稿では,RL(Reinforcement Learning)を用いてパーソナライズされたスキャンポリシーを学習し,各被験者に対して選択した角度と線量を選択することを提案する。
まず,CTスキャン処理をMDPとして定式化し,次に最新の深部RL法を用いて解決する。
学習したパーソナライズドスキャン戦略は、より良い再構成結果をもたらすだけでなく、異なる再構成アルゴリズムと組み合わせられる強力な一般化を示す。
関連論文リスト
- Differentiable Gaussian Representation for Incomplete CT Reconstruction [20.390232991700977]
ニューラルネットやフルドーズCTデータを使わずに,新しいGaussian Representation for Incomplete CT Reconstruction (GRCT)を提案する。
アーキテクチャを変更することなく、複数のビューや角度に適用することができる。
複数のデータセットと設定の実験では、再構築品質のメトリクスと高い効率が大幅に改善された。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Coarse-Fine View Attention Alignment-Based GAN for CT Reconstruction from Biplanar X-Rays [22.136553745483305]
本稿では,両平面ビューから抽出した特徴を組み合わせるために,新しい注目インフォームド粗視視融合法を提案する。
提案手法がSOTA法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-08-19T06:57:07Z) - Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - Low-Dose CT Image Enhancement Using Deep Learning [0.0]
電離放射線の少ない線量、特にCT(Computerd tomography)イメージングシステムでの使用が好ましい。
CT画像における放射線線量削減の一般的な方法は、クォータードーズ法として知られている。
近年のディープラーニングアプローチは、低用量アーティファクトのイメージ強化に興味深い可能性をもたらしている。
論文 参考訳(メタデータ) (2023-10-31T08:34:33Z) - CT Reconstruction from Few Planar X-rays with Application towards
Low-resource Radiotherapy [20.353246282326943]
先行データ分布を用いた5次元平面X線観測からCTボリュームを生成する手法を提案する。
臨床に関連のある特徴に焦点をあてるために,本モデルは訓練中に解剖学的指導を活用できる。
本手法は, 標準画素, 構造レベルの基準値から, 近年のスパースCT再建基準値よりも優れている。
論文 参考訳(メタデータ) (2023-08-04T01:17:57Z) - Geometric Constraints Enable Self-Supervised Sinogram Inpainting in
Sparse-View Tomography [7.416898042520079]
スパース角度トモグラフィースキャンは放射線を低減し、データ取得を加速するが、画像のアーチファクトやノイズに悩まされる。
既存の画像処理アルゴリズムはCT再構成の品質を復元することができるが、大きなトレーニングデータセットを必要とする場合が多い。
本研究は、勾配に基づく最適化により、欠落した射影ビューを最適化する自己教師付きプロジェクションインペインティング法を提案する。
論文 参考訳(メタデータ) (2023-02-13T15:15:18Z) - Optimising Chest X-Rays for Image Analysis by Identifying and Removing
Confounding Factors [49.005337470305584]
新型コロナウイルス(COVID-19)のパンデミック(パンデミック)の間、新型コロナウイルス(COVID-19)の診断のための緊急設定で実施される画像の量は、臨床用CXRの取得が広範囲に及んだ。
公開データセット内の臨床的に取得されたCXRの変動品質は、アルゴリズムのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、新型コロナウイルスの胸部X線データセットを前処理し、望ましくないバイアスを取り除くための、シンプルで効果的なステップワイズアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-22T13:57:04Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging [70.52819168140113]
我々は、英国バイオバンクの2万名以上の被験者のデータセットを使用し、全体Dixon法磁気共鳴法(MR)スキャンとデュアルエネルギーX線吸収率法(DXA)スキャンを併用した。
マルチモーダル画像マッチングコントラストフレームワークを導入し、同一対象の異なるモダリティスキャンを高精度にマッチングすることができる。
適応がなければ、この対照的なトレーニングステップで学習した対応が、自動クロスモーダルスキャン登録の実行に利用できることを示す。
論文 参考訳(メタデータ) (2021-07-14T12:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。