論文の概要: Cross Modality 3D Navigation Using Reinforcement Learning and Neural
Style Transfer
- arxiv url: http://arxiv.org/abs/2111.03485v1
- Date: Fri, 5 Nov 2021 13:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:40:24.085472
- Title: Cross Modality 3D Navigation Using Reinforcement Learning and Neural
Style Transfer
- Title(参考訳): 強化学習とニューラルスタイル伝達を用いたクロスモダリティ3次元ナビゲーション
- Authors: Cesare Magnetti, Hadrien Reynaud, Bernhard Kainz
- Abstract要約: 本稿では,MARL(Multi-Agent Reinforcement Learning)を用いて,医用画像から3次元解剖学的ボリュームのナビゲーションを行う。
我々はニューラルスタイルトランスファーを用いて,合成CT(Computed Tomography)エージェントジム環境を作成する。
我々のフレームワークはラベル付き臨床データを一切必要とせず、複数の画像翻訳技術と容易に統合できる。
- 参考スコア(独自算出の注目度): 3.0152753984876854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the use of Multi-Agent Reinforcement Learning (MARL) to
perform navigation in 3D anatomical volumes from medical imaging. We utilize
Neural Style Transfer to create synthetic Computed Tomography (CT) agent gym
environments and assess the generalization capabilities of our agents to
clinical CT volumes. Our framework does not require any labelled clinical data
and integrates easily with several image translation techniques, enabling cross
modality applications. Further, we solely condition our agents on 2D slices,
breaking grounds for 3D guidance in much more difficult imaging modalities,
such as ultrasound imaging. This is an important step towards user guidance
during the acquisition of standardised diagnostic view planes, improving
diagnostic consistency and facilitating better case comparison.
- Abstract(参考訳): 本稿では,マルチエージェント強化学習(marl)を用いて医用画像から3次元解剖学的ボリュームのナビゲーションを行う。
我々はNeural Style Transferを用いて人工CT(Computed Tomography)エージェントジム環境を作成し,臨床CTボリュームに対するエージェントの一般化能力を評価する。
我々のフレームワークはラベル付き臨床データを必要としないため、複数の画像翻訳技術と容易に統合でき、クロスモダリティアプリケーションを可能にする。
さらに, エージェントを2次元スライスにのみ条件付けし, 超音波画像などのより難しい画像モダリティで3次元誘導の場を破る。
これは、標準化された診断ビュープレーンの取得におけるユーザガイダンスへの重要なステップであり、診断整合性を改善し、より良いケース比較を容易にする。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Make-A-Volume: Leveraging Latent Diffusion Models for Cross-Modality 3D
Brain MRI Synthesis [35.45013834475523]
クロスモダリティ医療画像合成は重要なトピックであり、医療画像分野における多くの応用を促進する可能性がある。
現在の医療画像合成法のほとんどは、生成的敵ネットワークに依存しており、悪名高いモード崩壊と不安定な訓練に悩まされている。
本稿では,2次元バックボーンを利用した医療データ合成のための新しいパラダイムを提案し,拡散型フレームワークであるMake-A-Volumeを提案する。
論文 参考訳(メタデータ) (2023-07-19T16:01:09Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Multimodal Information Fusion for Glaucoma and DR Classification [1.5616442980374279]
複数の情報源からの情報を組み合わせることで、臨床医はより正確な判断をすることができる。
本稿では,網膜解析の課題を解決するために,ディープラーニングに基づく3つのマルチモーダル情報融合戦略について検討する。
論文 参考訳(メタデータ) (2022-09-02T12:19:03Z) - Slice-level Detection of Intracranial Hemorrhage on CT Using Deep
Descriptors of Adjacent Slices [0.31317409221921133]
そこで本研究では,隣接するスライスのディスクリプタに基づいて,CTスキャンでエンフスライスレベルの分類器を訓練する新しい手法を提案する。
我々は、RSNA頭蓋内出血データセットの課題における、最高のパフォーマンスソリューションの上位4%において、単一のモデルを得る。
提案手法は汎用的であり,MRIなどの他の3次元診断タスクにも適用可能である。
論文 参考訳(メタデータ) (2022-08-05T23:20:37Z) - Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging [70.52819168140113]
我々は、英国バイオバンクの2万名以上の被験者のデータセットを使用し、全体Dixon法磁気共鳴法(MR)スキャンとデュアルエネルギーX線吸収率法(DXA)スキャンを併用した。
マルチモーダル画像マッチングコントラストフレームワークを導入し、同一対象の異なるモダリティスキャンを高精度にマッチングすることができる。
適応がなければ、この対照的なトレーニングステップで学習した対応が、自動クロスモーダルスキャン登録の実行に利用できることを示す。
論文 参考訳(メタデータ) (2021-07-14T12:35:05Z) - The entire network structure of Crossmodal Transformer [4.605531191013731]
提案手法はまず2次元X線と3次元CT画像から骨格の特徴を深く学習する。
その結果、よく訓練されたネットワークは任意の2D X線と3D CT間の空間的対応を直接予測することができる。
論文 参考訳(メタデータ) (2021-04-29T11:47:31Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。