論文の概要: Robust Multimodal Image Registration Using Deep Recurrent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2002.03733v1
- Date: Wed, 29 Jan 2020 12:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:30:57.039209
- Title: Robust Multimodal Image Registration Using Deep Recurrent Reinforcement
Learning
- Title(参考訳): ディープリカレント強化学習を用いたロバストマルチモーダル画像登録
- Authors: Shanhui Sun, Jing Hu, Mingqing Yao, Jinrong Hu, Xiaodong Yang, Qi
Song, Xi Wu
- Abstract要約: 本研究では, 人為的エージェントを訓練し, 動画像の正しい方向への調整を行う。
カスタマイズされた報酬関数も活用され、堅牢な画像登録が促進される。
このアルゴリズムの利点は臨床用MR画像とCT画像のペアにおける優れた性能によって完全に証明されている。
- 参考スコア(独自算出の注目度): 14.719835112301302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The crucial components of a conventional image registration method are the
choice of the right feature representations and similarity measures. These two
components, although elaborately designed, are somewhat handcrafted using human
knowledge. To this end, these two components are tackled in an end-to-end
manner via reinforcement learning in this work. Specifically, an artificial
agent, which is composed of a combined policy and value network, is trained to
adjust the moving image toward the right direction. We train this network using
an asynchronous reinforcement learning algorithm, where a customized reward
function is also leveraged to encourage robust image registration. This trained
network is further incorporated with a lookahead inference to improve the
registration capability. The advantage of this algorithm is fully demonstrated
by our superior performance on clinical MR and CT image pairs to other
state-of-the-art medical image registration methods.
- Abstract(参考訳): 従来の画像登録方式の重要な要素は、適切な特徴表現と類似度尺度の選択である。
これら2つの要素は精巧に設計されているものの、人間の知識を使ってある程度手作りされている。
この目的のために、この2つのコンポーネントは、強化学習を通じてエンドツーエンドで取り組まれている。
具体的には、ポリシとバリューネットワークとを組み合わせた人工エージェントを訓練して、移動画像を右方向に調整する。
我々は、このネットワークを非同期強化学習アルゴリズムを用いて訓練し、そこでは、ロバストな画像登録を促進するために、カスタマイズされた報酬関数も活用する。
このトレーニングされたネットワークは、登録能力を改善するために、さらにルックアヘッド推論と組み込まれている。
このアルゴリズムの利点は、他の最先端の医用画像登録法と比較して、臨床MRIとCT画像ペアの優れた性能によって完全に実証されている。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Non-iterative Coarse-to-fine Registration based on Single-pass Deep
Cumulative Learning [11.795108660250843]
変形可能な画像登録のための非Iterative Coarse-to-finE登録ネットワーク(NICE-Net)を提案する。
NICE-Netは、非イテレーティブメソッドと同じようなランタイムしか必要とせず、最先端の反復的な深層登録手法より優れている。
論文 参考訳(メタデータ) (2022-06-25T08:34:59Z) - Impact of a DCT-driven Loss in Attention-based Knowledge-Distillation
for Scene Recognition [64.29650787243443]
本稿では, アクティベーションマップの2次元周波数変換を転送前に提案し, 解析する。
この戦略は、シーン認識などのタスクにおける知識伝達可能性を高める。
我々は、この論文で使われているトレーニングおよび評価フレームワークを、http://www.vpu.eps.uam.es/publications/DCTBasedKDForSceneRecognitionで公開しています。
論文 参考訳(メタデータ) (2022-05-04T11:05:18Z) - S2-Net: Self-supervision Guided Feature Representation Learning for
Cross-Modality Images [0.0]
モダリティ間の画像ペアは、通信の特徴表現を可能な限り近いものにするのに失敗することが多い。
本稿では,最近成功した検出・記述パイプラインに基づいて,モーダリティ間特徴表現学習ネットワークであるS2-Netを設計する。
本稿では,自己教師型学習とよく設計された損失関数を導入し,本来の利点を捨てることなくトレーニングを指導する。
論文 参考訳(メタデータ) (2022-03-28T08:47:49Z) - Automated Learning for Deformable Medical Image Registration by Jointly
Optimizing Network Architectures and Objective Functions [69.6849409155959]
本稿では、アーキテクチャとそれに対応する学習目標の両方を協調的に最適化する自動学習登録アルゴリズム(AutoReg)を提案する。
マルチサイトボリュームデータセットと各種登録タスクについて,画像登録実験を行った。
我々のAutoRegは、与えられたボリュームに対して最適な深層登録ネットワークを自動的に学習し、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2022-03-14T01:54:38Z) - Structure-aware Unsupervised Tagged-to-Cine MRI Synthesis with Self
Disentanglement [13.442093381065268]
我々は、入力と合成画像の間の構造的アライメントを明示的に強制することにより、一般的なアドオン構造特徴抽出器を学習する。
具体的には、基礎となる解剖構造と画像のモダリティのアンタングル化を実現するために、新しい入力出力画像パッチ自己学習方式を提案する。
我々は1,768,416,1,560個の被検者非依存スライスタグとシネMRIを用いて、我々のネットワークをトレーニングし、検証し、テストする。
論文 参考訳(メタデータ) (2022-02-25T03:09:46Z) - Multi-modal unsupervised brain image registration using edge maps [7.49320945341034]
本稿では,マルチモーダル画像登録手法を提案する。
この背景にある直感は、強い勾配の像の位置が組織の遷移を意味すると仮定されている。
我々は3つの異なる損失関数を用いて、異なる被験者のマルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像を登録する状況において、我々のアプローチを評価する。
論文 参考訳(メタデータ) (2022-02-09T15:50:14Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - Cascaded Feature Warping Network for Unsupervised Medical Image
Registration [11.052668687673998]
我々は,細部まで粗い登録を行うために,カスケード特徴ウォーピングネットワークを事前に設定する。
共有重みエンコーダネットワークを採用し、不整合画像の特徴ピラミッドを生成する。
その結果,本手法は最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T08:50:06Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。