論文の概要: SETGen: Scalable and Efficient Template Generation Framework for
Groupwise Medical Image Registration
- arxiv url: http://arxiv.org/abs/2211.05622v1
- Date: Thu, 10 Nov 2022 14:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 16:08:21.403227
- Title: SETGen: Scalable and Efficient Template Generation Framework for
Groupwise Medical Image Registration
- Title(参考訳): SETGen: グループワイド画像登録のためのスケーラブルで効率的なテンプレート生成フレームワーク
- Authors: Ziyi He and Albert C. S. Chung
- Abstract要約: 本稿では,変分オートエンコーダモデルに基づくグループワイドテンプレート生成フレームワークを提案する。
異なる大きさのグループの3次元脳MRIスキャンについて実験を行った。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Template generation is a crucial step of groupwise image registration which
deforms a group of subjects into a common space. Existing traditional and deep
learning-based methods can generate high-quality template images. However, they
suffer from substantial time costs or limited application scenarios like fixed
group size. In this paper, we propose an efficient groupwise template
generative framework based on variational autoencoder models utilizing the
arithmetic property of latent representation of input images. We acquire the
latent vectors of each input and use the average vector to construct the
template through the decoder. Therefore, the method can be applied to groups of
any scale. Secondly, we explore a siamese training scheme that feeds two images
to the shared-weight twin networks and compares the distances between inputs
and the generated template to prompt the template to be close to the implicit
center. We conduct experiments on 3D brain MRI scans of groups of different
sizes. Results show that our framework can achieve comparable and even better
performance to baselines, with runtime decreased to seconds.
- Abstract(参考訳): テンプレート生成は、被験者のグループを共通の空間に変形させるグループワイド画像登録の重要なステップである。
従来のディープラーニングベースの手法は、高品質なテンプレート画像を生成することができる。
しかし、それらは相当な時間コストや固定グループサイズのような限られたアプリケーションシナリオに悩まされます。
本稿では,入力画像の潜在表現の演算特性を利用した変分オートエンコーダモデルに基づく効率的なグループワイズテンプレート生成フレームワークを提案する。
我々は各入力の潜在ベクトルを取得し、平均ベクトルを用いてデコーダを通してテンプレートを構築する。
したがって、この方法は任意のスケールの群に適用できる。
次に,2つの画像を共有双対ネットワークに供給し,入力と生成されたテンプレート間の距離を比較して,テンプレートが暗黙の中心に近づくように促すシモーム学習手法を提案する。
異なる大きさのグループの3次元脳MRIスキャン実験を行った。
その結果,我々のフレームワークはベースラインと同等の性能,さらに優れたパフォーマンスを実現でき,ランタイムは秒単位に短縮された。
関連論文リスト
- A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - GroupMamba: Parameter-Efficient and Accurate Group Visual State Space Model [66.35608254724566]
状態空間モデル(SSM)は、二次的複雑性を伴う長距離依存のモデリングにおいて効果的な性能を示した。
しかし、純粋なSSMベースのモデルは、コンピュータビジョンタスクにおける安定性と最適性能の達成に関連する課題に直面している。
本稿では,コンピュータビジョンのためのSSMベースのモデルをスケールする上での課題,特に大規模モデルの不安定性と非効率性について論じる。
論文 参考訳(メタデータ) (2024-07-18T17:59:58Z) - Advancing Vision Transformers with Group-Mix Attention [59.585623293856735]
グループミクス・アテンション(GMA)は、従来の自己アテンションの先進的な代替品である。
GMAは、さまざまなグループサイズとトークン・ツー・トークン・ツー・グループ、グループ・ツー・グループ相関を同時に取得する。
GroupMixFormerは、画像分類、オブジェクト検出、セマンティックセグメンテーションにおける最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-26T01:25:03Z) - Sequential Data Generation with Groupwise Diffusion Process [24.664800903343462]
グループワイド拡散モデル(GDM)は、1つのグループから1つの時間間隔で順次データを生成する。
拡散モデルの拡張として、GDMはある種の自己回帰モデルとカスケード拡散モデルを一般化する。
論文 参考訳(メタデータ) (2023-10-02T17:58:47Z) - GroupFormer: Group Activity Recognition with Clustered Spatial-Temporal
Transformer [16.988878921451484]
GroupFormerは、個人とグループ表現を増強するために、空間的・時間的コンテキスト情報を共同でキャプチャする。
提案するフレームワークは,VolleyballデータセットとCollective Activityデータセットの最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2021-08-28T11:24:36Z) - Learning Multi-Attention Context Graph for Group-Based Re-Identification [214.84551361855443]
オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T09:57:47Z) - Group Communication with Context Codec for Ultra-Lightweight Source
Separation [32.975741399690214]
モデル性能を犠牲にすることなく、モデルサイズと複雑さの両方を減らすために、コンテキスト(GC3)設計によるグループコミュニケーションを提案します。
GC3は2.5%のモデルサイズで、幅広いベースラインアーキテクチャよりも同等または優れた性能を達成できる。
論文 参考訳(メタデータ) (2020-12-14T06:57:58Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Model Patching: Closing the Subgroup Performance Gap with Data
Augmentation [50.35010342284508]
機械学習モデルの堅牢性を改善するためのフレームワークであるモデルパッチを導入する。
モデルパッチは、サブグループの違いに対してモデルを不変にすることを奨励し、サブグループによって共有されるクラス情報にフォーカスする。
CAMELは,(1)CycleGANを用いてクラス内およびサブグループ間拡張を学習し,(2)理論上動機付けられた整合性正規化器を用いてサブグループ性能のバランスをとる。
CAMELの有効性を3つのベンチマークデータセットで示し、最高のベースラインに対して、ロバストなエラーを最大33%削減した。
論文 参考訳(メタデータ) (2020-08-15T20:01:23Z) - Group Membership Verification with Privacy: Sparse or Dense? [21.365032455883178]
グループメンバー認証は、生体特性がそのメンバーの同一性を明らかにすることなく、グループの1つのメンバーに対応するかどうかをチェックする。
最近のコントリビューションは、2つのメカニズムの併用によるグループメンバシッププロトコルのプライバシを提供する。
本稿では,セキュリティ,コンパクト性,検証性能の両面における疎性の影響を明らかにするために,グループメンバシップ検証の数学的モデルを提案する。
論文 参考訳(メタデータ) (2020-02-24T16:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。