論文の概要: Surface Vision Transformers: Attention-Based Modelling applied to
Cortical Analysis
- arxiv url: http://arxiv.org/abs/2203.16414v1
- Date: Wed, 30 Mar 2022 15:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 18:09:26.107677
- Title: Surface Vision Transformers: Attention-Based Modelling applied to
Cortical Analysis
- Title(参考訳): 表面視覚トランスフォーマー:注意に基づくモデリングの皮質解析への応用
- Authors: Simon Dahan, Abdulah Fawaz, Logan Z. J. Williams, Chunhui Yang,
Timothy S. Coalson, Matthew F. Glasser, A. David Edwards, Daniel Rueckert,
Emma C. Robinson
- Abstract要約: 球面多様体上に投影された任意の曲面データを研究するために、ドメインに依存しないアーキテクチャを導入する。
ビジョントランスモデルは、連続したマルチヘッド自己アテンション層を介してパッチのシーケンスを符号化する。
実験の結果、SiTは一般的に表面CNNよりも優れており、登録データと未登録データで比較可能であることがわかった。
- 参考スコア(独自算出の注目度): 8.20832544370228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The extension of convolutional neural networks (CNNs) to non-Euclidean
geometries has led to multiple frameworks for studying manifolds. Many of those
methods have shown design limitations resulting in poor modelling of long-range
associations, as the generalisation of convolutions to irregular surfaces is
non-trivial. Motivated by the success of attention-modelling in computer
vision, we translate convolution-free vision transformer approaches to surface
data, to introduce a domain-agnostic architecture to study any surface data
projected onto a spherical manifold. Here, surface patching is achieved by
representing spherical data as a sequence of triangular patches, extracted from
a subdivided icosphere. A transformer model encodes the sequence of patches via
successive multi-head self-attention layers while preserving the sequence
resolution. We validate the performance of the proposed Surface Vision
Transformer (SiT) on the task of phenotype regression from cortical surface
metrics derived from the Developing Human Connectome Project (dHCP).
Experiments show that the SiT generally outperforms surface CNNs, while
performing comparably on registered and unregistered data. Analysis of
transformer attention maps offers strong potential to characterise subtle
cognitive developmental patterns.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の非ユークリッド幾何学への拡張は、多様体を研究するための複数のフレームワークにつながった。
これらの方法の多くは、不規則曲面への畳み込みの一般化は非自明であるため、長距離関連のモデル化が不十分な設計上の限界を示している。
コンピュータビジョンにおける注意モデリングの成功に動機づけられ、畳み込みのない視覚トランスフォーマーアプローチを表面データに変換し、球面多様体上に投影される表面データを研究するためのドメインに依存しないアーキテクチャを導入する。
ここでは、球面データを、細分化した球状圏から抽出した三角形のパッチの列として表すことにより、表面パッチを行う。
トランスモデルは、シーケンス解像度を保持しながら、連続したマルチヘッド自己アテンション層を介してパッチのシーケンスを符号化する。
発達型ヒューマン・コネクトーム・プロジェクト(dHCP)から派生した皮質表面計測値から表現型回帰を課題とした表面視変換器(SiT)の性能評価を行った。
実験の結果、SiTは一般的に表面CNNよりも優れており、登録データと未登録データで比較可能であることがわかった。
トランスフォーマーアテンションマップの解析は、微妙な認知発達パターンを特徴づける強い可能性を提供する。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - The Multiscale Surface Vision Transformer [10.833580445244094]
表面深層学習のためのバックボーンアーキテクチャとして,Multiscale Surface Vision Transformer (MS-SiT)を導入した。
以上の結果から,MS-SiTは新生児の表現型予測タスクにおいて,既存の表面深層学習法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-21T15:00:17Z) - Surface Analysis with Vision Transformers [7.4330073456005685]
ビジョントランスフォーマー(ViT)の最近の最先端性能は、自己注意機能を実装した汎用アーキテクチャが、CNNの局所的な特徴学習操作を置き換えることを実証している。
コンピュータビジョンにおけるアテンション・モデリングの成功により、表面学習のタスクをシーケンス・ツー・シーケンス問題として再構成し、VTを表面へ拡張し、表面メッシュのパッチ機構を提案する。
論文 参考訳(メタデータ) (2022-05-31T14:41:01Z) - Surface Vision Transformers: Flexible Attention-Based Modelling of
Biomedical Surfaces [9.425082767553935]
コンピュータビジョンタスクにおけるビジョントランスフォーマー(ViT)の最近の最先端パフォーマンスは、ViTが畳み込みニューラルネットワークの局所的な特徴学習操作を置き換えることを実証している。
表面学習の課題をシーケンシャル・ツー・シーケンス・ラーニングの課題として再検討することで,ViTを表面へ拡張する。
本手法は,様々な生体表面ドメインとタスクに対して検証する。
論文 参考訳(メタデータ) (2022-04-07T12:45:54Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。