論文の概要: ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks
- arxiv url: http://arxiv.org/abs/2102.07951v1
- Date: Tue, 16 Feb 2021 04:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 03:06:37.183613
- Title: ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks
- Title(参考訳): ResNet-LDDMM:Deep Residual Networks を用いた LDDMM フレームワークの改善
- Authors: Boulbaba Ben Amor, Sylvain Arguill\`ere and Ling Shao
- Abstract要約: 本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
- 参考スコア(独自算出の注目度): 86.37110868126548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In deformable registration, the geometric framework - large deformation
diffeomorphic metric mapping or LDDMM, in short - has inspired numerous
techniques for comparing, deforming, averaging and analyzing shapes or images.
Grounded in flows, which are akin to the equations of motion used in fluid
dynamics, LDDMM algorithms solve the flow equation in the space of plausible
deformations, i.e. diffeomorphisms. In this work, we make use of deep residual
neural networks to solve the non-stationary ODE (flow equation) based on a
Euler's discretization scheme. The central idea is to represent time-dependent
velocity fields as fully connected ReLU neural networks (building blocks) and
derive optimal weights by minimizing a regularized loss function. Computing
minimizing paths between deformations, thus between shapes, turns to find
optimal network parameters by back-propagating over the intermediate building
blocks. Geometrically, at each time step, ResNet-LDDMM searches for an optimal
partition of the space into multiple polytopes, and then computes optimal
velocity vectors as affine transformations on each of these polytopes. As a
result, different parts of the shape, even if they are close (such as two
fingers of a hand), can be made to belong to different polytopes, and therefore
be moved in different directions without costing too much energy. Importantly,
we show how diffeomorphic transformations, or more precisely bilipshitz
transformations, are predicted by our algorithm. We illustrate these ideas on
diverse registration problems of 3D shapes under complex topology-preserving
transformations. We thus provide essential foundations for more advanced shape
variability analysis under a novel joint geometric-neural networks
Riemannian-like framework, i.e. ResNet-LDDMM.
- Abstract(参考訳): 変形可能な登録において、幾何学的枠組み(大変形双相的距離マッピング、略して lddmm)は、形状や画像の比較、変形、平均化、解析のための多くの技術に影響を与えた。
流体力学で使われる運動方程式に類似した流れに接して、lddmmアルゴリズムは、妥当な変形の空間における流れ方程式を解く。
微分同型。
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
中心となるアイデアは、時間依存の速度場を完全連結のreluニューラルネットワーク(ビルディングブロック)として表現し、正規化損失関数を最小化することで最適重みを導出することである。
変形と形状の間の経路を最小化する計算は、中間構造ブロックをバックプロパゲートすることで最適なネットワークパラメータを見つける。
幾何学的には、各時間ステップにおいて、resnet-lddmmは空間の最適分割を複数のポリトープに探索し、各ポリトープ上のアフィン変換として最適な速度ベクトルを計算する。
その結果、形状の異なる部分は、(手の2本の指など)近い場合でも、異なるポリトピーに属するようにすることができ、したがって、あまりにも多くのエネルギーを費やすことなく異なる方向に移動することができる。
重要な点として,二相変換,あるいはより正確にはビリプシッツ変換がアルゴリズムによってどのように予測されるかを示す。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
したがって,新しいジョイント幾何ニューラルネットワークのリーマン的枠組み,すなわち,より高度な形状変動解析に不可欠な基礎を提供する。
ResNet-LDDMM。
関連論文リスト
- Transolver: A Fast Transformer Solver for PDEs on General Geometries [66.82060415622871]
本稿では, 離散化された測地の背後に隠れた本質的な物理状態を学習するTransolverについて述べる。
スライスから符号化された物理認識トークンに注意を向けることで、Transovlerは複雑な物理的相関を効果的に捉えることができる。
Transolverは6つの標準ベンチマークで22%の相対的な利得で一貫した最先端を実現し、大規模産業シミュレーションでも優れている。
論文 参考訳(メタデータ) (2024-02-04T06:37:38Z) - Physics-informed neural networks for transformed geometries and
manifolds [0.0]
本稿では,幾何学的変分を頑健に適合させるために,PINN内に幾何変換を統合する新しい手法を提案する。
従来のPINNに対して,特に幾何学的変動下での柔軟性の向上を実証する。
提案したフレームワークは、パラメータ化されたジオメトリ上でのディープ・ニューラル演算子のトレーニングの展望を示す。
論文 参考訳(メタデータ) (2023-11-27T15:47:33Z) - Breaking Boundaries: Distributed Domain Decomposition with Scalable
Physics-Informed Neural PDE Solvers [3.826644006708634]
本稿では,大規模問題の推論にデータ並列トレーニングとドメイン並列性を組み合わせた,モザイクフローのエンドツーエンド並列化を提案する。
分散領域分解アルゴリズムは、トレーニング領域よりも4096倍大きい領域上のLaplace方程式を解くためのスケーラブルな推論を可能にする。
論文 参考訳(メタデータ) (2023-08-28T02:25:11Z) - A DeepParticle method for learning and generating aggregation patterns
in multi-dimensional Keller-Segel chemotaxis systems [3.6184545598911724]
ケラー・セガル (KS) ケモタキシー系の2次元および3次元における凝集パターンと近傍特異解の正則化相互作用粒子法について検討した。
さらに,物理パラメータの異なる解を学習し,生成するためのDeepParticle (DP) 法を開発した。
論文 参考訳(メタデータ) (2022-08-31T20:52:01Z) - A Scalable Combinatorial Solver for Elastic Geometrically Consistent 3D
Shape Matching [69.14632473279651]
本稿では,3次元形状間の幾何学的一貫したマッピング空間をグローバルに最適化するスケーラブルなアルゴリズムを提案する。
従来の解法よりも数桁高速なラグランジュ双対問題と結合した新しい原始問題を提案する。
論文 参考訳(メタデータ) (2022-04-27T09:47:47Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Deep convolutional neural network for shape optimization using level-set
approach [0.0]
本稿では,深部畳み込みニューラルネットワーク(CNN)を用いた形状最適化のための低次モデリング手法を提案する。
CNNベースのリダクションオーダーモデル(ROM)は完全にデータ駆動型で構築され、非侵襲的なアプリケーションに適している。
論文 参考訳(メタデータ) (2022-01-17T04:41:51Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Transferable Model for Shape Optimization subject to Physical
Constraints [0.0]
与えられた物理的制約の対象となるオブジェクトをニューラルネットワークで変換できる方法を提供する。
U-Netアーキテクチャは流体の物理挙動を学習するために用いられる。
ネットワークは流れシミュレーションの解を推測するために使用される。
論文 参考訳(メタデータ) (2021-03-19T13:49:21Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。