論文の概要: Computational Analysis of Deformable Manifolds: from Geometric Modelling
to Deep Learning
- arxiv url: http://arxiv.org/abs/2009.01786v1
- Date: Thu, 3 Sep 2020 16:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:26:20.687947
- Title: Computational Analysis of Deformable Manifolds: from Geometric Modelling
to Deep Learning
- Title(参考訳): 変形可能な多様体の計算解析:幾何学的モデリングからディープラーニングへ
- Authors: Stefan C Schonsheck
- Abstract要約: 非平坦空間の多様性が豊富な研究領域を提供することを示す。
形状処理とデータ解析のための幾何学的手法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leo Tolstoy opened his monumental novel Anna Karenina with the now famous
words: Happy families are all alike; every unhappy family is unhappy in its own
way A similar notion also applies to mathematical spaces: Every flat space is
alike; every unflat space is unflat in its own way. However, rather than being
a source of unhappiness, we will show that the diversity of non-flat spaces
provides a rich area of study. The genesis of the so-called big data era and
the proliferation of social and scientific databases of increasing size has led
to a need for algorithms that can efficiently process, analyze and, even
generate high dimensional data. However, the curse of dimensionality leads to
the fact that many classical approaches do not scale well with respect to the
size of these problems. One technique to avoid some of these ill-effects is to
exploit the geometric structure of coherent data. In this thesis, we will
explore geometric methods for shape processing and data analysis. More
specifically, we will study techniques for representing manifolds and signals
supported on them through a variety of mathematical tools including, but not
limited to, computational differential geometry, variational PDE modeling, and
deep learning. First, we will explore non-isometric shape matching through
variational modeling. Next, we will use ideas from parallel transport on
manifolds to generalize convolution and convolutional neural networks to
deformable manifolds. Finally, we conclude by proposing a novel auto-regressive
model for capturing the intrinsic geometry and topology of data. Throughout
this work, we will use the idea of computing correspondences as a though-line
to both motivate our work and analyze our results.
- Abstract(参考訳): レオ・トルストイ(Leo Tolstoy)は、彼の有名な小説『Anna Karenina』で、"Happy family are all alike; all unhappy family are unhappy in their own way"と題して発表した。
しかし、不幸の源となるのではなく、非平坦空間の多様性が豊富な研究領域を提供することを示す。
いわゆるビッグデータの時代と、規模が大きくなる社会や科学のデータベースの普及は、高次元データを効率的に処理し、分析し、さらに生成するアルゴリズムの必要性を招いている。
しかし、次元の呪いは、多くの古典的アプローチがこれらの問題のサイズに関してうまくスケールしないという事実をもたらす。
これらの悪影響を避ける方法の1つは、コヒーレントデータの幾何学的構造を利用することである。
本稿では形状処理とデータ解析のための幾何学的手法を検討する。
より具体的には、計算微分幾何学、変分PDEモデリング、深層学習など、多種多様な数学的ツールを用いて、その上に支持される多様体や信号を表現する技術について研究する。
まず,変分モデルによる非等尺形状マッチングについて検討する。
次に、多様体上の平行輸送のアイデアを用いて、畳み込みと畳み込みニューラルネットワークを変形可能な多様体に一般化する。
最後に,データの本質的幾何学とトポロジーを捉えるための新しい自己回帰モデルを提案する。
この作業を通じて、私たちは、仕事の動機付けと結果分析の両面で、コンピュータ対応の考え方を使います。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Geometry-Informed Neural Networks [15.27249535281444]
幾何インフォームドニューラルネットワーク(GINN)を導入する。
GINNは、データなしで形状生成ニューラルネットワークをトレーニングするためのフレームワークである。
GINNをいくつかの検証問題と現実的な3Dエンジニアリング設計問題に適用する。
論文 参考訳(メタデータ) (2024-02-21T18:50:12Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Exploring Data Geometry for Continual Learning [64.4358878435983]
非定常データストリームのデータ幾何を探索することにより,新しい視点から連続学習を研究する。
提案手法は,新しいデータによって引き起こされる幾何構造に対応するために,基底空間の幾何学を動的に拡張する。
実験により,本手法はユークリッド空間で設計したベースライン法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-08T06:35:25Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Intrinsic Dimension for Large-Scale Geometric Learning [0.0]
データセットの次元を決定するための単純なアプローチは、属性の数に基づいています。
より洗練された手法は、より複雑な特徴関数を用いる内在次元(ID)の概念を導出する。
論文 参考訳(メタデータ) (2022-10-11T09:50:50Z) - Algebraic Machine Learning with an Application to Chemistry [0.0]
我々はスムーズな仮定に頼ることなく、微粒な幾何学的情報をキャプチャする機械学習パイプラインを開発した。
特に,基礎変数の特異点近傍にある点を数値的に検出する手法を提案する。
論文 参考訳(メタデータ) (2022-05-11T22:41:19Z) - Quadric hypersurface intersection for manifold learning in feature space [52.83976795260532]
適度な高次元と大きなデータセットに適した多様体学習技術。
この手法は、二次超曲面の交点という形で訓練データから学習される。
テスト時、この多様体は任意の新しい点に対する外れ値スコアを導入するのに使うことができる。
論文 参考訳(メタデータ) (2021-02-11T18:52:08Z) - Identifying the latent space geometry of network models through analysis
of curvature [7.644165047073435]
本稿では,可換空間の経験的に関連するクラスから多様体の種類,次元,曲率を一貫して推定する手法を提案する。
私たちのコアインサイトは、このグラフを、シリック間の結びつきに基づく騒々しい距離行列として表現することで実現します。
論文 参考訳(メタデータ) (2020-12-19T00:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。