論文の概要: Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need?
- arxiv url: http://arxiv.org/abs/2112.12345v1
- Date: Thu, 23 Dec 2021 03:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 14:24:10.394877
- Title: Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need?
- Title(参考訳): 変換の再検討 invariant geometric deep learning: 初期表現は必要なだけか?
- Authors: Ziwei Zhang, Xin Wang, Zeyang Zhang, Peng Cui, Wenwu Zhu
- Abstract要約: 変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
- 参考スコア(独自算出の注目度): 80.86819657126041
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Geometric deep learning, i.e., designing neural networks to handle the
ubiquitous geometric data such as point clouds and graphs, have achieved great
successes in the last decade. One critical inductive bias is that the model can
maintain invariance towards various transformations such as translation,
rotation, and scaling. The existing graph neural network (GNN) approaches can
only maintain permutation-invariance, failing to guarantee invariance with
respect to other transformations. Besides GNNs, other works design
sophisticated transformation-invariant layers, which are computationally
expensive and difficult to be extended. To solve this problem, we revisit why
the existing neural networks cannot maintain transformation invariance when
handling geometric data. Our findings show that transformation-invariant and
distance-preserving initial representations are sufficient to achieve
transformation invariance rather than needing sophisticated neural layer
designs. Motivated by these findings, we propose Transformation Invariant
Neural Networks (TinvNN), a straightforward and general framework for geometric
data. Specifically, we realize transformation-invariant and distance-preserving
initial point representations by modifying multi-dimensional scaling before
feeding the representations into neural networks. We prove that TinvNN can
strictly guarantee transformation invariance, being general and flexible enough
to be combined with the existing neural networks. Extensive experimental
results on point cloud analysis and combinatorial optimization demonstrate the
effectiveness and general applicability of our proposed method. Based on the
experimental results, we advocate that TinvNN should be considered a new
starting point and an essential baseline for further studies of
transformation-invariant geometric deep learning.
- Abstract(参考訳): 幾何学的深層学習、すなわち点雲やグラフのようなユビキタスな幾何学的データを扱うニューラルネットワークの設計は、この10年で大きな成功を収めた。
重要な帰納バイアスの1つは、モデルが翻訳、回転、スケーリングといった様々な変換に対して不変性を維持することができることである。
既存のグラフニューラルネットワーク(GNN)アプローチでは、置換不変性のみが維持でき、他の変換に対する不変性を保証することができない。
GNN以外にも、計算コストが高く拡張が難しい高度な変換不変層を設計する研究もある。
この問題を解決するために、幾何学的データを扱う際に、既存のニューラルネットワークが変換不変性を維持できない理由を再考する。
この結果から, 変換不変および距離保存初期表現は, 高度な神経層設計を必要とせず, 変換不変性を実現するのに十分であることが示唆された。
これらの知見に触発されて、幾何データのための単純かつ一般的なフレームワークである変換不変ニューラルネットワーク(TinvNN)を提案する。
具体的には、ニューラルネットワークに表現を供給する前に多次元スケーリングを変更することにより、変換不変で距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
点雲解析と組合せ最適化に関する大規模な実験結果から,提案手法の有効性と汎用性を示した。
実験結果に基づいて,TinvNNは新たな出発点であり,変換不変な幾何学的深層学習のさらなる研究に欠かせない基礎となるべきである。
関連論文リスト
- Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Affine Invariance in Continuous-Domain Convolutional Neural Networks [6.019182604573028]
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
アフィン変換における2つの入力信号の類似性を評価するための新しい基準を導入する。
私たちの研究は最終的には、実用的なディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
論文 参考訳(メタデータ) (2023-11-13T14:17:57Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Self-Supervised Graph Representation Learning via Topology
Transformations [61.870882736758624]
本稿では,グラフデータのノード表現のための自己教師型学習の一般的なパラダイムであるトポロジー変換同変表現学習について述べる。
実験では,提案手法を下流ノードおよびグラフ分類タスクに適用し,提案手法が最先端の教師なし手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T06:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。