論文の概要: Principled Simplicial Neural Networks for Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2102.10058v1
- Date: Fri, 19 Feb 2021 17:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:19:13.707673
- Title: Principled Simplicial Neural Networks for Trajectory Prediction
- Title(参考訳): 軌道予測のための原理的簡易ニューラルネットワーク
- Authors: Nicholas Glaze, T. Mitchell Roddenberry, Santiago Segarra
- Abstract要約: 単純複素体上のデータに対するニューラルネットワークアーキテクチャの構築を検討する。
これらの特性に基づいて,軌道予測問題に対する単純な畳み込みアーキテクチャを提案する。
非線形アクティベーション関数を用いた場合,これら3つの特性をすべて従うことを示す。
- 参考スコア(独自算出の注目度): 17.016397531234393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the construction of neural network architectures for data on
simplicial complexes. In studying maps on the chain complex of a simplicial
complex, we define three desirable properties of a simplicial neural network
architecture: namely, permutation equivariance, orientation equivariance, and
simplicial awareness. The first two properties respectively account for the
fact that the node indexing and the simplex orientations in a simplicial
complex are arbitrary. The last property encodes the desirable feature that the
output of the neural network depends on the entire simplicial complex and not
on a subset of its dimensions. Based on these properties, we propose a simple
convolutional architecture, rooted in tools from algebraic topology, for the
problem of trajectory prediction, and show that it obeys all three of these
properties when an odd, nonlinear activation function is used. We then
demonstrate the effectiveness of this architecture in extrapolating
trajectories on synthetic and real datasets, with particular emphasis on the
gains in generalizability to unseen trajectories.
- Abstract(参考訳): 単純複素体上のデータに対するニューラルネットワークアーキテクチャの構築を検討する。
simplicial complex の連鎖複体上の写像の研究において、simplicial neural network architecture の3つの望ましい性質、すなわち、置換同値、配向同値、simplicial awareness を定義する。
最初の2つの性質は、ノードのインデクシングと単純複体におけるシンプレックスの向きが任意であるという事実をそれぞれ説明している。
最後の特性は、ニューラルネットワークの出力がその次元の部分集合ではなく、単純複体全体に依存する望ましい特徴を符号化する。
これらの特性に基づいて,代数トポロジのツールに根ざした単純な畳み込みアーキテクチャを軌道予測問題として提案し,奇な非線形活性化関数を用いた場合,これら3つの特性すべてに従うことを示した。
次に、このアーキテクチャが合成データセットと実データセットの軌道を外挿することの有効性を実証し、特に目に見えない軌道に対する一般化可能性の向上を強調した。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Generalized Simplicial Attention Neural Networks [23.493128450672348]
我々はGSAN(Generalized Simplicial Attention Neural Networks)を紹介する。
GSANはマスク付き自己意図層を用いて単純な複合体上で定義されたデータを処理する。
理論的には、GSANは置換同変であり、単純な認識である。
論文 参考訳(メタデータ) (2023-09-05T11:29:25Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Simplicial Attention Networks [0.0]
異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
論文 参考訳(メタデータ) (2022-03-14T20:47:31Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Vector Neurons: A General Framework for SO(3)-Equivariant Networks [32.81671803104126]
本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
論文 参考訳(メタデータ) (2021-04-25T18:48:15Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。