論文の概要: Simplicial Attention Networks
- arxiv url: http://arxiv.org/abs/2203.07485v1
- Date: Mon, 14 Mar 2022 20:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:22:37.617573
- Title: Simplicial Attention Networks
- Title(参考訳): 単純な注意ネットワーク
- Authors: L. Giusti, C. Battiloro, P. Di Lorenzo, S. Sardellitti, S. Barbarossa
- Abstract要約: 異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of this work is to introduce simplicial attention networks (SANs),
i.e., novel neural architectures that operate on data defined on simplicial
complexes leveraging masked self-attentional layers. Hinging on formal
arguments from topological signal processing, we introduce a proper
self-attention mechanism able to process data components at different layers
(e.g., nodes, edges, triangles, and so on), while learning how to weight both
upper and lower neighborhoods of the given topological domain in a totally
task-oriented fashion. The proposed SANs generalize most of the current
architectures available for processing data defined on simplicial complexes.
The proposed approach compares favorably with other methods when applied to
different (inductive and transductive) tasks such as trajectory prediction and
missing data imputations in citation complexes.
- Abstract(参考訳): 本研究の目的は、SAN(simplicial attention network, SAN)、すなわち、マスクされた自己意図的層を利用したsimplicial Complex上で定義されたデータを操作する新しいニューラルアーキテクチャを導入することである。
トポロジカルな信号処理からの形式的な議論に注目しながら、与えられたトポロジカルドメインの上層と下層の両方をタスク指向の方法で重み付けする方法を学習しながら、異なる層(例えばノード、エッジ、三角形など)でデータコンポーネントを処理できる適切な自己照準機構を導入する。
提案されたSANは、単純複体上で定義されたデータを処理するために利用可能な現在のアーキテクチャの大部分を一般化する。
提案手法は, 軌道予測や引用複体におけるデータインプテーションの欠如など, 異なる(帰納的, 帰納的)タスクに適用される他の手法と好適に比較できる。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Generalized Simplicial Attention Neural Networks [22.171364354867723]
我々はGSAN(Generalized Simplicial Attention Neural Networks)を紹介する。
GSANは、マスク付き自己意図層を用いて、単純な複合体に生きるデータを処理する。
これらのスキームは、タスク指向の方法で、連続した順序の隣り合う単純さに関連するデータを組み合わせる方法を学ぶ。
論文 参考訳(メタデータ) (2023-09-05T11:29:25Z) - Pooling Strategies for Simplicial Convolutional Networks [18.80397868603073]
本研究の目的は、単純な畳み込みニューラルネットワークのプーリング戦略を導入することである。
グラフプーリング法に着想を得て,単純なプーリング層に対する一般的な定式化を導入する。
一般的なレイヤは4つの異なるプール戦略を設計するようにカスタマイズされる。
論文 参考訳(メタデータ) (2022-10-11T14:45:51Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Layer-stacked Attention for Heterogeneous Network Embedding [0.0]
レイヤスタックATTention Embedding (LATTE)は、各レイヤで上位のメタ関係を自動的に分解するアーキテクチャである。
LATTEは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能なアグリゲーションスキームを提供する。
帰納的ノード分類タスクと帰納的ノード分類タスクの両方において、LATTEは既存のアプローチと比較して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-09-17T05:13:41Z) - Decontextualized learning for interpretable hierarchical representations
of visual patterns [0.0]
本稿では、この問題に対処するために設計されたアルゴリズムと訓練パラダイムについて述べる。
DHRLは、小さなデータセットの制限に対処し、階層的に整理された一連の不整合を奨励する。
変分推論を用いた複雑な階層パターン解析のためのトラクタブルパスの提供に加えて、このアプローチは生成的であり、経験的および理論的アプローチと直接結合することができる。
論文 参考訳(メタデータ) (2020-08-31T14:47:55Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z) - Seismic horizon detection with neural networks [62.997667081978825]
本稿では,複数の実地震立方体上での地平線検出にバイナリセグメンテーションを適用し,予測モデルのキューブ間一般化に着目したオープンソースの研究である。
本研究の主な貢献は,複数実地震立方体における地平線検出にバイナリセグメンテーションを適用し,予測モデルのキューブ間一般化に着目したオープンソースの研究である。
論文 参考訳(メタデータ) (2020-01-10T11:30:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。