論文の概要: Latent Space Representations of Neural Algorithmic Reasoners
- arxiv url: http://arxiv.org/abs/2307.08874v2
- Date: Mon, 29 Apr 2024 12:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 01:14:26.083100
- Title: Latent Space Representations of Neural Algorithmic Reasoners
- Title(参考訳): ニューラルネットワーク共振器の潜時空間表現
- Authors: Vladimir V. Mirjanić, Razvan Pascanu, Petar Veličković,
- Abstract要約: アルゴリズムの実行時にGNNによって誘導される潜伏空間の構造を詳細に解析する。
i) 分解能の喪失、(i) 類似した値の識別が困難、(ii) トレーニング中に観察された範囲外の値を扱うことができない、という2つの可能な障害モードを特定します。
これらの変更は、最先端のTriplet-GMPNNプロセッサを使用する場合、CLRS-30ベンチマークのアルゴリズムの大部分の改善につながることを示す。
- 参考スコア(独自算出の注目度): 15.920449080528536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Algorithmic Reasoning (NAR) is a research area focused on designing neural architectures that can reliably capture classical computation, usually by learning to execute algorithms. A typical approach is to rely on Graph Neural Network (GNN) architectures, which encode inputs in high-dimensional latent spaces that are repeatedly transformed during the execution of the algorithm. In this work we perform a detailed analysis of the structure of the latent space induced by the GNN when executing algorithms. We identify two possible failure modes: (i) loss of resolution, making it hard to distinguish similar values; (ii) inability to deal with values outside the range observed during training. We propose to solve the first issue by relying on a softmax aggregator, and propose to decay the latent space in order to deal with out-of-range values. We show that these changes lead to improvements on the majority of algorithms in the standard CLRS-30 benchmark when using the state-of-the-art Triplet-GMPNN processor. Our code is available at https://github.com/mirjanic/nar-latent-spaces
- Abstract(参考訳): ニューラルアルゴリズム推論(Neural Algorithmic Reasoning, NAR)は、アルゴリズムの実行を学ぶことによって、古典的な計算を確実にキャプチャできるニューラルネットワークの設計に焦点を当てた研究分野である。
典型的なアプローチは、アルゴリズムの実行中に繰り返し変換される高次元潜在空間の入力をエンコードするグラフニューラルネットワーク(GNN)アーキテクチャに依存する。
本稿では,アルゴリズムの実行時にGNNによって誘導される潜伏空間の構造を詳細に解析する。
可能な障害モードは2つあります。
一 分解能の喪失により、類似の値の区別が困難となること。
二 訓練中に観察した範囲外の値を扱うことができないこと。
本稿では,ソフトマックスアグリゲータに頼って最初の問題を解くことを提案するとともに,範囲外値を扱うために潜在空間を減衰させることを提案する。
これらの変更は、最先端のTriplet-GMPNNプロセッサを使用する場合、CLRS-30ベンチマークのアルゴリズムの大部分の改善につながることを示す。
私たちのコードはhttps://github.com/mirjanic/nar-latent-spacesで利用可能です。
関連論文リスト
- Discrete Neural Algorithmic Reasoning [21.852775399735005]
本稿では,有限状態の組合せとして,ニューラル推論器に実行軌跡の維持を強制することを提案する。
SALSA-CLRSベンチマークで完璧なテストスコアが得られ、すべてのタスクに対して完璧なテストスコアが得られます。
論文 参考訳(メタデータ) (2024-02-18T16:03:04Z) - The Deep Equilibrium Algorithmic Reasoner [20.375241527453447]
グラフニューラルネットワーク(GNN)が古典的アルゴリズムの実行を学習できることを示す。
我々は、ネットワークをトレーニングしてアルゴリズムの問題を解き、直接平衡を求めることができることを予想し、実証的に検証する。
論文 参考訳(メタデータ) (2024-02-09T14:46:50Z) - Triplet Edge Attention for Algorithmic Reasoning [16.130097693973845]
我々は、エッジ対応グラフアテンション層であるTriplet Edge Attention (TEA)と呼ばれる新しいグラフニューラルネットワーク層を導入する。
我々のアルゴリズムは、エッジベースの注意力を用いて、エッジ潜在を正確に計算し、複数のトリプルトメッセージを集約する。
論文 参考訳(メタデータ) (2023-12-09T16:46:28Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Neural Bipartite Matching [19.600193617583955]
本稿では,ニューラルネットワークが複雑なアルゴリズムに適用される方法について述べる。
単一のGNNから生成された機能のみに基づいて、ニューラル実行によって実現される。
評価の結果,ネットワークがほぼ100%の時間で最適なマッチングを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-22T17:50:38Z) - Learning to Accelerate Heuristic Searching for Large-Scale Maximum
Weighted b-Matching Problems in Online Advertising [51.97494906131859]
バイパルタイトbマッチングはアルゴリズム設計の基本であり、経済市場や労働市場などに広く適用されている。
既存の正確で近似的なアルゴリズムは、通常そのような設定で失敗する。
我々は、以前の事例から学んだ知識を活用して、新しい問題インスタンスを解決するtextttNeuSearcherを提案する。
論文 参考訳(メタデータ) (2020-05-09T02:48:23Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。