論文の概要: Permutation-Invariant Set Autoencoders with Fixed-Size Embeddings for
Multi-Agent Learning
- arxiv url: http://arxiv.org/abs/2302.12826v1
- Date: Fri, 24 Feb 2023 18:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 12:34:53.267221
- Title: Permutation-Invariant Set Autoencoders with Fixed-Size Embeddings for
Multi-Agent Learning
- Title(参考訳): マルチエージェント学習のための固定サイズ埋め込み付き置換不変集合オートエンコーダ
- Authors: Ryan Kortvelesy, Steven Morad, Amanda Prorok
- Abstract要約: 置換不変集合オートエンコーダ(PISA)を導入する。
PISAは、既存のベースラインよりも大幅に低い再構成誤差でエンコードを生成する。
マルチエージェントアプリケーションでその有用性を示す。
- 参考スコア(独自算出の注目度): 7.22614468437919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of permutation-invariant learning over set representations is
particularly relevant in the field of multi-agent systems -- a few potential
applications include unsupervised training of aggregation functions in graph
neural networks (GNNs), neural cellular automata on graphs, and prediction of
scenes with multiple objects. Yet existing approaches to set encoding and
decoding tasks present a host of issues, including non-permutation-invariance,
fixed-length outputs, reliance on iterative methods, non-deterministic outputs,
computationally expensive loss functions, and poor reconstruction accuracy. In
this paper we introduce a Permutation-Invariant Set Autoencoder (PISA), which
tackles these problems and produces encodings with significantly lower
reconstruction error than existing baselines. PISA also provides other
desirable properties, including a similarity-preserving latent space, and the
ability to insert or remove elements from the encoding. After evaluating PISA
against baseline methods, we demonstrate its usefulness in a multi-agent
application. Using PISA as a subcomponent, we introduce a novel GNN
architecture which serves as a generalised communication scheme, allowing
agents to use communication to gain full observability of a system.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)におけるアグリゲーション機能の教師なしトレーニング、グラフ上のニューラルセルオートマトン、複数のオブジェクトを持つシーンの予測など、潜在的な応用が考えられる。
しかし、非置換不変性、固定長出力、反復法への依存、非決定論的出力、計算コストのかかる損失関数、再構成精度の低下など、既存の手法では多くの問題が存在する。
本稿では、これらの問題に対処し、既存のベースラインよりも大幅に低い再構成誤差で符号化を生成するPermutation-Invariant Set Autoencoder (PISA)を提案する。
PISAはまた、類似性を保存する潜在空間、エンコーディングから要素を挿入または削除する機能など、他の望ましい特性も提供している。
PISAをベースライン法に対して評価した後、マルチエージェントアプリケーションにおいてその有用性を示す。
PISAをサブコンポーネントとして用いることで,汎用的な通信方式として機能する新しいGNNアーキテクチャを導入し,エージェントが通信を利用してシステムの完全な可観測性を得ることを可能にする。
関連論文リスト
- Multilevel CNNs for Parametric PDEs based on Adaptive Finite Elements [0.0]
高次元パラメータ依存偏微分方程式の多値性を利用するニューラルネットワークアーキテクチャが提案されている。
ネットワークは適応的に洗練された有限要素メッシュのデータで訓練される。
適応型マルチレベルスキームに対して完全収束と複雑性解析を行う。
論文 参考訳(メタデータ) (2024-08-20T13:32:11Z) - The Balanced-Pairwise-Affinities Feature Transform [2.3020018305241337]
BPA機能変換は、入力項目のセットの機能をアップグレードして、下流のマッチングや関連するタスクのグループ化を容易にするように設計されている。
特定の min- Cost-max-flow の分数マッチング問題は、効率的、微分可能、同変、パラメータレス、確率論的に解釈可能な変換をもたらす。
経験的には、この変換はその使用において非常に効果的で柔軟性があり、様々なタスクやトレーニングスキームにおいて挿入されるネットワークを継続的に改善する。
論文 参考訳(メタデータ) (2024-06-25T14:28:05Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - PowerQuant: Automorphism Search for Non-Uniform Quantization [37.82255888371488]
我々は、量子化演算子の均一性を既存のアプローチの制限として同定し、データフリーな非一様法を提案する。
我々は、PowerQuantと呼ばれる我々の手法は、量子化されたDNNアクティベーション関数の単純な修正しか必要としないことを示した。
論文 参考訳(メタデータ) (2023-01-24T08:30:14Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Set Interdependence Transformer: Set-to-Sequence Neural Networks for
Permutation Learning and Structure Prediction [6.396288020763144]
セット・ツー・シーケンス問題は自然言語処理、コンピュータビジョン、構造予測において発生する。
それまでの注意に基づく手法では、n$-次関係を明示的に表すために、セット変換の$n$層を必要とする。
本稿では,集合の置換不変表現を任意の濃度の集合内のその要素に関連付けることのできる,集合間距離変換器と呼ばれる新しいニューラルセット符号化法を提案する。
論文 参考訳(メタデータ) (2022-06-08T07:46:49Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Learn to Predict Sets Using Feed-Forward Neural Networks [63.91494644881925]
本稿では、ディープフィードフォワードニューラルネットワークを用いた設定予測の課題に対処する。
未知の置換と基数を持つ集合を予測するための新しい手法を提案する。
関連視覚問題に対する集合定式化の有効性を実証する。
論文 参考訳(メタデータ) (2020-01-30T01:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。