論文の概要: MagNet: Discovering Multi-agent Interaction Dynamics using Neural
Network
- arxiv url: http://arxiv.org/abs/2001.09001v2
- Date: Tue, 3 Mar 2020 21:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:07:29.276870
- Title: MagNet: Discovering Multi-agent Interaction Dynamics using Neural
Network
- Title(参考訳): MagNet:ニューラルネットワークを用いたマルチエージェントインタラクションダイナミクスの発見
- Authors: Priyabrata Saha, Arslan Ali, Burhan A. Mudassar, Yun Long, and Saibal
Mukhopadhyay
- Abstract要約: MagNetはニューラルネットワークベースのマルチエージェントインタラクションモデルである。
マルチエージェントシステムのコアダイナミクスを観測から発見するように訓練されている。
エージェント固有のパラメータを学習し、正確な予測を保証するために、オンラインで調整される。
- 参考スコア(独自算出の注目度): 11.285833408524708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the MagNet, a neural network-based multi-agent interaction model
to discover the governing dynamics and predict evolution of a complex
multi-agent system from observations. We formulate a multi-agent system as a
coupled non-linear network with a generic ordinary differential equation (ODE)
based state evolution, and develop a neural network-based realization of its
time-discretized model. MagNet is trained to discover the core dynamics of a
multi-agent system from observations, and tuned on-line to learn agent-specific
parameters of the dynamics to ensure accurate prediction even when physical or
relational attributes of agents, or number of agents change. We evaluate MagNet
on a point-mass system in two-dimensional space, Kuramoto phase synchronization
dynamics and predator-swarm interaction dynamics demonstrating orders of
magnitude improvement in prediction accuracy over traditional deep learning
models.
- Abstract(参考訳): 我々は、ニューラルネットワークに基づくマルチエージェントインタラクションモデルであるMagNetを紹介し、複雑なマルチエージェントシステムの制御ダイナミクスを発見し、観察から進化を予測する。
我々は,一般常微分方程式(ODE)に基づく状態進化と結合した非線形ネットワークとして多エージェント系を定式化し,時間分散モデルのニューラルネットワークに基づく実現法を開発した。
MagNetは、観察からマルチエージェントシステムのコアダイナミクスを発見するように訓練され、エージェントの物理的またはリレーショナルな属性やエージェントの数の変化を正確に予測するために、エージェント固有の動的パラメータをオンラインで学習するように調整された。
従来の深層学習モデルよりも予測精度が格段に向上したことを示す2次元空間における点質量系のMagNet, 倉本位相同期ダイナミクス, 捕食者相互作用ダイナミクスについて検討した。
関連論文リスト
- A short trajectory is all you need: A transformer-based model for long-time dissipative quantum dynamics [0.0]
深層人工知能ニューラルネットワークは、散逸環境に結合した量子システムの長時間の人口動態を予測することができることを示す。
我々のモデルは、リカレントニューラルネットワークのような古典的な予測モデルよりも正確です。
論文 参考訳(メタデータ) (2024-09-17T16:17:52Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Stretched and measured neural predictions of complex network dynamics [2.1024950052120417]
微分方程式のデータ駆動近似は、力学系のモデルを明らかにする従来の方法に代わる有望な方法である。
最近、ダイナミックスを研究する機械学習ツールとしてニューラルネットワークが採用されている。これは、データ駆動型ソリューションの検出や微分方程式の発見に使用できる。
従来の統計学習理論の限界を超えてモデルの一般化可能性を拡張することは可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T09:44:59Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Relational State-Space Model for Stochastic Multi-Object Systems [24.234120525358456]
本稿では、逐次階層型潜在変数モデルであるリレーショナル状態空間モデル(R-SSM)を紹介する。
R-SSMはグラフニューラルネットワーク(GNN)を用いて、複数の相関オブジェクトの結合状態遷移をシミュレートする。
R-SSMの実用性は、合成および実時間時系列データセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-01-13T03:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。