論文の概要: Joint Learning of Network Topology and Opinion Dynamics Based on Bandit
Algorithms
- arxiv url: http://arxiv.org/abs/2306.15695v1
- Date: Sun, 25 Jun 2023 21:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 17:12:31.553507
- Title: Joint Learning of Network Topology and Opinion Dynamics Based on Bandit
Algorithms
- Title(参考訳): バンディットアルゴリズムに基づくネットワークトポロジーとオピニオンダイナミクスの合同学習
- Authors: Yu Xing, Xudong Sun, Karl H. Johansson
- Abstract要約: ネットワークトポロジと混合意見力学の合同学習について検討する。
本稿では,この問題に対処するためのマルチアームバンディットアルゴリズムに基づく学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.6912877206492036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study joint learning of network topology and a mixed opinion dynamics, in
which agents may have different update rules. Such a model captures the
diversity of real individual interactions. We propose a learning algorithm
based on multi-armed bandit algorithms to address the problem. The goal of the
algorithm is to find each agent's update rule from several candidate rules and
to learn the underlying network. At each iteration, the algorithm assumes that
each agent has one of the updated rules and then modifies network estimates to
reduce validation error. Numerical experiments show that the proposed algorithm
improves initial estimates of the network and update rules, decreases
prediction error, and performs better than other methods such as sparse linear
regression and Gaussian process regression.
- Abstract(参考訳): エージェントが異なる更新ルールを持つ可能性があるネットワークトポロジーと混合意見ダイナミクスの合同学習について検討した。
このようなモデルは実際の個々の相互作用の多様性を捉えている。
そこで本研究では,マルチアームバンディットアルゴリズムに基づく学習アルゴリズムを提案する。
アルゴリズムの目標は、複数の候補ルールから各エージェントの更新ルールを見つけ、基盤となるネットワークを学ぶことである。
各イテレーションにおいて、アルゴリズムは各エージェントが更新されたルールの1つを持っていると仮定し、ネットワーク推定を修正して検証エラーを減らす。
数値実験により,提案手法はネットワークの初期推定と更新規則を改善し,予測誤差を低減し,スパース線形回帰やガウス過程回帰といった他の手法よりも優れた性能を示す。
関連論文リスト
- Deep Equilibrium Algorithmic Reasoning [18.651333116786084]
我々は異なる観点からニューラルネットワークの解法を研究する。
アルゴリズムの解はしばしば平衡であるため、平衡方程式を解くことによって直接解を見つけることができる。
我々のアプローチでは、列車とテスト時間の両方において、アルゴリズムの実際のステップ数に関する情報を必要としない。
論文 参考訳(メタデータ) (2024-10-19T10:40:55Z) - Discrete Neural Algorithmic Reasoning [18.497863598167257]
本稿では,有限状態の組合せとして,ニューラル推論器に実行軌跡の維持を強制することを提案する。
アルゴリズムの状態遷移の監督で訓練されたモデルでは、元のアルゴリズムと完全に整合することができる。
論文 参考訳(メタデータ) (2024-02-18T16:03:04Z) - Interacting Particle Systems on Networks: joint inference of the network
and the interaction kernel [8.535430501710712]
エージェント間の相互作用のルールを決定するネットワークとシステムの重み行列を推論する。
我々は2つのアルゴリズムを使用する: 1つは演算子回帰と呼ばれる新しいアルゴリズムで、最小2乗のデータを交互に更新する。
どちらのアルゴリズムも、識別可能性と適正性を保証するスケーラブルな条件である。
論文 参考訳(メタデータ) (2024-02-13T12:29:38Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Non-Parametric Neuro-Adaptive Coordination of Multi-Agent Systems [29.22096249070293]
ネットワーク化されたマルチエージェントシステムの分散生成制御のための学習に基づくアルゴリズムを開発した。
提案アルゴリズムは、ニューラルネットワークに基づく学習と適応制御を2段階の手順で統合する。
形成作業の達成に関する公式な理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-11T10:04:08Z) - Breaking the Deadly Triad with a Target Network [80.82586530205776]
致命的な三脚とは、政治以外の学習、関数近似、ブートストラップを同時に使用するときの強化学習アルゴリズムの不安定性を指す。
我々は,二段階最適化を使わずに,非制限的かつ変化的な動作ポリシーの下で,最初の収束線形$Q$-learningアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-01-21T21:50:10Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。