論文の概要: Distributed Inference with Sparse and Quantized Communication
- arxiv url: http://arxiv.org/abs/2004.01302v4
- Date: Mon, 7 Jun 2021 17:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:25:21.112332
- Title: Distributed Inference with Sparse and Quantized Communication
- Title(参考訳): スパース通信と量子通信による分散推論
- Authors: Aritra Mitra, John A. Richards, Saurabh Bagchi and Shreyas Sundaram
- Abstract要約: ネットワーク内のエージェントが未知の状態によって生成されたプライベート信号のストリームを観測する分散推論の問題を考察する。
本研究では,各仮説に対する低信念を拡散する原理に基づく,イベントトリガー型分散学習ルールを開発する。
逐次量子化器の範囲を精製することにより、各エージェントは1ドルビットで各仮説の信念を符号化しながら、ほぼ確実に指数関数的に真理を学習できることを示す。
- 参考スコア(独自算出の注目度): 7.155594644943642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of distributed inference where agents in a network
observe a stream of private signals generated by an unknown state, and aim to
uniquely identify this state from a finite set of hypotheses. We focus on
scenarios where communication between agents is costly, and takes place over
channels with finite bandwidth. To reduce the frequency of communication, we
develop a novel event-triggered distributed learning rule that is based on the
principle of diffusing low beliefs on each false hypothesis. Building on this
principle, we design a trigger condition under which an agent broadcasts only
those components of its belief vector that have adequate innovation, to only
those neighbors that require such information. We prove that our rule
guarantees convergence to the true state exponentially fast almost surely
despite sparse communication, and that it has the potential to significantly
reduce information flow from uninformative agents to informative agents. Next,
to deal with finite-precision communication channels, we propose a distributed
learning rule that leverages the idea of adaptive quantization. We show that by
sequentially refining the range of the quantizers, every agent can learn the
truth exponentially fast almost surely, while using just $1$ bit to encode its
belief on each hypothesis. For both our proposed algorithms, we rigorously
characterize the trade-offs between communication-efficiency and the learning
rate.
- Abstract(参考訳): ネットワーク内のエージェントが未知の状態によって生成されたプライベート信号のストリームを観測し、この状態を有限の仮説から一意に識別することを目的とした分散推論の問題を考える。
エージェント間の通信がコストがかかり、帯域幅が有限なチャネル上で発生するシナリオに焦点を当てる。
コミュニケーションの頻度を減らすために,偽仮説ごとに低い信念を拡散する原則に基づく,新たなイベントトリガー型分散学習ルールを開発した。
この原理に基づいて、エージェントが十分なイノベーションを持つ信念ベクトルの構成要素のみを、そのような情報を必要とする隣人だけにブロードキャストするトリガー条件を設計する。
本規則は, 疎通信にもかかわらず, ほぼ確実に真の状態への収束を保証し, 情報伝達エージェントから情報伝達エージェントへの情報フローを著しく低減する可能性を証明している。
次に,有限精度通信チャネルを扱うために,適応量子化の考え方を活かした分散学習ルールを提案する。
逐次量子化器の範囲を精製することにより、各エージェントは1ドルビットで各仮説の信念を符号化しながら、ほぼ確実に指数関数的に真理を学習できることを示す。
提案アルゴリズムはどちらも,コミュニケーション効率と学習率のトレードオフを厳格に評価する。
関連論文リスト
- Networked Communication for Mean-Field Games with Function Approximation and Empirical Mean-Field Estimation [59.01527054553122]
分散エージェントは、経験的システムの単一かつ非エポゾディックな実行から平均フィールドゲームにおける平衡を学ぶことができる。
既存の設定に関数近似を導入し,Munchausen Online Mirror Descent 方式で描画する。
また, エージェントが局所的な周辺地域に基づいて, グローバルな経験分布を推定できる新しいアルゴリズムも提供する。
論文 参考訳(メタデータ) (2024-08-21T13:32:46Z) - Distributed Event-Based Learning via ADMM [11.461617927469316]
エージェントがネットワーク上で情報を交換することで,グローバルな目的関数を最小限に抑える分散学習問題を考える。
提案手法には2つの特徴がある: (i) 必要なときにのみ通信をトリガーすることで通信を大幅に削減し, (ii) 異なるエージェント間のデータ分散に非依存である。
論文 参考訳(メタデータ) (2024-05-17T08:30:28Z) - Collaborative Optimization of the Age of Information under Partial
Observability [34.43476648472727]
Age of Information (AoI)は、受信側におけるセンサーと制御データの鮮度である。
我々は、容量制限の非FIFO二重チャネルを共有する多数のセンサエージェントに対して、分散AoI最小化伝送ポリシーを考案する。
また、平均場制御近似と強化学習を利用して、スケーラブルで最適なソリューションを導出する。
論文 参考訳(メタデータ) (2023-12-20T12:34:54Z) - Rate-Distortion-Perception Theory for Semantic Communication [73.04341519955223]
シンボル歪みおよび意味知覚制約下での意味コミュニケーションの達成可能なデータレートについて検討する。
我々は、受信者が特定の歪みや知覚の制約を満たす意味情報ソースを直接推測できるケースが存在することを観察する。
論文 参考訳(メタデータ) (2023-12-09T02:04:32Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Semantic Communication of Learnable Concepts [16.373044313375782]
我々は、例を通してのみ観察できる、未知および潜在的マップという一連の概念を伝達する問題を考える。
送信機は利用可能な例に学習アルゴリズムを適用し、データから知識を抽出する。
その後、送信機は学習したモデルをレート制限チャンネルを介してリモート受信機に通信する必要がある。
論文 参考訳(メタデータ) (2023-05-14T11:16:17Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - Robust Asynchronous and Network-Independent Cooperative Learning [1.712689361909955]
エージェントのネットワークが仮説に共同で同意しようとする分散非ベイズ学習による協調学習のモデルを考える。
提案した学習力学は,ネットワーク内のすべてのエージェントが,誤った仮説に対する信念を指数関数的に崩壊させることを保証している。
論文 参考訳(メタデータ) (2020-10-20T03:54:20Z) - Distributed Hypothesis Testing and Social Learning in Finite Time with a
Finite Amount of Communication [1.9199742103141069]
分散仮説テスト(ソーシャルラーニング)の問題点を考察する。
エージェントのネットワークは、有限の仮説から世界の真の状態を特定しようとする。
エージェントがネットワークの直径を知っていれば,アルゴリズムをさらに改良して,すべてのエージェントが真の状態を学習できることが示される。
論文 参考訳(メタデータ) (2020-04-02T23:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。