論文の概要: Integrated Push-and-Pull Update Model for Goal-Oriented Effective Communication
- arxiv url: http://arxiv.org/abs/2407.14092v1
- Date: Fri, 19 Jul 2024 07:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 18:23:52.969712
- Title: Integrated Push-and-Pull Update Model for Goal-Oriented Effective Communication
- Title(参考訳): ゴール指向効果的な通信のための統合プッシュ・アンド・プル更新モデル
- Authors: Pouya Agheli, Nikolaos Pappas, Petar Popovski, Marios Kountouris,
- Abstract要約: センサエージェントがソースを観測し、アクティベーションエージェントに更新を生成し、送信するエンドツーエンドのステータス更新システムについて検討する。
我々はプッシュ・アンド・プル・モデルを得るためにプッシュ・アンド・プル・アップデート・コミュニケーション・モデルを統合する。
提案したプッシュ・アンド・プルモデルでは,プッシュ・アンド・プル・モデルはプッシュ・アンド・プル・ベースの更新のみに基づくモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 40.57990979803115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies decision-making for goal-oriented effective communication. We consider an end-to-end status update system where a sensing agent (SA) observes a source, generates and transmits updates to an actuation agent (AA), while the AA takes actions to accomplish a goal at the endpoint. We integrate the push- and pull-based update communication models to obtain a push-and-pull model, which allows the transmission controller at the SA to decide to push an update to the AA and the query controller at the AA to pull updates by raising queries at specific time instances. To gauge effectiveness, we utilize a grade of effectiveness (GoE) metric incorporating updates' freshness, usefulness, and timeliness of actions as qualitative attributes. We then derive effect-aware policies to maximize the expected discounted sum of updates' effectiveness subject to induced costs. The effect-aware policy at the SA considers the potential effectiveness of communicated updates at the endpoint, while at the AA, it accounts for the probabilistic evolution of the source and importance of generated updates. Our results show the proposed push-and-pull model outperforms models solely based on push- or pull-based updates both in terms of efficiency and effectiveness. Additionally, using effect-aware policies at both agents enhances effectiveness compared to periodic and/or probabilistic effect-agnostic policies at either or both agents.
- Abstract(参考訳): 本稿では,ゴール指向の効果的なコミュニケーションのための意思決定について検討する。
我々は、センサエージェント(SA)がソースを観察し、アクティベーションエージェント(AA)に更新を生成し、送信するエンド・ツー・エンドのステータス更新システムについて検討する。
我々はプッシュ・アンド・プル・モデルにプッシュ・アンド・プル・モデルを統合することで,SAの送信コントローラがAAとAAのクエリコントローラに更新をプッシュすることで,特定のインスタンスでクエリを起動することで更新をプルすることができる。
有効性を評価するために、更新の鮮度、有用性、行動のタイムラインを質的属性として組み込んだGoE( grade of effectiveness)メトリクスを利用する。
次に、コスト誘導による更新効果の期待値の削減を最大化するために、効果認識ポリシーを導出する。
SAのエフェクト・アウェア・ポリシーは、エンドポイントにおける通信更新の有効性を考慮し、AAではソースの確率論的進化と生成された更新の重要性を考慮に入れている。
提案したプッシュ・アンド・プルモデルでは,効率と効率の両面から,プッシュ・アンド・プルの更新のみに基づくモデルよりも優れていることを示す。
さらに、双方のエージェントにおけるエフェクト・アウェア・ポリシーの使用は、周期的および/または確率的エフェクト・アグノスティック・ポリシーのいずれかのエージェントにおけるエフェクト・アウェア・ポリシーと比較して効果を高める。
関連論文リスト
- Push- and Pull-based Effective Communication in Cyber-Physical Systems [15.079887992932692]
我々は,CPSにおけるプッシュ・アンド・プル・コミュニケーションの分析モデルを提案し,そのポリシーの最適性はサイバー価値情報(VoI)の状態と一致していることを確認した。
我々の結果は、より良い最適ソリューションを提供するにもかかわらず、実装可能なプッシュベースの通信戦略は比較的単純なシナリオでも性能が劣る可能性があることも強調した。
論文 参考訳(メタデータ) (2024-01-15T10:06:17Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Adversarial Policy Optimization in Deep Reinforcement Learning [16.999444076456268]
ディープニューラルネットワークで表されるポリシーは過度に適合し、強化学習エージェントが効果的なポリシーを学ぶのを妨げます。
データ拡張は、オーバーフィッティングの効果を軽減し、RLエージェントのパフォーマンスを高めることができる。
本稿では、上記の問題を緩和し、学習ポリシーの効率を向上させるための新しいRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-27T21:01:08Z) - Age of Semantics in Cooperative Communications: To Expedite Simulation
Towards Real via Offline Reinforcement Learning [53.18060442931179]
協調リレー通信システムにおける状態更新のセマンティックス更新度を測定するための意味学年代(AoS)を提案する。
オンライン・ディープ・アクター・クリティック(DAC)学習手法を,政治時間差学習の枠組みに基づいて提案する。
そこで我々は,以前に収集したデータセットから最適制御ポリシーを推定する,新しいオフラインDAC方式を提案する。
論文 参考訳(メタデータ) (2022-09-19T11:55:28Z) - Fully Decentralized Model-based Policy Optimization for Networked
Systems [23.46407780093797]
本研究の目的は,モデルベース学習によるマルチエージェント制御のデータ効率の向上である。
エージェントが協力的であり、隣人とのみローカルに通信するネットワークシステムについて検討する。
提案手法では,各エージェントが将来の状態を予測し,通信によって予測をブロードキャストする動的モデルを学習し,その後,モデルロールアウトに基づいてポリシーをトレーニングする。
論文 参考訳(メタデータ) (2022-07-13T23:52:14Z) - Differential Assessment of Black-Box AI Agents [29.98710357871698]
従来知られていたモデルから逸脱したブラックボックスAIエージェントを差分評価する手法を提案する。
我々は,漂流エージェントの現在の挙動と初期モデルの知識の疎度な観察を利用して,アクティブなクエリポリシーを生成する。
経験的評価は、エージェントモデルをスクラッチから再学習するよりも、我々のアプローチの方がはるかに効率的であることを示している。
論文 参考訳(メタデータ) (2022-03-24T17:48:58Z) - Offline Reinforcement Learning with Implicit Q-Learning [85.62618088890787]
現行のオフライン強化学習手法では、トレーニング中に見つからない行動の価値を問い合わせて、ポリシーを改善する必要がある。
本稿では,データセット外の動作を評価する必要のないオフラインRL手法を提案する。
この方法により、学習したポリシーは、一般化によってデータの最良の振る舞いを大幅に改善することができる。
論文 参考訳(メタデータ) (2021-10-12T17:05:05Z) - APS: Active Pretraining with Successor Features [96.24533716878055]
非エントロピーと後継指標であるHansenFastを再解釈して組み合わせることで、難解な相互情報を効率的に最適化できることを示す。
提案手法は,非エントロピーを用いて環境を探索し,探索したデータを効率的に活用して動作を学習する。
論文 参考訳(メタデータ) (2021-08-31T16:30:35Z) - Active Feature Acquisition with Generative Surrogate Models [11.655069211977464]
本研究では,アクティブ機能獲得(AFA)を行うモデルについて検討し,未観測機能に対する環境問合せを行う。
我々の研究は、AFA問題を生成的モデリングタスクとして根底にあるマルコフ決定プロセス(MDP)を再構築する。
本稿では,入力特徴間の依存関係を捕捉し,取得から得られる潜在的な情報を評価する生成代理モデル(GSM)の学習を提案する。
論文 参考訳(メタデータ) (2020-10-06T02:10:06Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。