論文の概要: Canaries and Whistles: Resilient Drone Communication Networks with (or
without) Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2312.04940v1
- Date: Fri, 8 Dec 2023 10:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:41:17.353375
- Title: Canaries and Whistles: Resilient Drone Communication Networks with (or
without) Deep Reinforcement Learning
- Title(参考訳): カナリアとホイッスル: 深層強化学習による(あるいは不要な)レジリエントなドローン通信ネットワーク
- Authors: Chris Hicks, Vasilios Mavroudis, Myles Foley, Thomas Davies, Kate
Highnam, Tim Watson
- Abstract要約: 我々は、ドローンがサプライチェーン、製造中、そして悪意のあるソフトウェアに侵入された、困難なシナリオを考えます。
防衛戦略の学習ツールとしての多エージェント深層強化学習について検討する。
我々は最先端の専門家技術を提案し、深層強化学習エージェントに対するその優位性について検討する。
- 参考スコア(独自算出の注目度): 2.659716195611713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communication networks able to withstand hostile environments are critically
important for disaster relief operations. In this paper, we consider a
challenging scenario where drones have been compromised in the supply chain,
during their manufacture, and harbour malicious software capable of
wide-ranging and infectious disruption. We investigate multi-agent deep
reinforcement learning as a tool for learning defensive strategies that
maximise communications bandwidth despite continual adversarial interference.
Using a public challenge for learning network resilience strategies, we propose
a state-of-the-art expert technique and study its superiority over deep
reinforcement learning agents. Correspondingly, we identify three specific
methods for improving the performance of our learning-based agents: (1)
ensuring each observation contains the necessary information, (2) using expert
agents to provide a curriculum for learning, and (3) paying close attention to
reward. We apply our methods and present a new mixed strategy enabling expert
and learning-based agents to work together and improve on all prior results.
- Abstract(参考訳): 敵対的な環境に耐えられる通信ネットワークは,災害救助活動において極めて重要である。
本稿では,サプライチェーンにおいて,製造中にドローンが侵入され,広範囲かつ感染性のあるソフトウェアを封じ込めた,困難なシナリオについて考察する。
通信帯域幅を最大化する防衛戦略の学習ツールとして多エージェント深層強化学習を検討した。
ネットワークのレジリエンス戦略を学ぶためのパブリックチャレンジを用いて,最先端のエキスパートテクニックを提案し,深層強化学習エージェントに対するその優位性について検討する。
そこで我々は,(1)各観察に必要な情報が含まれていることを保証すること,(2)専門家を用いて学習カリキュラムを提供すること,(3)報酬に注意を払うこと,の3つの具体的手法を同定した。
提案手法を適用し,エキスパートと学習ベースのエージェントが連携して,すべての先行結果を改善するための,新たな混合戦略を提案する。
関連論文リスト
- Autonomous Network Defence using Reinforcement Learning [1.7249361224827533]
現実的なネットワーク防衛シナリオにおける自律エージェントの有効性について検討する。
新たな強化学習エージェントは、2つの先進的持続的脅威(APT)レッドエージェントによる連続的な攻撃を確実に防御できることを示す。
論文 参考訳(メタデータ) (2024-09-26T18:24:09Z) - Reinforcement Unlearning [35.23878330459424]
強化学習は、エージェントが累積報酬を最大化するために環境内で最適な決定を行うように訓練することに焦点を当てる。
データ保護規則に従って、環境の所有者はエージェントのトレーニングデータへのアクセスを無効にする権利を有する。
この特徴は,1) 環境に対する未学習スキームの提案方法,2) 残環境におけるエージェントのパフォーマンス低下を回避する方法,3) 未学習の有効性を評価する方法,の3つの異なる課題を提示する。
論文 参考訳(メタデータ) (2023-12-26T07:04:39Z) - Knowledge Transfer in Deep Reinforcement Learning via an RL-Specific GAN-Based Correspondence Function [0.0]
本稿では,強化学習に特化したサイクル生成適応型ネットワークを改良する新しいアプローチを紹介する。
本手法は, 同一タスクにおける100%の知識伝達と, 100%の知識伝達, 30%のトレーニング時間短縮を実現する。
論文 参考訳(メタデータ) (2022-09-14T12:42:59Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Coverage as a Principle for Discovering Transferable Behavior in
Reinforcement Learning [16.12658895065585]
私たちは、表現だけでは挑戦的な領域での効率的な転送には不十分であり、行動を通じて知識を伝達する方法を探ります。
事前訓練された政策の行動は、手作業(探索)の問題解決や、問題(探索)の解決に有用なデータ収集に利用することができる。
論文 参考訳(メタデータ) (2021-02-24T16:51:02Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。