論文の概要: New Challenges in Reinforcement Learning: A Survey of Security and
Privacy
- arxiv url: http://arxiv.org/abs/2301.00188v1
- Date: Sat, 31 Dec 2022 12:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:25:51.936461
- Title: New Challenges in Reinforcement Learning: A Survey of Security and
Privacy
- Title(参考訳): 強化学習の新たな課題: セキュリティとプライバシに関する調査
- Authors: Yunjiao Lei, Dayong Ye, Sheng Shen, Yulei Sui, Tianqing Zhu, Wanlei
Zhou
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
- 参考スコア(独自算出の注目度): 26.706957408693363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) is one of the most important branches of AI. Due
to its capacity for self-adaption and decision-making in dynamic environments,
reinforcement learning has been widely applied in multiple areas, such as
healthcare, data markets, autonomous driving, and robotics. However, some of
these applications and systems have been shown to be vulnerable to security or
privacy attacks, resulting in unreliable or unstable services. A large number
of studies have focused on these security and privacy problems in reinforcement
learning. However, few surveys have provided a systematic review and comparison
of existing problems and state-of-the-art solutions to keep up with the pace of
emerging threats. Accordingly, we herein present such a comprehensive review to
explain and summarize the challenges associated with security and privacy in
reinforcement learning from a new perspective, namely that of the Markov
Decision Process (MDP). In this survey, we first introduce the key concepts
related to this area. Next, we cover the security and privacy issues linked to
the state, action, environment, and reward function of the MDP process,
respectively. We further highlight the special characteristics of security and
privacy methodologies related to reinforcement learning. Finally, we discuss
the possible future research directions within this area.
- Abstract(参考訳): 強化学習(RL)はAIの最も重要な分野の一つである。
動的環境における自己適応と意思決定能力のため、強化学習は医療、データ市場、自動運転、ロボット工学など、様々な分野で広く適用されてきた。
しかし、これらのアプリケーションやシステムのいくつかは、セキュリティやプライバシ攻撃に弱いことが示されており、信頼性や不安定なサービスを生み出している。
多くの研究が強化学習におけるセキュリティとプライバシの問題に焦点を当てている。
しかしながら、新興の脅威のペースに追随するための既存の問題と最先端のソリューションを体系的にレビューし比較した調査はごくわずかである。
そこで,本稿では,強化学習におけるセキュリティとプライバシに関する課題,すなわちマルコフ決定プロセス(MDP)の課題の説明と要約を行う。
本調査では,まず,この領域に関する重要な概念を紹介する。
次に,mdpプロセスの状態,行動,環境,報酬機能に関連するセキュリティ問題とプライバシ問題を取り上げる。
さらに,強化学習に関連するセキュリティとプライバシ方法論の特質を強調する。
最後に,この領域における今後の研究の方向性について論じる。
関連論文リスト
- Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Systemization of Knowledge (SoK)- Cross Impact of Transfer Learning in Cybersecurity: Offensive, Defensive and Threat Intelligence Perspectives [25.181087776375914]
本稿では,サイバーセキュリティにおけるトランスファーラーニング応用の包括的調査を行う。
この調査は、サイバーセキュリティにおける重要な問題に対処する上で、トランスファーラーニングの重要性を強調している。
本論文は,コミュニティの注意を必要とする今後の研究の方向性と課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-12T00:26:38Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Machine Learning (In) Security: A Stream of Problems [17.471312325933244]
我々は、サイバーセキュリティデータに対する機械学習技術の正しい適用における主な課題を特定し、詳細化し、議論する。
我々は,概念のドリフト,進化,ラベルの遅延,および既存のソリューションに対する敵MLの影響を評価する。
我々は、ある状況下で既存の解決策が失敗する可能性を提示し、それらに対する緩和を提案する。
論文 参考訳(メタデータ) (2020-10-30T03:40:10Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。