論文の概要: New Challenges in Reinforcement Learning: A Survey of Security and
Privacy
- arxiv url: http://arxiv.org/abs/2301.00188v1
- Date: Sat, 31 Dec 2022 12:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:25:51.936461
- Title: New Challenges in Reinforcement Learning: A Survey of Security and
Privacy
- Title(参考訳): 強化学習の新たな課題: セキュリティとプライバシに関する調査
- Authors: Yunjiao Lei, Dayong Ye, Sheng Shen, Yulei Sui, Tianqing Zhu, Wanlei
Zhou
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
- 参考スコア(独自算出の注目度): 26.706957408693363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) is one of the most important branches of AI. Due
to its capacity for self-adaption and decision-making in dynamic environments,
reinforcement learning has been widely applied in multiple areas, such as
healthcare, data markets, autonomous driving, and robotics. However, some of
these applications and systems have been shown to be vulnerable to security or
privacy attacks, resulting in unreliable or unstable services. A large number
of studies have focused on these security and privacy problems in reinforcement
learning. However, few surveys have provided a systematic review and comparison
of existing problems and state-of-the-art solutions to keep up with the pace of
emerging threats. Accordingly, we herein present such a comprehensive review to
explain and summarize the challenges associated with security and privacy in
reinforcement learning from a new perspective, namely that of the Markov
Decision Process (MDP). In this survey, we first introduce the key concepts
related to this area. Next, we cover the security and privacy issues linked to
the state, action, environment, and reward function of the MDP process,
respectively. We further highlight the special characteristics of security and
privacy methodologies related to reinforcement learning. Finally, we discuss
the possible future research directions within this area.
- Abstract(参考訳): 強化学習(RL)はAIの最も重要な分野の一つである。
動的環境における自己適応と意思決定能力のため、強化学習は医療、データ市場、自動運転、ロボット工学など、様々な分野で広く適用されてきた。
しかし、これらのアプリケーションやシステムのいくつかは、セキュリティやプライバシ攻撃に弱いことが示されており、信頼性や不安定なサービスを生み出している。
多くの研究が強化学習におけるセキュリティとプライバシの問題に焦点を当てている。
しかしながら、新興の脅威のペースに追随するための既存の問題と最先端のソリューションを体系的にレビューし比較した調査はごくわずかである。
そこで,本稿では,強化学習におけるセキュリティとプライバシに関する課題,すなわちマルコフ決定プロセス(MDP)の課題の説明と要約を行う。
本調査では,まず,この領域に関する重要な概念を紹介する。
次に,mdpプロセスの状態,行動,環境,報酬機能に関連するセキュリティ問題とプライバシ問題を取り上げる。
さらに,強化学習に関連するセキュリティとプライバシ方法論の特質を強調する。
最後に,この領域における今後の研究の方向性について論じる。
関連論文リスト
- SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Systemization of Knowledge (SoK)- Cross Impact of Transfer Learning in Cybersecurity: Offensive, Defensive and Threat Intelligence Perspectives [25.181087776375914]
本稿では,サイバーセキュリティにおけるトランスファーラーニング応用の包括的調査を行う。
この調査は、サイバーセキュリティにおける重要な問題に対処する上で、トランスファーラーニングの重要性を強調している。
本論文は,コミュニティの注意を必要とする今後の研究の方向性と課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-12T00:26:38Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Machine Learning (In) Security: A Stream of Problems [17.471312325933244]
我々は、サイバーセキュリティデータに対する機械学習技術の正しい適用における主な課題を特定し、詳細化し、議論する。
我々は,概念のドリフト,進化,ラベルの遅延,および既存のソリューションに対する敵MLの影響を評価する。
我々は、ある状況下で既存の解決策が失敗する可能性を提示し、それらに対する緩和を提案する。
論文 参考訳(メタデータ) (2020-10-30T03:40:10Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。