論文の概要: A Framework for Adversarial Analysis of Decision Support Systems Prior to Deployment
- arxiv url: http://arxiv.org/abs/2505.21414v1
- Date: Tue, 27 May 2025 16:41:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.807998
- Title: A Framework for Adversarial Analysis of Decision Support Systems Prior to Deployment
- Title(参考訳): デプロイ前の意思決定支援システムの逆解析のためのフレームワーク
- Authors: Brett Bissey, Kyle Gatesman, Walker Dimon, Mohammad Alam, Luis Robaina, Joseph Weissman,
- Abstract要約: 本稿では,Deep Reinforcement Learning (DRL) を用いて学習した意思決定支援システムの分析とセキュア化のためのフレームワークを提案する。
我々は,我々のフレームワークを検証し,エージェントの振る舞いを可視化し,カスタム構築戦略ゲームCyberStrikeのコンテキストにおける敵の成果を評価する。
- 参考スコア(独自算出の注目度): 0.33928435949901725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a comprehensive framework designed to analyze and secure decision-support systems trained with Deep Reinforcement Learning (DRL), prior to deployment, by providing insights into learned behavior patterns and vulnerabilities discovered through simulation. The introduced framework aids in the development of precisely timed and targeted observation perturbations, enabling researchers to assess adversarial attack outcomes within a strategic decision-making context. We validate our framework, visualize agent behavior, and evaluate adversarial outcomes within the context of a custom-built strategic game, CyberStrike. Utilizing the proposed framework, we introduce a method for systematically discovering and ranking the impact of attacks on various observation indices and time-steps, and we conduct experiments to evaluate the transferability of adversarial attacks across agent architectures and DRL training algorithms. The findings underscore the critical need for robust adversarial defense mechanisms to protect decision-making policies in high-stakes environments.
- Abstract(参考訳): 本稿では,Deep Reinforcement Learning (DRL) で訓練された意思決定支援システムを,シミュレーションによって発見された学習行動パターンや脆弱性に関する洞察を提供することによって,デプロイ前に分析し,セキュアにするための総合的なフレームワークを提案する。
このフレームワークは、正確な時間と目標の観測摂動の開発を支援するもので、研究者は戦略的な意思決定コンテキスト内で敵の攻撃結果を評価することができる。
我々は,我々のフレームワークを検証し,エージェントの振る舞いを可視化し,カスタム構築戦略ゲームCyberStrikeのコンテキストにおける敵の成果を評価する。
提案手法を応用して,様々な観測指標と時間ステップに対する攻撃の影響を系統的に発見・ランキングする手法を導入し,エージェントアーキテクチャとDRLトレーニングアルゴリズム間の敵攻撃の伝達性を評価する実験を行った。
この結果から, 高い環境下での意思決定方針を守るために, 堅牢な敵防衛機構の必要性が浮き彫りになった。
関連論文リスト
- Beyond Black-Box Benchmarking: Observability, Analytics, and Optimization of Agentic Systems [1.415098516077151]
エージェントがさまざまなタスクを実行するために協力するエージェントAIシステムの台頭は、その振る舞いを観察し、分析し、最適化する上で、新たな課題を提起する。
従来の評価とベンチマークのアプローチは、これらのシステムの非決定論的、文脈に敏感で動的な性質を扱うのに苦労する。
本稿では,エージェントシステムを開発,テスト,保守にまたがって分析・最適化する上で重要な課題と機会について考察する。
論文 参考訳(メタデータ) (2025-03-09T20:02:04Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Adversarial Robustness on Image Classification with $k$-means [3.5385056709199536]
我々は、攻撃に対する$k$-meansクラスタリングアルゴリズムの脆弱性を評価し、関連するセキュリティリスクを強調した。
敵シナリオにおけるテスト性能を向上させるための敵訓練手法を導入・評価する。
論文 参考訳(メタデータ) (2023-12-15T04:51:43Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。