論文の概要: dataRLsec: Safety, Security, and Reliability With Robust Offline Reinforcement Learning for DPAs
- arxiv url: http://arxiv.org/abs/2601.01289v1
- Date: Sat, 03 Jan 2026 21:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.168721
- Title: dataRLsec: Safety, Security, and Reliability With Robust Offline Reinforcement Learning for DPAs
- Title(参考訳): dataRLsec: DPAのためのロバストオフライン強化学習による安全性、セキュリティ、信頼性
- Authors: Shriram KS Pandian, Naresh Kshetri,
- Abstract要約: データ中毒攻撃(DPA)は、人工知能(AI)アルゴリズム、機械学習(ML)アルゴリズム、人工知能(AI)時代のディープラーニング(DL)アルゴリズムとして人気を集めている。
ハッカーやテスタは、トレーニングデータ(およびテストデータも)に悪意のあるコンテンツを注入しています。
我々は, DPAの安全性, 安全性, 対策に使用されているいくつかの技術について分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data poisoning attacks (DPAs) are becoming popular as artificial intelligence (AI) algorithms, machine learning (ML) algorithms, and deep learning (DL) algorithms in this artificial intelligence (AI) era. Hackers and penetration testers are excessively injecting malicious contents in the training data (and in testing data too) that leads to false results that are very hard to inspect and predict. We have analyzed several recent technologies used (from deep reinforcement learning to federated learning) for the DPAs and their safety, security, & countermeasures. The problem setup along with the problem estimation is shown in the MuJoCo environment with performance of HalfCheetah before the dataset is poisoned and after the dataset is poisoned. We have analyzed several risks associated with the DPAs and falsification in medical data from popular poisoning data attacks to some popular data defenses. We have proposed robust offline reinforcement learning (Offline RL) for the safety and reliability with weighted hash verification along with density-ratio weighted behavioral cloning (DWBC) algorithm. The four stages of the proposed algorithm (as the Stage 0, the Stage 1, the Stage 2, and the Stage 3) are described with respect to offline RL, safety, and security for DPAs. The conclusion and future scope are provided with the intent to combine DWBC with other data defense strategies to counter and protect future contamination cyberattacks.
- Abstract(参考訳): データ中毒攻撃(DPA)は、人工知能(AI)アルゴリズム、機械学習(ML)アルゴリズム、人工知能(AI)時代のディープラーニング(DL)アルゴリズムとして人気を集めている。
ハッカーや侵入テスト担当者は、トレーニングデータ(およびテストデータも)に悪意のあるコンテンツを過剰に注入している。
我々は,DPAの深層強化学習からフェデレーション学習まで,その安全性,安全性,対策に使用されているいくつかの技術について分析を行った。
問題設定と問題推定は、データセットが毒化され、データセットが毒化される前に、HalfCheetahのパフォーマンスでMuJoCo環境で示される。
我々はDPAに関連するいくつかのリスクを分析し、一般的な毒データ攻撃から一般的なデータ防衛まで、医療データの改ざんとファルシフィケーションについて分析した。
我々は,重み付きハッシュ検証と密度比重み付き行動クローニング(DWBC)アルゴリズムを用いて,安全性と信頼性を確保するために,ロバストなオフライン強化学習(Offline RL)を提案している。
提案アルゴリズムの4段階(ステージ0,ステージ1,ステージ2,ステージ3)は,DPAのオフラインRL,安全性,セキュリティについて記述する。
結論と今後の範囲には、DWBCと他のデータ防衛戦略を組み合わせて、将来の汚染サイバー攻撃を防ぎ、保護する意図がある。
関連論文リスト
- Malice in Agentland: Down the Rabbit Hole of Backdoors in the AI Supply Chain [82.98626829232899]
自分自身のインタラクションからのデータに対する微調整のAIエージェントは、AIサプライチェーン内の重要なセキュリティ脆弱性を導入している。
敵は容易にデータ収集パイプラインに毒を盛り、検出しにくいバックドアを埋め込むことができる。
論文 参考訳(メタデータ) (2025-10-03T12:47:21Z) - Hack Me If You Can: Aggregating AutoEncoders for Countering Persistent Access Threats Within Highly Imbalanced Data [4.619717316983648]
Advanced Persistent Threats (APTs) は高度で標的となるサイバー攻撃であり、システムへの不正アクセスと長期にわたって検出されないように設計されている。
AE-APTは,基本的なものからトランスフォーマーベースのものまで,一連のAutoEncoderメソッドを特徴とする,深層学習に基づくAPT検出ツールである。
その結果,AE-APTは競合他社に比べて検出速度が有意に高く,異常検出・ランク付け性能が優れていた。
論文 参考訳(メタデータ) (2024-06-27T14:45:38Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Analyzing Robustness of the Deep Reinforcement Learning Algorithm in
Ramp Metering Applications Considering False Data Injection Attack and
Defense [0.0]
ランプメータリング(英語: Ramp metering)は、高速道路の本線への車両の走行を制御する行為である。
深部Q-Learningアルゴリズムは,ループ検出情報のみを入力として利用する。
モデルは、道路のジオメトリーやレイアウトに関わらず、ほぼすべてのランプ計測サイトに応用できる。
論文 参考訳(メタデータ) (2023-01-28T00:40:46Z) - A Data Quarantine Model to Secure Data in Edge Computing [0.0]
エッジコンピューティングは、レイテンシに敏感で通信集約的なアプリケーションのためのアジャイルデータ処理プラットフォームを提供する。
データ整合性攻撃は一貫性のないデータにつながり、エッジデータ分析を邪魔する可能性がある。
本稿では,侵入者隔離によるデータ完全性攻撃を緩和するデータ隔離モデルを提案する。
論文 参考訳(メタデータ) (2021-11-15T11:04:48Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - With Great Dispersion Comes Greater Resilience: Efficient Poisoning
Attacks and Defenses for Linear Regression Models [28.680562906669216]
我々は,攻撃者が有害データセットによる回帰学習の結果にどう干渉するかを分析する。
Noptと呼ばれる我々の攻撃は、同じ量の有毒なデータポイントでより大きなエラーを発生させることができる。
新たな防御アルゴリズムであるProdaは,誤りの低減に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-21T22:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。