論文の概要: dataRLsec: Safety, Security, and Reliability With Robust Offline Reinforcement Learning for DPAs
- arxiv url: http://arxiv.org/abs/2601.01289v1
- Date: Sat, 03 Jan 2026 21:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.168721
- Title: dataRLsec: Safety, Security, and Reliability With Robust Offline Reinforcement Learning for DPAs
- Title(参考訳): dataRLsec: DPAのためのロバストオフライン強化学習による安全性、セキュリティ、信頼性
- Authors: Shriram KS Pandian, Naresh Kshetri,
- Abstract要約: データ中毒攻撃(DPA)は、人工知能(AI)アルゴリズム、機械学習(ML)アルゴリズム、人工知能(AI)時代のディープラーニング(DL)アルゴリズムとして人気を集めている。
ハッカーやテスタは、トレーニングデータ(およびテストデータも)に悪意のあるコンテンツを注入しています。
我々は, DPAの安全性, 安全性, 対策に使用されているいくつかの技術について分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data poisoning attacks (DPAs) are becoming popular as artificial intelligence (AI) algorithms, machine learning (ML) algorithms, and deep learning (DL) algorithms in this artificial intelligence (AI) era. Hackers and penetration testers are excessively injecting malicious contents in the training data (and in testing data too) that leads to false results that are very hard to inspect and predict. We have analyzed several recent technologies used (from deep reinforcement learning to federated learning) for the DPAs and their safety, security, & countermeasures. The problem setup along with the problem estimation is shown in the MuJoCo environment with performance of HalfCheetah before the dataset is poisoned and after the dataset is poisoned. We have analyzed several risks associated with the DPAs and falsification in medical data from popular poisoning data attacks to some popular data defenses. We have proposed robust offline reinforcement learning (Offline RL) for the safety and reliability with weighted hash verification along with density-ratio weighted behavioral cloning (DWBC) algorithm. The four stages of the proposed algorithm (as the Stage 0, the Stage 1, the Stage 2, and the Stage 3) are described with respect to offline RL, safety, and security for DPAs. The conclusion and future scope are provided with the intent to combine DWBC with other data defense strategies to counter and protect future contamination cyberattacks.
- Abstract(参考訳): データ中毒攻撃(DPA)は、人工知能(AI)アルゴリズム、機械学習(ML)アルゴリズム、人工知能(AI)時代のディープラーニング(DL)アルゴリズムとして人気を集めている。
ハッカーや侵入テスト担当者は、トレーニングデータ(およびテストデータも)に悪意のあるコンテンツを過剰に注入している。
我々は,DPAの深層強化学習からフェデレーション学習まで,その安全性,安全性,対策に使用されているいくつかの技術について分析を行った。
問題設定と問題推定は、データセットが毒化され、データセットが毒化される前に、HalfCheetahのパフォーマンスでMuJoCo環境で示される。
我々はDPAに関連するいくつかのリスクを分析し、一般的な毒データ攻撃から一般的なデータ防衛まで、医療データの改ざんとファルシフィケーションについて分析した。
我々は,重み付きハッシュ検証と密度比重み付き行動クローニング(DWBC)アルゴリズムを用いて,安全性と信頼性を確保するために,ロバストなオフライン強化学習(Offline RL)を提案している。
提案アルゴリズムの4段階(ステージ0,ステージ1,ステージ2,ステージ3)は,DPAのオフラインRL,安全性,セキュリティについて記述する。
結論と今後の範囲には、DWBCと他のデータ防衛戦略を組み合わせて、将来の汚染サイバー攻撃を防ぎ、保護する意図がある。
関連論文リスト
- Malice in Agentland: Down the Rabbit Hole of Backdoors in the AI Supply Chain [82.98626829232899]
自分自身のインタラクションからのデータに対する微調整のAIエージェントは、AIサプライチェーン内の重要なセキュリティ脆弱性を導入している。
敵は容易にデータ収集パイプラインに毒を盛り、検出しにくいバックドアを埋め込むことができる。
論文 参考訳(メタデータ) (2025-10-03T12:47:21Z) - Hack Me If You Can: Aggregating AutoEncoders for Countering Persistent Access Threats Within Highly Imbalanced Data [4.619717316983648]
Advanced Persistent Threats (APTs) は高度で標的となるサイバー攻撃であり、システムへの不正アクセスと長期にわたって検出されないように設計されている。
AE-APTは,基本的なものからトランスフォーマーベースのものまで,一連のAutoEncoderメソッドを特徴とする,深層学習に基づくAPT検出ツールである。
その結果,AE-APTは競合他社に比べて検出速度が有意に高く,異常検出・ランク付け性能が優れていた。
論文 参考訳(メタデータ) (2024-06-27T14:45:38Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Robust Synthetic Data-Driven Detection of Living-Off-the-Land Reverse Shells [14.710331873072146]
LOTL(Living-off-the-land)技術は、セキュリティ運用において大きな課題となる。
セキュリティ情報およびイベント管理(SIEM)ソリューションとして,サイバー防衛システムのための堅牢な拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Analyzing Robustness of the Deep Reinforcement Learning Algorithm in
Ramp Metering Applications Considering False Data Injection Attack and
Defense [0.0]
ランプメータリング(英語: Ramp metering)は、高速道路の本線への車両の走行を制御する行為である。
深部Q-Learningアルゴリズムは,ループ検出情報のみを入力として利用する。
モデルは、道路のジオメトリーやレイアウトに関わらず、ほぼすべてのランプ計測サイトに応用できる。
論文 参考訳(メタデータ) (2023-01-28T00:40:46Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Lethal Dose Conjecture on Data Poisoning [122.83280749890078]
データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
論文 参考訳(メタデータ) (2022-08-05T17:53:59Z) - A Data Quarantine Model to Secure Data in Edge Computing [0.0]
エッジコンピューティングは、レイテンシに敏感で通信集約的なアプリケーションのためのアジャイルデータ処理プラットフォームを提供する。
データ整合性攻撃は一貫性のないデータにつながり、エッジデータ分析を邪魔する可能性がある。
本稿では,侵入者隔離によるデータ完全性攻撃を緩和するデータ隔離モデルを提案する。
論文 参考訳(メタデータ) (2021-11-15T11:04:48Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - With Great Dispersion Comes Greater Resilience: Efficient Poisoning
Attacks and Defenses for Linear Regression Models [28.680562906669216]
我々は,攻撃者が有害データセットによる回帰学習の結果にどう干渉するかを分析する。
Noptと呼ばれる我々の攻撃は、同じ量の有毒なデータポイントでより大きなエラーを発生させることができる。
新たな防御アルゴリズムであるProdaは,誤りの低減に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-21T22:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。