論文の概要: Adaptive Trust Consensus for Blockchain IoT: Comparing RL, DRL, and MARL Against Naive, Collusive, Adaptive, Byzantine, and Sleeper Attacks
- arxiv url: http://arxiv.org/abs/2512.22860v1
- Date: Sun, 28 Dec 2025 10:11:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.255495
- Title: Adaptive Trust Consensus for Blockchain IoT: Comparing RL, DRL, and MARL Against Naive, Collusive, Adaptive, Byzantine, and Sleeper Attacks
- Title(参考訳): Adaptive Trust Consensus for Blockchain IoT: RL, DRL, MARLの比較: Naive, Collusive, Adaptive, Byzantine, Sleeper攻撃
- Authors: Soham Padia, Dhananjay Vaidya, Ramchandra Mangrulkar,
- Abstract要約: 本稿では、プライバシ保護ポリシー評価のためのFHEと属性ベースアクセス制御(ABAC)を統合した信頼ベースの委譲コンセンサスフレームワークを提案する。
我々は,NMA,CRA,アダプティブ・アディショナル・アディショナル・アタック(AAA),TDP(Time-Delayed Poisoning)の5つの異なる攻撃群に対する強化学習アプローチを比較した。
この結果から,協調型マルチエージェント学習は,ブロックチェーンIoT環境における高度な信頼操作攻撃を防御する上で,測定可能なメリットを提供することがわかった。
- 参考スコア(独自算出の注目度): 2.5665716218583965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Securing blockchain-enabled IoT networks against sophisticated adversarial attacks remains a critical challenge. This paper presents a trust-based delegated consensus framework integrating Fully Homomorphic Encryption (FHE) with Attribute-Based Access Control (ABAC) for privacy-preserving policy evaluation, combined with learning-based defense mechanisms. We systematically compare three reinforcement learning approaches -- tabular Q-learning (RL), Deep RL with Dueling Double DQN (DRL), and Multi-Agent RL (MARL) -- against five distinct attack families: Naive Malicious Attack (NMA), Collusive Rumor Attack (CRA), Adaptive Adversarial Attack (AAA), Byzantine Fault Injection (BFI), and Time-Delayed Poisoning (TDP). Experimental results on a 16-node simulated IoT network reveal significant performance variations: MARL achieves superior detection under collusive attacks (F1=0.85 vs. DRL's 0.68 and RL's 0.50), while DRL and MARL both attain perfect detection (F1=1.00) against adaptive attacks where RL fails (F1=0.50). All agents successfully defend against Byzantine attacks (F1=1.00). Most critically, the Time-Delayed Poisoning attack proves catastrophic for all agents, with F1 scores dropping to 0.11-0.16 after sleeper activation, demonstrating the severe threat posed by trust-building adversaries. Our findings indicate that coordinated multi-agent learning provides measurable advantages for defending against sophisticated trust manipulation attacks in blockchain IoT environments.
- Abstract(参考訳): 高度な敵攻撃に対するブロックチェーン対応IoTネットワークの確保は、依然として重要な課題だ。
本稿では,ABAC(Attribute-Based Access Control)とFHE(Fully Homomorphic Encryption)を統合した信頼に基づく委譲コンセンサスフレームワークを提案する。
重度DQN(Dueling Double DQN)とMARL(Multi-Agent RL)の3つの強化学習アプローチを,NMA(Naive Malicious Attack),CRA(Collabive Rumor Attack),AA(Adaptive Adversarial Attack),BFI(Byzantine Fault Injection),TDP(Time-Delayed Poisoning)の5つの異なる攻撃ファミリーと比較した。
MARLは、衝突攻撃による優れた検出(F1=0.85対DRLの0.68とRLの0.50)を達成し、DRLとMARLは、RLが失敗する適応攻撃に対して完全な検出(F1=1.00)を達成する(F1=0.50)。
すべてのエージェントがビザンツの攻撃(F1=1.00)を防衛した。
もっとも重要なことは、時間遅れの毒殺攻撃は全てのエージェントにとって破滅的であり、F1のスコアは睡眠器の活性化後に0.11-0.16に低下し、信頼構築の敵によって引き起こされる深刻な脅威を示す。
この結果から,協調型マルチエージェント学習は,ブロックチェーンIoT環境における高度な信頼操作攻撃を防御する上で,測定可能なメリットを提供することがわかった。
関連論文リスト
- Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - SleeperNets: Universal Backdoor Poisoning Attacks Against Reinforcement Learning Agents [16.350898218047405]
強化学習(Reinforcement Learning, RL)は、現実世界の安全クリティカルなアプリケーションでの利用が増加している分野である。
この研究では、特にステルス性のRL(バックドア中毒)に対するトレーニングタイムアタックを調査します。
我々は、敵の目的と最適な政策を見出す目的を結びつける新しい毒殺の枠組みを定式化する。
論文 参考訳(メタデータ) (2024-05-30T23:31:25Z) - ReRoGCRL: Representation-based Robustness in Goal-Conditioned
Reinforcement Learning [29.868059421372244]
Goal-Conditioned Reinforcement Learning (GCRL) は注目されているが、敵の摂動に対するアルゴリズム的堅牢性はいまだ解明されていない。
まず,敵対的コントラスト攻撃に触発されたセミコントラスト表現攻撃を提案する。
次に,セミコントラスト・アジュメンテーションと感性認識正規化器を組み合わせた適応表現手法を提案する。
論文 参考訳(メタデータ) (2023-12-12T16:05:55Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。