論文の概要: Is Stochastic Mirror Descent Vulnerable to Adversarial Delay Attacks? A
Traffic Assignment Resilience Study
- arxiv url: http://arxiv.org/abs/2304.01161v1
- Date: Mon, 3 Apr 2023 17:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:26:39.007992
- Title: Is Stochastic Mirror Descent Vulnerable to Adversarial Delay Attacks? A
Traffic Assignment Resilience Study
- Title(参考訳): 確率的ミラー降下は敵の遅延攻撃に弱いか?
交通割り当てのレジリエンスに関する研究
- Authors: Yunian Pan, Tao Li, and Quanyan Zhu
- Abstract要約: 学習ベースのINSインフラは、情報構造に一定期間の中断を経験しても、ウォードロップ非平衡を実現することができることを示す。
これらの知見は、輸送生態系の様々な層にまたがる妨害攻撃に対して防御機構を設計するための貴重な洞察を与える。
- 参考スコア(独自算出の注目度): 20.11993437283895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: \textit{Intelligent Navigation Systems} (INS) are exposed to an increasing
number of informational attack vectors, which often intercept through the
communication channels between the INS and the transportation network during
the data collecting process. To measure the resilience of INS, we use the
concept of a Wardrop Non-Equilibrium Solution (WANES), which is characterized
by the probabilistic outcome of learning within a bounded number of
interactions. By using concentration arguments, we have discovered that any
bounded feedback delaying attack only degrades the systematic performance up to
order $\tilde{\mathcal{O}}(\sqrt{{d^3}{T^{-1}}})$ along the traffic flow
trajectory within the Delayed Mirror Descent (DMD) online-learning framework.
This degradation in performance can occur with only mild assumptions imposed.
Our result implies that learning-based INS infrastructures can achieve Wardrop
Non-equilibrium even when experiencing a certain period of disruption in the
information structure. These findings provide valuable insights for designing
defense mechanisms against possible jamming attacks across different layers of
the transportation ecosystem.
- Abstract(参考訳): Intextit{Intelligent Navigation Systems} (INS) は、データ収集プロセス中に、INSとトランスポートネットワークの間の通信チャネルをインターセプトする情報攻撃ベクトルの増加に晒される。
insの弾力性を測定するために、ウォードロップ非平衡解 (wardrop non-equilibrium solution,wanes) という概念を用いる。
集中度引数を用いることで、任意の有界なフィードバック遅延攻撃は、遅延ミラー降下(dmd)オンライン学習フレームワーク内のトラフィックフローの軌跡に沿って、$\tilde{\mathcal{o}}(\sqrt{{{d^3}{t^{-1}}})のオーダーまで体系的なパフォーマンスを低下させるだけであることが判明した。
この性能低下は軽度の仮定だけで起こり得る。
以上の結果から,学習ベースのinsインフラストラクチャは,情報構造に一定期間の混乱が生じても,ウォードロップ非平衡を実現できることが示唆された。
これらの発見は、輸送エコシステムの異なる層にまたがる妨害攻撃に対する防御メカニズムを設計するための貴重な洞察を提供する。
関連論文リスト
- Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Can Active Sampling Reduce Causal Confusion in Offline Reinforcement
Learning? [58.942118128503104]
因果的混乱(英: Causal confusion)とは、エージェントがデータ中の不完全な急激な相関を反映するポリシーを学ぶ現象である。
この現象は特にロボット工学などの領域で顕著である。
本稿では,オフライン強化学習における因果的混乱について検討する。
論文 参考訳(メタデータ) (2023-12-28T17:54:56Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Physical Passive Patch Adversarial Attacks on Visual Odometry Systems [6.391337032993737]
本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-11T14:41:06Z) - GFCL: A GRU-based Federated Continual Learning Framework against
Adversarial Attacks in IoV [3.3758186776249923]
深層強化学習(Deep Reinforcement Learning, DRL)は、IoT(Internet of Vehicles, IoV)アプリケーションで広く使われているML設計の1つである。
標準的なMLセキュリティ技術は、アルゴリズムが環境との継続的な相互作用を通じてシーケンシャルな意思決定を解決することを学習するDRLでは有効ではない。
本稿では,GRU(Gated Recurrent Unit)に基づくGFCL(Federated Continuousal Learning)異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T06:56:37Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。