論文の概要: Switching multiplicative watermark design against covert attacks
- arxiv url: http://arxiv.org/abs/2502.18948v1
- Date: Wed, 26 Feb 2025 08:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:55:20.891168
- Title: Switching multiplicative watermark design against covert attacks
- Title(参考訳): 隠蔽攻撃に対する乗算型透かし設計の切り替え
- Authors: Alexander J. Gallo, Sribalaji C. Anand, André M. H. Teixeira, Riccardo M. G. Ferrari,
- Abstract要約: スイッチングフィルタパラメータを定義するための最適設計手法を提案する。
一致した秘密攻撃の最悪のシナリオが想定される。
我々のアルゴリズムは、ある時点でウォーターマークフィルタパラメータが与えられた場合、最適な次ステップパラメータを提供する。
- 参考スコア(独自算出の注目度): 40.2428948628001
- License:
- Abstract: Active techniques have been introduced to give better detectability performance for cyber-attack diagnosis in cyber-physical systems (CPS). In this paper, switching multiplicative watermarking is considered, whereby we propose an optimal design strategy to define switching filter parameters. Optimality is evaluated exploiting the so-called output-to-output gain of the closed loop system, including some supposed attack dynamics. A worst-case scenario of a matched covert attack is assumed, presuming that an attacker with full knowledge of the closed-loop system injects a stealthy attack of bounded energy. Our algorithm, given watermark filter parameters at some time instant, provides optimal next-step parameters. Analysis of the algorithm is given, demonstrating its features, and demonstrating that through initialization of certain parameters outside of the algorithm, the parameters of the multiplicative watermarking can be randomized. Simulation shows how, by adopting our method for parameter design, the attacker's impact on performance diminishes.
- Abstract(参考訳): サイバー物理システム(CPS)におけるサイバー攻撃診断において,より優れた検出性を実現するために,アクティブな技術が導入されている。
本稿では,スイッチングフィルタパラメータを定義するための最適設計手法を提案する。
クローズドループシステムのいわゆるアウトプット・ツー・アウトプットゲインを利用して最適性を評価する。
一致した隠蔽攻撃の最悪のシナリオは、クローズドループシステムに詳しい攻撃者が有界エネルギーのステルスな攻撃を注入すると仮定して仮定される。
我々のアルゴリズムは、ある時点でウォーターマークフィルタパラメータが与えられた場合、最適な次ステップパラメータを提供する。
アルゴリズムの特徴を実証し、アルゴリズムの外部で特定のパラメータを初期化することにより、乗法的な透かしのパラメータをランダム化できることを実証する。
シミュレーションは、パラメータ設計に我々の手法を適用することで、攻撃者がパフォーマンスに与える影響を減らせることを示す。
関連論文リスト
- Optimizing Adaptive Attacks against Content Watermarks for Language Models [5.798432964668272]
大規模な言語モデル(LLM)は、オンラインスパムや誤報を拡散するために省略することができる。
コンテンツ透かしは、モデル生成出力にメッセージを隠すことで誤用を検知し、秘密の透かしキーを使用して検出する。
論文 参考訳(メタデータ) (2024-10-03T12:37:39Z) - Towards Better Statistical Understanding of Watermarking LLMs [7.68488211412916]
本稿では,大規模言語モデル(LLM)の透かし問題について検討する。
モデル歪みと検出能力のトレードオフと,Kirchenbauer et alのグリーンレッドリストに基づく制約付き最適化問題とみなす。
本稿では,この最適化定式化を考慮したオンライン二重勾配上昇透かしアルゴリズムを開発し,モデル歪みと検出能力の最適性を示す。
論文 参考訳(メタデータ) (2024-03-19T01:57:09Z) - Hybrid Design of Multiplicative Watermarking for Defense Against Malicious Parameter Identification [46.27328641616778]
本稿では,定期的に透かしパラメータを更新するハイブリッド乗算型透かし方式を提案する。
提案手法は,盗聴者による透かしパラメータの再構成を困難にしていることを示す。
論文 参考訳(メタデータ) (2023-09-05T16:56:53Z) - Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Learning Linearized Assignment Flows for Image Labeling [70.540936204654]
画像ラベリングのための線形化代入フローの最適パラメータを推定するための新しいアルゴリズムを提案する。
この式をKrylov部分空間と低ランク近似を用いて効率的に評価する方法を示す。
論文 参考訳(メタデータ) (2021-08-02T13:38:09Z) - Regularization Can Help Mitigate Poisoning Attacks... with the Right
Hyperparameters [1.8570591025615453]
機械学習アルゴリズムは、トレーニングデータの一部を操作してアルゴリズムのパフォーマンスを低下させる、中毒攻撃に対して脆弱である。
通常、正規化ハイパーパラメータが一定であると仮定する現在のアプローチは、アルゴリズムの堅牢性に対する過度に悲観的な見方をもたらすことを示す。
本稿では,攻撃が過度パラメータに与える影響を考慮し,エフェミニマックスの双レベル最適化問題としてモデル化した新たな最適攻撃定式化を提案する。
論文 参考訳(メタデータ) (2021-05-23T14:34:47Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - Regularisation Can Mitigate Poisoning Attacks: A Novel Analysis Based on
Multiobjective Bilevel Optimisation [3.3181276611945263]
機械学習(ML)アルゴリズムは、アルゴリズムのパフォーマンスを意図的に劣化させるためにトレーニングデータの一部が操作される、中毒攻撃に対して脆弱である。
2レベル問題として定式化できる最適毒殺攻撃は、最悪のシナリオにおける学習アルゴリズムの堅牢性を評価するのに役立つ。
このアプローチはアルゴリズムの堅牢性に対する過度に悲観的な見方をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-28T19:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。