論文の概要: A Perturbation Constrained Adversarial Attack for Evaluating the
Robustness of Optical Flow
- arxiv url: http://arxiv.org/abs/2203.13214v1
- Date: Thu, 24 Mar 2022 17:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:28:47.269606
- Title: A Perturbation Constrained Adversarial Attack for Evaluating the
Robustness of Optical Flow
- Title(参考訳): 光流のロバスト性評価のための摂動拘束型対向攻撃
- Authors: Jenny Schmalfuss and Philipp Scholze and Andr\'es Bruhn
- Abstract要約: Perturbation Constrained Flow Attack (PCFA)は、現実の攻撃として適用性よりも破壊性を強調する新しい敵攻撃である。
実験の結果,PCFAのホワイトボックスおよびブラックボックス設定への適用性は確認できたが,従来の攻撃フレームワークに比べて,光フローに対して強い逆方向のサンプルが検出された。
予測品質と対向ロバスト性を両立させ,高品質な手法が必ずしもロバストであるとは限らないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent optical flow methods are almost exclusively judged in terms of
accuracy, while analyzing their robustness is often neglected. Although
adversarial attacks offer a useful tool to perform such an analysis, current
attacks on optical flow methods rather focus on real-world attacking scenarios
than on a worst case robustness assessment. Hence, in this work, we propose a
novel adversarial attack - the Perturbation Constrained Flow Attack (PCFA) -
that emphasizes destructivity over applicability as a real-world attack. More
precisely, PCFA is a global attack that optimizes adversarial perturbations to
shift the predicted flow towards a specified target flow, while keeping the L2
norm of the perturbation below a chosen bound. Our experiments not only
demonstrate PCFA's applicability in white- and black-box settings, but also
show that it finds stronger adversarial samples for optical flow than previous
attacking frameworks. Moreover, based on these strong samples, we provide the
first common ranking of optical flow methods in the literature considering both
prediction quality and adversarial robustness, indicating that high quality
methods are not necessarily robust. Our source code will be publicly available.
- Abstract(参考訳): 近年の光学フロー法はほとんど精度で判断されるが、ロバスト性の分析は無視されることが多い。
敵対的な攻撃はそのような分析を行う有用なツールを提供するが、現在の光学フロー法に対する攻撃は、最悪のケースロバスト性評価よりも実際の攻撃シナリオに焦点を当てている。
そこで本研究では,現実の攻撃として適用性よりも破壊性を重視した,新たな敵攻撃であるPCFA(Perturbation Constrained Flow Attack)を提案する。
より正確には、pcfaは逆摂動を最適化し、予測された流れを特定のターゲットフローにシフトさせるグローバルアタックであり、摂動のl2ノルムは選択された境界以下である。
実験では, ホワイトボックスやブラックボックスの設定におけるPCFAの適用性を実証するだけでなく, 従来の攻撃フレームワークに比べて, 光フローの対向サンプルが強いことを示す。
また,これらの強いサンプルに基づいて,予測品質と逆ロバスト性の両方を考慮した文献における光フロー法を初めて共通的にランク付けし,高品質な手法が必ずしも頑健ではないことを示す。
ソースコードは公開される予定だ。
関連論文リスト
- Evaluating the Robustness of LiDAR Point Cloud Tracking Against Adversarial Attack [6.101494710781259]
本稿では,3次元物体追跡の文脈において,敵攻撃を行うための統一的なフレームワークを提案する。
ブラックボックス攻撃のシナリオに対処するために,新たなトランスファーベースアプローチであるTarget-aware Perturbation Generation (TAPG)アルゴリズムを導入する。
実験の結果,ブラックボックスとホワイトボックスの両方の攻撃を受けた場合,高度な追跡手法に重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2024-10-28T10:20:38Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - Bridging Optimal Transport and Jacobian Regularization by Optimal
Trajectory for Enhanced Adversarial Defense [27.923344040692744]
逆行訓練とヤコビ正則化の複雑さを2つの重要な防御法として分析した。
本稿では, OTJR と呼ばれるヤコビ正規化手法を用いた新しい最適輸送法を提案する。
CIFAR-10では52.57%、CIFAR-100データセットでは28.3%と評価された。
論文 参考訳(メタデータ) (2023-03-21T12:22:59Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Consistent Semantic Attacks on Optical Flow [3.058685580689605]
我々は,光フローに対するセマンティックな敵攻撃に対する新しいアプローチを提案する。
私たちの方法は、アウトプットにおける攻撃者の意図を隠すのにも役立ちます。
我々は、光の流れに依存するタスクに対する攻撃の有効性を実証する。
論文 参考訳(メタデータ) (2021-11-16T14:05:07Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。