論文の概要: Consistent Semantic Attacks on Optical Flow
- arxiv url: http://arxiv.org/abs/2111.08485v1
- Date: Tue, 16 Nov 2021 14:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:02:05.907822
- Title: Consistent Semantic Attacks on Optical Flow
- Title(参考訳): 光流動における連続的セマンティック攻撃
- Authors: Tom Koren, Lior Talker, Michael Dinerstein, Roy J Jevnisek
- Abstract要約: 我々は,光フローに対するセマンティックな敵攻撃に対する新しいアプローチを提案する。
私たちの方法は、アウトプットにおける攻撃者の意図を隠すのにも役立ちます。
我々は、光の流れに依存するタスクに対する攻撃の有効性を実証する。
- 参考スコア(独自算出の注目度): 3.058685580689605
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel approach for semantically targeted adversarial attacks on
Optical Flow. In such attacks the goal is to corrupt the flow predictions of a
specific object category or instance. Usually, an attacker seeks to hide the
adversarial perturbations in the input. However, a quick scan of the output
reveals the attack. In contrast, our method helps to hide the attackers intent
in the output as well. We achieve this thanks to a regularization term that
encourages off-target consistency. We perform extensive tests on leading
optical flow models to demonstrate the benefits of our approach in both
white-box and black-box settings. Also, we demonstrate the effectiveness of our
attack on subsequent tasks that depend on the optical flow.
- Abstract(参考訳): 本稿では,光学フローに対する意味的ターゲティング攻撃に対する新しいアプローチを提案する。
そのような攻撃では、目標は特定のオブジェクトカテゴリやインスタンスのフロー予測を壊すことである。
通常、攻撃者は入力中の敵の摂動を隠そうとする。
しかし、出力を素早くスキャンすると攻撃が明らかになる。
対照的に、この方法は攻撃者の意図をアウトプットに隠すのにも役立ちます。
目標外の一貫性を促進する正規化用語のおかげで、私たちはこれを達成します。
私たちは、ホワイトボックスとブラックボックスの両方の設定において、我々のアプローチの利点を示すために、主要な光フローモデルに関する広範なテストを行います。
また,光の流れに依存する後続のタスクに対する攻撃の有効性を実証する。
関連論文リスト
- Detection Defenses: An Empty Promise against Adversarial Patch Attacks
on Optical Flow [46.2482873419289]
アドリアパッチは、任意のシーンに配置する際の光流予測の信頼性を損なう。
潜在的な治療は、敵のパッチを検出して除去する防衛戦略であるが、その基盤となる動作予測への影響は研究されていない。
防衛機構を考慮に入れた攻撃に、現在の防衛が耐えられるかどうかを調べるために、防衛対応攻撃を実施している。
論文 参考訳(メタデータ) (2023-10-26T13:56:12Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - A Perturbation Constrained Adversarial Attack for Evaluating the
Robustness of Optical Flow [0.0]
Perturbation Constrained Flow Attack (PCFA)は、現実の攻撃として適用性よりも破壊性を強調する新しい敵攻撃である。
実験の結果,PCFAのホワイトボックスおよびブラックボックス設定への適用性は確認できたが,従来の攻撃フレームワークに比べて,光フローに対して強い逆方向のサンプルが検出された。
予測品質と対向ロバスト性を両立させ,高品質な手法が必ずしもロバストであるとは限らないことを示す。
論文 参考訳(メタデータ) (2022-03-24T17:10:26Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing
Flows [11.510009152620666]
本稿では,画像分類器に対する新たなブラックボックス攻撃手法であるAdvFlowを紹介する。
提案手法では, クリーンなデータ分布に密接に従う敵が生成され, 検出の可能性が低下する。
論文 参考訳(メタデータ) (2020-07-15T02:13:49Z) - Black-box Adversarial Example Generation with Normalizing Flows [11.510009152620666]
正規化フローを用いたブラックボックス対向攻撃を提案する。
本研究では,事前学習したフローベースモデルベース分布を探索することにより,相手を見つける方法を示す。
論文 参考訳(メタデータ) (2020-07-06T13:14:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。