論文の概要: Likelihood Landscapes: A Unifying Principle Behind Many Adversarial
Defenses
- arxiv url: http://arxiv.org/abs/2008.11300v1
- Date: Tue, 25 Aug 2020 22:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:15:19.091663
- Title: Likelihood Landscapes: A Unifying Principle Behind Many Adversarial
Defenses
- Title(参考訳): 多元的景観:多くの敵対的防御の背後にある統一的な原理
- Authors: Fu Lin, Rohit Mittapalli, Prithvijit Chattopadhyay, Daniel Bolya, Judy
Hoffman
- Abstract要約: 本研究では,防御技術が地形形状に与える影響について検討する。
敵防衛技術のサブセットは、可能性の景観を平らにする同様の効果をもたらす。
- 参考スコア(独自算出の注目度): 15.629921195632857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks have been shown to be vulnerable to adversarial
examples, which are known to locate in subspaces close to where normal data
lies but are not naturally occurring and of low probability. In this work, we
investigate the potential effect defense techniques have on the geometry of the
likelihood landscape - likelihood of the input images under the trained model.
We first propose a way to visualize the likelihood landscape leveraging an
energy-based model interpretation of discriminative classifiers. Then we
introduce a measure to quantify the flatness of the likelihood landscape. We
observe that a subset of adversarial defense techniques results in a similar
effect of flattening the likelihood landscape. We further explore directly
regularizing towards a flat landscape for adversarial robustness.
- Abstract(参考訳): 畳み込みニューラルネットワークは、通常のデータがどこにあるかに近い部分空間にあることが知られているが、自然に発生するものではなく、低い確率で発生する。
本研究は,本手法が,訓練されたモデル下での入力画像の幾何的形状に与える影響について検討する。
まず,識別型分類器のエネルギーモデル解釈を生かした景観の可視化手法を提案する。
次に,確率的景観の平坦さを定量化する尺度を提案する。
対角防御手法のサブセットは、近景を平坦化させる同様の効果をもたらすことが観察された。
さらに, 敵対的強固性のための平坦な景観への直接的正規化について検討する。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - LatentForensics: Towards frugal deepfake detection in the StyleGAN latent space [2.629091178090276]
本稿では,高品質な顔画像で訓練された最先端生成逆数ネットワーク(GAN)の潜時空間で動作するディープフェイク検出手法を提案する。
標準データセットの実験結果から,提案手法が他の最先端のディープフェイク分類法よりも優れていることが明らかになった。
論文 参考訳(メタデータ) (2023-03-30T08:36:48Z) - Transferable Physical Attack against Object Detection with Separable
Attention [14.805375472459728]
ディープラーニングモデルは、敵のサンプルに弱いことが証明されているため、トランスファー可能な敵攻撃は常に注目されている。
本稿では,物理的に実現可能な逆カモフラージュを生成する新しい手法を提案し,検出モデルに対するトランスファー可能な攻撃を実現する。
論文 参考訳(メタデータ) (2022-05-19T14:34:55Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Spatially Correlated Patterns in Adversarial Images [5.069312274160184]
敵の攻撃は、信頼性の高い機械学習ソリューションに向けた研究の進展の大きな障害であることが証明されている。
本稿では,入力画像内の領域を分離分離するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-21T14:06:59Z) - Adversarial Patch Attacks on Monocular Depth Estimation Networks [7.089737454146505]
単眼深度推定における逆パッチ攻撃法を提案する。
我々は,対象の手法を騙して,パターンが配置されている領域の誤り深さを推定できる人工パターンを生成する。
実際のシーンに印刷されたパターンを物理的に配置することで,本手法を実世界で実現することができる。
論文 参考訳(メタデータ) (2020-10-06T22:56:22Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Targeted Adversarial Perturbations for Monocular Depth Prediction [74.61708733460927]
対向摂動が単眼深度予測の課題に及ぼす影響について検討した。
具体的には、シーンの知覚的幾何学を選択的に変化させる、小さくて知覚できない付加的摂動の能力を探求する。
このような摂動は、カメラから予測される距離を世界規模で再スケールするだけでなく、異なるターゲットシーンにマッチするように予測を変更することが可能である。
論文 参考訳(メタデータ) (2020-06-12T19:29:43Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。