論文の概要: Efficient Certification of Spatial Robustness
- arxiv url: http://arxiv.org/abs/2009.09318v2
- Date: Sun, 31 Jan 2021 00:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:45:42.898188
- Title: Efficient Certification of Spatial Robustness
- Title(参考訳): 空間ロバストネスの有効証明
- Authors: Anian Ruoss, Maximilian Baader, Mislav Balunovi\'c, Martin Vechev
- Abstract要約: 本研究では,ベクトル場変換に対するロバスト性を示すための新しい凸緩和法を提案する。
我々の緩和はモデルに依存しないものであり、広範囲のニューラルネットワーク検証によって活用することができる。
- 参考スコア(独自算出の注目度): 18.514606155611762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has exposed the vulnerability of computer vision models to vector
field attacks. Due to the widespread usage of such models in safety-critical
applications, it is crucial to quantify their robustness against such spatial
transformations. However, existing work only provides empirical robustness
quantification against vector field deformations via adversarial attacks, which
lack provable guarantees. In this work, we propose novel convex relaxations,
enabling us, for the first time, to provide a certificate of robustness against
vector field transformations. Our relaxations are model-agnostic and can be
leveraged by a wide range of neural network verifiers. Experiments on various
network architectures and different datasets demonstrate the effectiveness and
scalability of our method.
- Abstract(参考訳): 最近の研究は、コンピュータビジョンモデルの脆弱性をベクトルフィールド攻撃にさらしている。
このようなモデルが安全クリティカルな応用に広く利用されているため、そのような空間変換に対するロバスト性を定量化することが重要である。
しかし、既存の研究は、証明可能な保証を欠く敵攻撃によるベクトル場変形に対する経験的堅牢性しか示さない。
本研究では,ベクトル場変換に対するロバスト性の証明を初めて提供する,新しい凸緩和を提案する。
我々の緩和はモデルに依存しず、幅広いニューラルネットワーク検証によって活用することができる。
各種ネットワークアーキテクチャおよび各種データセットの実験により,本手法の有効性と拡張性を示す。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Learning to Generate Training Datasets for Robust Semantic Segmentation [37.9308918593436]
セマンティックセグメンテーション手法の堅牢性を改善するための新しい手法を提案する。
我々は,現実的で可視な摂動画像を生成するために,新しい条件付き生成対向ネットワークであるRobustaを設計した。
我々の結果は、このアプローチが安全クリティカルなアプリケーションに有用である可能性を示唆している。
論文 参考訳(メタデータ) (2023-08-01T10:02:26Z) - Reliability in Semantic Segmentation: Are We on the Right Track? [15.0189654919665]
我々は、古いResNetベースのアーキテクチャから新しいトランスフォーマーまで、さまざまなモデルを分析します。
近年のモデルでは, 信頼性は著しく高いが, 不確実性評価の点では, 全体として信頼性は高くない。
これは、ロバストネスと不確実性推定の両方に焦点を当てた現代のセグメンテーションモデルに関する最初の研究である。
論文 参考訳(メタデータ) (2023-03-20T17:38:24Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Robustness and Generalization via Generative Adversarial Training [21.946687274313177]
本稿では,テストセットとドメイン外サンプルに対するモデルの一般化を同時に改善する手法であるジェネレーティブ・アドバイサル・トレーニングを提案する。
提案手法は、クリーンな画像やドメイン外サンプルのモデルの性能を向上させるだけでなく、予期せぬ攻撃に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2021-09-06T22:34:04Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。