論文の概要: Precise and Generalized Robustness Certification for Neural Networks
- arxiv url: http://arxiv.org/abs/2306.06747v1
- Date: Sun, 11 Jun 2023 19:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:56:29.806005
- Title: Precise and Generalized Robustness Certification for Neural Networks
- Title(参考訳): ニューラルネットワークの精度と一般化ロバスト性証明
- Authors: Yuanyuan Yuan, Shuai Wang, and Zhendong Su
- Abstract要約: ニューラルネットワーク(NN)の堅牢性認証の目的は、NNが入力に突然変異が加えられたときの予測を変更するかどうかを判断することである。
本稿では,NNのロバスト性を,多種多様な意味レベルの画像突然変異の正確かつ統一的な形態で証明する新しいフレームワークであるGCERTを提案する。
- 参考スコア(独自算出の注目度): 13.880775045434381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of neural network (NN) robustness certification is to determine
if a NN changes its predictions when mutations are made to its inputs. While
most certification research studies pixel-level or a few geometrical-level and
blurring operations over images, this paper proposes a novel framework, GCERT,
which certifies NN robustness under a precise and unified form of diverse
semantic-level image mutations. We formulate a comprehensive set of
semantic-level image mutations uniformly as certain directions in the latent
space of generative models. We identify two key properties, independence and
continuity, that convert the latent space into a precise and analysis-friendly
input space representation for certification. GCERT can be smoothly integrated
with de facto complete, incomplete, or quantitative certification frameworks.
With its precise input space representation, GCERT enables for the first time
complete NN robustness certification with moderate cost under diverse
semantic-level input mutations, such as weather-filter, style transfer, and
perceptual changes (e.g., opening/closing eyes). We show that GCERT enables
certifying NN robustness under various common and security-sensitive scenarios
like autonomous driving.
- Abstract(参考訳): ニューラルネットワーク(NN)の堅牢性認証の目的は、NNが入力に突然変異が生じたときに予測を変更するかどうかを決定することである。
画像上でのピクセルレベルや幾何レベルやぼやけた操作についての研究は多く行われているが,本研究では,NNの堅牢性を高精度かつ統一的な画像突然変異の形で証明する新しいフレームワークであるGCERTを提案する。
我々は、生成モデルの潜在空間において、ある方向を均一に意味レベルの画像突然変異の包括的集合を定式化する。
独立性と連続性という2つの重要な性質を同定し、潜在空間を正確かつ解析に優しい入力空間表現に変換する。
GCERTは、事実上の完全、不完全、あるいは定量的な認証フレームワークとスムーズに統合できる。
正確な入力空間の表現により、GCERTは、気象フィルタ、スタイル転送、知覚的変化(例えば、開眼/閉眼)などの多様な意味レベルの入力変異の下で、適度なコストでNNの堅牢性認証を初めて行うことができる。
GCERTは、自律運転のような様々な共通かつセキュリティに敏感なシナリオの下で、NNロバスト性を証明することができる。
関連論文リスト
- Quantum Information-Empowered Graph Neural Network for Hyperspectral Change Detection [19.31936427826067]
この研究は、超スペクトル変化検出(HCD)に量子ディープネットワーク(QUEEN)を導入している。
QUEENは、変更があるかどうかを決定するために、根本的に新しい情報を提供する。
提案したQUEEN搭載GNN(すなわちQUEEN-G)のHCD性能は、実超スペクトルデータセットで実験的に検証される。
論文 参考訳(メタデータ) (2024-11-12T07:30:32Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Improving Uncertainty Quantification of Variance Networks by
Tree-Structured Learning [10.566352737844369]
本研究では,不確実性に基づいて特徴空間を複数の領域に分割する木構造局所ニューラルネットワークモデルを提案する。
提案したUncertainty-Splitting Neural Regression Tree (USNRT)は、新しいスプリッティング基準を採用している。
USNRTやそのアンサンブルは、分散を伴う不確実性を定量化するための最近の一般的な手法と比較して、優れた性能を示している。
論文 参考訳(メタデータ) (2022-12-24T05:25:09Z) - Localized Randomized Smoothing for Collective Robustness Certification [60.83383487495282]
我々は、あらゆる種類のモデルに対してより一般的な集合的ロバスト性証明を提案する。
このアプローチは、より大規模なソフトな局所モデルに対して有益であることを示す。
この証明書は、我々の新しい局所的ランダム化平滑化アプローチに基づいている。
論文 参考訳(メタデータ) (2022-10-28T14:10:24Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Provable Defense Against Geometric Transformations [4.281091463408283]
決定論的証明された幾何的堅牢性に対する最初の証明可能な防御法を提案する。
我々のフレームワークは、常に最先端の決定論的証明された幾何的堅牢性とクリーンな精度を実現していることを示す。
われわれは初めて、自律運転の挑戦的で現実的な設定のためのニューラルネットワークの幾何学的堅牢性を検証する。
論文 参考訳(メタデータ) (2022-07-22T16:40:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - TSS: Transformation-Specific Smoothing for Robustness Certification [37.87602431929278]
動機付けられた敵は、セマンティックトランスフォーメーションを使用してテストデータを摂動することで、機械学習システムを誤解させる可能性がある。
TSS -- 汎用の敵対的セマンティックトランスフォーメーションに対して、MLの堅牢性を証明するための統一的なフレームワークを提供する。
TSSは大規模なImageNetデータセット上で、非自明な証明された堅牢性を実現する最初のアプローチであることを示す。
論文 参考訳(メタデータ) (2020-02-27T19:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。