論文の概要: Training Certifiably Robust Neural Networks Against Semantic
Perturbations
- arxiv url: http://arxiv.org/abs/2207.11177v1
- Date: Fri, 22 Jul 2022 16:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:44:03.385860
- Title: Training Certifiably Robust Neural Networks Against Semantic
Perturbations
- Title(参考訳): セマンティック摂動に対する運動論的ロバストニューラルネットワークの訓練
- Authors: Rem Yang, Jacob Laurel, Sasa Misailovic, Gagandeep Singh
- Abstract要約: 本稿では,意味的イメージ摂動に対する決定論的確固たる堅牢性を示す最初のトレーニングフレームワークである認証意味訓練(CST)を提案する。
当社のフレームワークでは,既存の作業とは異なり,トレーニングに十分な速度で使用可能な,GPU最適化の新たなバリデーションを活用しています。
以上の結果から,CSTを用いてトレーニングしたネットワークは,より優れたセマンティックロバスト性とクリーンな精度の両立を実現していることがわかった。
- 参考スコア(独自算出の注目度): 4.281091463408283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic image perturbations, such as scaling and rotation, have been shown
to easily deceive deep neural networks (DNNs). Hence, training DNNs to be
certifiably robust to these perturbations is critical. However, no prior work
has been able to incorporate the objective of deterministic semantic robustness
into the training procedure, as existing deterministic semantic verifiers are
exceedingly slow. To address these challenges, we propose Certified Semantic
Training (CST), the first training framework for deterministic certified
robustness against semantic image perturbations. Our framework leverages a
novel GPU-optimized verifier that, unlike existing works, is fast enough for
use in training. Our results show that networks trained via CST consistently
achieve both better provable semantic robustness and clean accuracy, compared
to networks trained via baselines based on existing works.
- Abstract(参考訳): スケーリングや回転のようなセマンティックイメージの摂動は、ディープニューラルネットワーク(DNN)を欺くことが容易に示されている。
したがって、これらの摂動に対して確実に堅牢であるようにDNNを訓練することは重要である。
しかしながら、既存の決定論的意味検証器が極めて遅いため、決定論的意味的ロバストネスの目的をトレーニング手順に組み込むことはできない。
これらの課題に対処するために,意味的イメージ摂動に対する決定論的確固たる堅牢性を示す最初のトレーニングフレームワークであるCST(Certified Semantic Training)を提案する。
当社のフレームワークでは,既存の作業とは異なり,トレーニングに十分な速度で使用可能な,GPU最適化の新たなバリデーションを活用しています。
以上の結果から,CSTでトレーニングしたネットワークは,既存の作業に基づくベースラインでトレーニングしたネットワークと比較して,証明可能なセマンティックロバスト性とクリーンな精度の両方を一貫して達成していることがわかった。
関連論文リスト
- Iterative Sizing Field Prediction for Adaptive Mesh Generation From Expert Demonstrations [49.173541207550485]
Adaptive Meshing By Expert Reconstruction (AMBER) は模倣学習問題である。
AMBERは、グラフニューラルネットワークとオンラインデータ取得スキームを組み合わせて、専門家メッシュの投影されたサイズフィールドを予測する。
我々は、人間の専門家が提供した2Dメッシュと3Dメッシュ上でAMBERを実験的に検証し、提供されたデモと密に一致し、シングルステップのCNNベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-20T10:01:22Z) - Deformation-Invariant Neural Network and Its Applications in Distorted
Image Restoration and Analysis [8.009077765403287]
幾何学的歪みによって劣化した画像は、画像や物体認識などのコンピュータビジョンタスクにおいて重要な課題となる。
ディープラーニングに基づく画像モデルは通常、幾何学的に歪んだ画像に対して正確な性能を与えることができない。
本稿では、幾何学的に歪んだ画像の撮像タスクに対処するフレームワークである変形不変ニューラルネットワーク(DINN)を提案する。
論文 参考訳(メタデータ) (2023-10-04T08:01:36Z) - Precise and Generalized Robustness Certification for Neural Networks [13.880775045434381]
ニューラルネットワーク(NN)の堅牢性認証の目的は、NNが入力に突然変異が加えられたときの予測を変更するかどうかを判断することである。
本稿では,NNのロバスト性を,多種多様な意味レベルの画像突然変異の正確かつ統一的な形態で証明する新しいフレームワークであるGCERTを提案する。
論文 参考訳(メタデータ) (2023-06-11T19:00:41Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Towards Verifying the Geometric Robustness of Large-scale Neural
Networks [8.60992681271439]
ディープニューラルネットワーク(DNN)は、敵対的な幾何学的変換に弱いことが知られている。
本稿では,複数の幾何変換と証明可能な保証の組み合わせに対して,大規模DNNのロバスト性を検証することを目的とする。
我々は、変換の最悪の組み合わせを見つけるために、ブラックボックス最適化分析装置GeoRobustを開発した。
論文 参考訳(メタデータ) (2023-01-29T14:44:27Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - MeshCNN Fundamentals: Geometric Learning through a Reconstructable
Representation [1.2891210250935146]
より高品質な学習を実現するために,幾何学的推論を用いたMeshCNNを提案する。
第一および第二の基本形式を、エッジ中心、回転、変換不変、再構成可能な表現として導入する。
この基本形式に基づく表現が、メッシュ上でアクセス可能な生成機械学習への扉を開くことを実証する。
論文 参考訳(メタデータ) (2021-05-27T16:22:44Z) - Fusing the Old with the New: Learning Relative Camera Pose with
Geometry-Guided Uncertainty [91.0564497403256]
本稿では,ネットワークトレーニング中の2つの予測系間の確率的融合を含む新しい枠組みを提案する。
本ネットワークは,異なる対応間の強い相互作用を強制することにより学習を駆動する自己追跡グラフニューラルネットワークを特徴とする。
学習に適したモーションパーマリゼーションを提案し、難易度の高いDeMoNおよびScanNetデータセットで最新のパフォーマンスを達成できることを示します。
論文 参考訳(メタデータ) (2021-04-16T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。