論文の概要: Provable Defense Against Geometric Transformations
- arxiv url: http://arxiv.org/abs/2207.11177v3
- Date: Sat, 6 May 2023 17:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 00:45:18.873978
- Title: Provable Defense Against Geometric Transformations
- Title(参考訳): 幾何学的変換に対する確率的防御
- Authors: Rem Yang, Jacob Laurel, Sasa Misailovic, Gagandeep Singh
- Abstract要約: 決定論的証明された幾何的堅牢性に対する最初の証明可能な防御法を提案する。
我々のフレームワークは、常に最先端の決定論的証明された幾何的堅牢性とクリーンな精度を実現していることを示す。
われわれは初めて、自律運転の挑戦的で現実的な設定のためのニューラルネットワークの幾何学的堅牢性を検証する。
- 参考スコア(独自算出の注目度): 4.281091463408283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometric image transformations that arise in the real world, such as scaling
and rotation, have been shown to easily deceive deep neural networks (DNNs).
Hence, training DNNs to be certifiably robust to these perturbations is
critical. However, no prior work has been able to incorporate the objective of
deterministic certified robustness against geometric transformations into the
training procedure, as existing verifiers are exceedingly slow. To address
these challenges, we propose the first provable defense for deterministic
certified geometric robustness. Our framework leverages a novel GPU-optimized
verifier that can certify images between 60$\times$ to 42,600$\times$ faster
than existing geometric robustness verifiers, and thus unlike existing works,
is fast enough for use in training. Across multiple datasets, our results show
that networks trained via our framework consistently achieve state-of-the-art
deterministic certified geometric robustness and clean accuracy. Furthermore,
for the first time, we verify the geometric robustness of a neural network for
the challenging, real-world setting of autonomous driving.
- Abstract(参考訳): スケーリングや回転といった現実世界で生じる幾何学的画像変換は、深層ニューラルネットワーク(dnn)を容易に欺くことが示されている。
したがって、これらの摂動に対して確実に堅牢であるようにDNNを訓練することは重要である。
しかしながら、既存の検証者が非常に遅いため、幾何学的変換に対する決定論的証明堅牢性の目的をトレーニング手順に取り入れることはできなかった。
これらの課題に対処するため,我々は決定論的認定幾何ロバスト性に対する最初の証明可能な防御を提案する。
我々のフレームワークは、60$\times$から42,600$\times$までの画像を、既存の幾何学的ロバスト性検証よりも高速に認証できるGPU最適化バリデーションを活用している。
複数のデータセットにまたがって、我々のフレームワークでトレーニングされたネットワークは、常に最先端の決定論的認定幾何ロバスト性とクリーンな正確性を実現しています。
さらに、我々は初めて、自律運転の挑戦的で現実的な設定のためのニューラルネットワークの幾何学的堅牢性を検証する。
関連論文リスト
- Iterative Sizing Field Prediction for Adaptive Mesh Generation From Expert Demonstrations [49.173541207550485]
Adaptive Meshing By Expert Reconstruction (AMBER) は模倣学習問題である。
AMBERは、グラフニューラルネットワークとオンラインデータ取得スキームを組み合わせて、専門家メッシュの投影されたサイズフィールドを予測する。
我々は、人間の専門家が提供した2Dメッシュと3Dメッシュ上でAMBERを実験的に検証し、提供されたデモと密に一致し、シングルステップのCNNベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-20T10:01:22Z) - Deformation-Invariant Neural Network and Its Applications in Distorted
Image Restoration and Analysis [8.009077765403287]
幾何学的歪みによって劣化した画像は、画像や物体認識などのコンピュータビジョンタスクにおいて重要な課題となる。
ディープラーニングに基づく画像モデルは通常、幾何学的に歪んだ画像に対して正確な性能を与えることができない。
本稿では、幾何学的に歪んだ画像の撮像タスクに対処するフレームワークである変形不変ニューラルネットワーク(DINN)を提案する。
論文 参考訳(メタデータ) (2023-10-04T08:01:36Z) - Precise and Generalized Robustness Certification for Neural Networks [13.880775045434381]
ニューラルネットワーク(NN)の堅牢性認証の目的は、NNが入力に突然変異が加えられたときの予測を変更するかどうかを判断することである。
本稿では,NNのロバスト性を,多種多様な意味レベルの画像突然変異の正確かつ統一的な形態で証明する新しいフレームワークであるGCERTを提案する。
論文 参考訳(メタデータ) (2023-06-11T19:00:41Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Towards Verifying the Geometric Robustness of Large-scale Neural
Networks [8.60992681271439]
ディープニューラルネットワーク(DNN)は、敵対的な幾何学的変換に弱いことが知られている。
本稿では,複数の幾何変換と証明可能な保証の組み合わせに対して,大規模DNNのロバスト性を検証することを目的とする。
我々は、変換の最悪の組み合わせを見つけるために、ブラックボックス最適化分析装置GeoRobustを開発した。
論文 参考訳(メタデータ) (2023-01-29T14:44:27Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - MeshCNN Fundamentals: Geometric Learning through a Reconstructable
Representation [1.2891210250935146]
より高品質な学習を実現するために,幾何学的推論を用いたMeshCNNを提案する。
第一および第二の基本形式を、エッジ中心、回転、変換不変、再構成可能な表現として導入する。
この基本形式に基づく表現が、メッシュ上でアクセス可能な生成機械学習への扉を開くことを実証する。
論文 参考訳(メタデータ) (2021-05-27T16:22:44Z) - Fusing the Old with the New: Learning Relative Camera Pose with
Geometry-Guided Uncertainty [91.0564497403256]
本稿では,ネットワークトレーニング中の2つの予測系間の確率的融合を含む新しい枠組みを提案する。
本ネットワークは,異なる対応間の強い相互作用を強制することにより学習を駆動する自己追跡グラフニューラルネットワークを特徴とする。
学習に適したモーションパーマリゼーションを提案し、難易度の高いDeMoNおよびScanNetデータセットで最新のパフォーマンスを達成できることを示します。
論文 参考訳(メタデータ) (2021-04-16T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。