論文の概要: Verified Relative Safety Margins for Neural Network Twins
- arxiv url: http://arxiv.org/abs/2409.16726v1
- Date: Wed, 25 Sep 2024 08:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 04:50:49.385621
- Title: Verified Relative Safety Margins for Neural Network Twins
- Title(参考訳): ニューラルネットワーク双晶の相対安全マージンの検証
- Authors: Anahita Baninajjar, Kamran Hosseini, Ahmed Rezine, Amir Aminifar,
- Abstract要約: 相対安全マージン(RSM)の概念を紹介する。
RSMは決定が保存されているかどうかを確定できるが、品質を定量化することもできる。
MNIST, CIFAR10, および2つの実世界の医療データセットを用いたアプローチの評価を行った。
- 参考スコア(独自算出の注目度): 2.9373912230684573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given two Deep Neural Network (DNN) classifiers with the same input and output domains, our goal is to quantify the robustness of the two networks in relation to each other. Towards this, we introduce the notion of Relative Safety Margins (RSMs). Intuitively, given two classes and a common input, RSM of one classifier with respect to another reflects the relative margins with which decisions are made. The proposed notion is relevant in the context of several applications domains, including to compare a trained network and its corresponding compact network (e.g., pruned, quantized, distilled network). Not only can RSMs establish whether decisions are preserved, but they can also quantify their qualities. We also propose a framework to establish safe bounds on RSM gains or losses given an input and a family of perturbations. We evaluate our approach using the MNIST, CIFAR10, and two real-world medical datasets, to show the relevance of our results.
- Abstract(参考訳): 同じ入力領域と出力領域を持つ2つのディープニューラルネットワーク(DNN)分類器を与えられた場合、我々のゴールは、2つのネットワークの堅牢性を互いに関連付けて定量化することである。
そこで我々は,RSM (Relative Safety Margins) の概念を導入する。
直観的には、2つのクラスと共通の入力が与えられたとき、ある分類器の別の分類器に対する RSM は、決定が下される相対的マージンを反映する。
提案した概念は、訓練されたネットワークとその対応するコンパクトネットワーク(例えば、切断された、量子化された、蒸留されたネットワーク)を比較することを含む、いくつかのアプリケーション領域の文脈において関係がある。
RSMは意思決定が保存されているかどうかを確定するだけでなく、品質を定量化することもできる。
また、入力と摂動の族に与えられたRSMの利得や損失に対する安全な境界を確立するための枠組みも提案する。
MNIST, CIFAR10, および2つの実世界の医療データセットを用いて, 本手法の有効性について検討した。
関連論文リスト
- Enhancing the "Immunity" of Mixture-of-Experts Networks for Adversarial
Defense [6.3712912872409415]
近年の研究では、敵対的な例に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
そこで我々は,Mixture-of-Experts (MoE) アーキテクチャを改良した新たな敵防御手法 "Immunity" を提案する。
論文 参考訳(メタデータ) (2024-02-29T01:27:38Z) - Random-Set Neural Networks (RS-NN) [4.549947259731147]
分類のための新しいランダムセットニューラルネットワーク(RS-NN)を提案する。
RS-NNは、一組のクラス上の確率ベクトルよりも信念関数を予測する。
限られたトレーニングセットによって、機械学習で引き起こされる「緊急」不確実性を符号化する。
論文 参考訳(メタデータ) (2023-07-11T20:00:35Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Measuring Representational Robustness of Neural Networks Through Shared
Invariances [45.94090422087775]
ディープラーニングにおける堅牢性の研究における大きな課題は、与えられたニューラルネットワーク(NN)が不変であるべき無意味な摂動の集合を定義することである。
頑健性に関するほとんどの研究は、そのような摂動を定義する基準モデルとして人間を暗黙的に用いている。
我々の研究は、あるNNが不変であるべき摂動のセットを定義するために、別のリファレンスNNを使用することで、ロバストネスに関する新しい見解を提供する。
論文 参考訳(メタデータ) (2022-06-23T18:49:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Slimming Neural Networks using Adaptive Connectivity Scores [28.872080203221934]
適応接続スコア(SNACS)を用いたスライミングニューラルネットワーク(Slimming Neural Network)と呼ばれる単発完全自動プルーニングアルゴリズムを提案する。
提案手法は,確率的プルーニングの枠組みを基礎となる重み行列の制約と組み合わせたものである。
SNACSは17倍以上高速である。
論文 参考訳(メタデータ) (2020-06-22T17:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。