論文の概要: DANDI: Diffusion as Normative Distribution for Deep Neural Network Input
- arxiv url: http://arxiv.org/abs/2502.02910v1
- Date: Wed, 05 Feb 2025 06:14:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:29:07.529584
- Title: DANDI: Diffusion as Normative Distribution for Deep Neural Network Input
- Title(参考訳): DANDI:ディープニューラルネットワーク入力の規範的分布としての拡散
- Authors: Somin Kim, Shin Yoo,
- Abstract要約: サプライズアデクシー(SA)はテストアデクシー指標として広く研究されている。
本稿では,Stable Diffusion を用いたSA値の代理入力分布を生成する手法 DANDI を提案する。
- 参考スコア(独自算出の注目度): 9.50266355640362
- License:
- Abstract: Surprise Adequacy (SA) has been widely studied as a test adequacy metric that can effectively guide software engineers towards inputs that are more likely to reveal unexpected behaviour of Deep Neural Networks (DNNs). Intuitively, SA is an out-of-distribution metric that quantifies the dissimilarity between the given input and the training data: if a new input is very different from those seen during training, the DNN is more likely to behave unexpectedly against the input. While SA has been widely adopted as a test prioritization method, its major weakness is the fact that the computation of the metric requires access to the training dataset, which is often not allowed in real-world use cases. We present DANDI, a technique that generates a surrogate input distribution using Stable Diffusion to compute SA values without requiring the original training data. An empirical evaluation of DANDI applied to image classifiers for CIFAR10 and ImageNet-1K shows that SA values computed against synthetic data are highly correlated with the values computed against the training data, with Spearman Rank correlation value of 0.852 for ImageNet-1K and 0.881 for CIFAR-10. Further, we show that SA value computed by DANDI achieves can prioritize inputs as effectively as those computed using the training data, when testing DNN models mutated by DeepMutation. We believe that DANDI can significantly improve the usability of SA for practical DNN testing.
- Abstract(参考訳): Surprise Adequacy(SA)は、ソフトウェアエンジニアをDNN(Deep Neural Networks)の予期せぬ振る舞いを明らかにする可能性のあるインプットへと効果的に導くことができるテスト精度指標として、広く研究されている。
直感的には、SAは与えられた入力とトレーニングデータの相違を定量化するアウト・オブ・ディストリビューション計量であり、新しい入力がトレーニング中に見られるものと非常に異なる場合、DNNは入力に対して予期せず振る舞う傾向にある。
SAはテスト優先化手法として広く採用されているが、その大きな弱点は、メトリックの計算がトレーニングデータセットへのアクセスを必要とするという事実である。
DANDIは、Stable Diffusionを用いて、元のトレーニングデータを必要とせずにSA値を計算するために、サロゲート入力分布を生成する技術である。
CIFAR10 と ImageNet-1K の画像分類器に適用した DANDI の実証評価では,合成データから算出した SA 値とトレーニングデータとの相関が強く,ImageNet-1K では Spearman Rank が0.852,CIFAR-10 では0.881 である。
さらに、DANDIが計算したSA値が、DeepMutationによって変更されたDNNモデルをテストする際に、トレーニングデータを用いて計算した入力を効果的に優先順位付けできることを示す。
DANDIは,実践的なDNNテストにおいて,SAのユーザビリティを大幅に向上できると考えている。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Improving Representational Continuity via Continued Pretraining [76.29171039601948]
トランスファーラーニングコミュニティ(LP-FT)は、ナイーブトレーニングやその他の継続的な学習方法よりも優れている。
LP-FTは、リアルタイム衛星リモートセンシングデータセット(FMoW)における忘れを減らす。
LP-FTの変種は、NLP連続学習ベンチマークで最先端の精度を得る。
論文 参考訳(メタデータ) (2023-02-26T10:39:38Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - $p$-DkNN: Out-of-Distribution Detection Through Statistical Testing of
Deep Representations [32.99800144249333]
我々は、訓練された深層ニューラルネットワークを使用し、その中間の隠蔽表現の類似構造を分析する新しい推論手順である$p$-DkNNを紹介した。
我々は、$p$-DkNNでアダプティブアタッカーが、最悪のOOD入力の形式である敵の例を作成して、入力に意味のある変更を導入する。
論文 参考訳(メタデータ) (2022-07-25T21:42:08Z) - Efficient Testing of Deep Neural Networks via Decision Boundary Analysis [28.868479656437145]
我々は、新しいラベルのないデータに基づいてDNNの性能を推定できるAriesという新しい手法を提案する。
Aries による推定精度は 0.03% -- 2.60% (平均 0.61%) しか真の精度から外れていない。
論文 参考訳(メタデータ) (2022-07-22T08:39:10Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - IADA: Iterative Adversarial Data Augmentation Using Formal Verification
and Expert Guidance [1.599072005190786]
本稿では,ニューラルネットワークモデルを学習するための反復的逆データ拡張フレームワークを提案する。
提案するフレームワークは,人工的な2Dデータセット,MNISTデータセット,人間の動作データセットに適用される。
学習モデルのロバスト性や精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-08-16T03:05:53Z) - AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks [78.62086125399831]
本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
論文 参考訳(メタデータ) (2021-06-23T13:23:00Z) - A Review and Refinement of Surprise Adequacy [3.867363075280544]
Surprise Adequacy (SA)は、ディープラーニング(DL)テストにおいて、新しく最も有望なAdequacy基準の1つである。
性能を最適化するが機能的に同等なsaの実装をリリースし,評価時間を最大97%削減した。
また,sa omputation アルゴリズムの改良版を提案し,さらなる評価速度の向上を目指す。
論文 参考訳(メタデータ) (2021-03-10T08:56:04Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。