論文の概要: Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection
- arxiv url: http://arxiv.org/abs/2211.11255v1
- Date: Mon, 21 Nov 2022 08:45:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:09:38.452780
- Title: Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection
- Title(参考訳): 分布外検出におけるパーセプトロンバイアスの拡散分解過程
- Authors: Luping Liu and Yi Ren and Xize Cheng and Zhou Zhao
- Abstract要約: 我々は、判別器モデルが入力空間のいくつかの部分領域に対してより敏感であるという新しい仮定を提供する。
この仮定に基づき,新しい検出法と指標スコアを設計する。
我々の手法は最先端の手法と競合する結果を得る。
- 参考スコア(独自算出の注目度): 63.40694518175685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is an important task to ensure the
reliability and safety of deep learning and the discriminator models outperform
others for now. However, the feature extraction of the discriminator models
must compress the data and lose certain information, leaving room for bad cases
and malicious attacks. In this paper, we provide a new assumption that the
discriminator models are more sensitive to some subareas of the input space and
such perceptron bias causes bad cases and overconfidence areas. Under this
assumption, we design new detection methods and indicator scores. For detection
methods, we introduce diffusion models (DMs) into OOD detection. We find that
the diffusion denoising process (DDP) of DMs also functions as a novel form of
asymmetric interpolation, which is suitable to enhance the input and reduce the
overconfidence areas. For indicator scores, we find that the features of the
discriminator models of OOD inputs occur sharp changes under DDP and use the
norm of this dynamic change as our indicator scores. Therefore, we develop a
new framework to combine the discriminator and generation models to do OOD
detection under our new assumption. The discriminator models provide proper
detection spaces and the generation models reduce the overconfidence problem.
According to our experiments on CIFAR10 and CIFAR100, our methods get
competitive results with state-of-the-art methods. Our implementation is
available at https://github.com/luping-liu/DiffOOD.
- Abstract(参考訳): out-of-distribution (ood)検出は、ディープラーニングの信頼性と安全性を保証する上で重要なタスクであり、識別モデルが現在他よりも優れている。
しかし、識別モデルの特徴抽出はデータを圧縮し、特定の情報を失う必要があり、悪いケースや悪意のある攻撃の余地を残している。
本稿では,入力空間のいくつかの部分領域に対して識別器モデルがより敏感であり,そのようなパーセプトロンバイアスが悪症例や過信頼領域を引き起こすという新たな仮定を提案する。
本研究では,新しい検出手法と指標スコアを設計する。
検出法として,ood検出に拡散モデル(dms)を導入する。
また,dmsの拡散分極過程(ddp)は非対称補間の新たな形態としても機能し,入力の増大と過信頼領域の低減に好適であることがわかった。
指標スコアでは,OOD入力の判別器モデルの特徴がDDPの下で急激な変化を生じ,この動的変化の規範を指標スコアとして用いた。
そこで我々は, 識別器と生成モデルを組み合わせた新たなフレームワークを開発し, 新たな仮定のもとood検出を行う。
判別器モデルは適切な検出空間を提供し、生成モデルは過剰信頼問題を低減させる。
CIFAR10とCIFAR100の実験結果によると,本手法は最先端の手法と競合する結果が得られる。
私たちの実装はhttps://github.com/luping-liu/diffoodで利用可能です。
関連論文リスト
- DSDE: Using Proportion Estimation to Improve Model Selection for Out-of-Distribution Detection [15.238164468992148]
CIFAR10とCIFAR100の実験結果から,OoD検出問題に対処するためのアプローチの有効性が示された。
提案手法をDOS-Storey-based Detector Ensemble (DSDE) と呼ぶ。
論文 参考訳(メタデータ) (2024-11-03T09:01:36Z) - Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Mitigating Exposure Bias in Discriminator Guided Diffusion Models [4.5349436061325425]
本稿では,識別器誘導とエプシロンスケーリングを組み合わせたSEDM-G++を提案する。
提案手法は,非条件CIFAR-10データセット上でFIDスコア1.73を達成し,現状よりも優れている。
論文 参考訳(メタデータ) (2023-11-18T20:49:50Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Detecting Out-of-distribution Samples via Variational Auto-encoder with
Reliable Uncertainty Estimation [5.430048915427229]
変分オートエンコーダ(VAE)は、豊かな表現能力を持つ影響のある生成モデルである。
VAEモデルは、アウト・オブ・ディストリビューション(OOD)インプットに対して、イン・ディストリビューション(ID)インプットよりも高い確率を割り当てる弱点がある。
本研究では,INCPVAEと呼ばれるVAEのエンコーダに統合可能な改良型ノイズコントラッシブ先行(INCP)を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。