論文の概要: Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models
- arxiv url: http://arxiv.org/abs/2205.14297v1
- Date: Sat, 28 May 2022 02:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 01:28:30.528185
- Title: Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models
- Title(参考訳): fake it until you make: スコアに基づく生成モデルによる近分布のノベルティ検出
- Authors: Hossein Mirzaei, Mohammadreza Salehi, Sajjad Shahabi, Efstratios
Gavves, Cees G. M. Snoek, Mohammad Sabokrou, Mohammad Hossein Rohban
- Abstract要約: 既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
- 参考スコア(独自算出の注目度): 54.182955830194445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aim for image-based novelty detection. Despite considerable progress,
existing models either fail or face a dramatic drop under the so-called
``near-distribution" setting, where the differences between normal and
anomalous samples are subtle. We first demonstrate existing methods experience
up to 20\% decrease in performance in the near-distribution setting. Next, we
propose to exploit a score-based generative model to produce synthetic
near-distribution anomalous data. Our model is then fine-tuned to distinguish
such data from the normal samples. We provide a quantitative as well as
qualitative evaluation of this strategy, and compare the results with a variety
of GAN-based models. Effectiveness of our method for both the near-distribution
and standard novelty detection is assessed through extensive experiments on
datasets in diverse applications such as medical images, object classification,
and quality control. This reveals that our method considerably improves over
existing models, and consistently decreases the gap between the
near-distribution and standard novelty detection performance. Overall, our
method improves the near-distribution novelty detection by 6% and passes the
state-of-the-art by 1% to 5% across nine novelty detection benchmarks. The code
repository is available at https://github.com/rohban-lab/FITYMI
- Abstract(参考訳): 画像に基づく新規性検出を目指す。
かなりの進歩にもかかわらず、既存のモデルは、通常と異常なサンプルの違いが微妙であるいわゆる「near-distribution」設定の下で、失敗または劇的な低下に直面している。
まず, 配電条件下での既存手法の性能の最大20%低下を実演する。
次に、スコアに基づく生成モデルを用いて、合成近分布異常データを生成する。
これらのデータを通常のサンプルと区別するために、我々のモデルは微調整される。
我々は,この戦略の定量的かつ定性的な評価を行い,その結果を様々なGANモデルと比較する。
医用画像, 物体分類, 品質管理などの多様な応用において, データセットの広範な実験を行い, 近分布と標準新奇性検出の両手法の有効性を評価した。
その結果,本手法は既存モデルに比べて大幅に改善し,近分布と標準新奇性検出性能との差を一貫して減少させることがわかった。
提案手法は,9つのノベルティ検出ベンチマークにおいて,ほぼ分布するノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
コードリポジトリはhttps://github.com/rohban-lab/fitymiで入手できる。
関連論文リスト
- Assessing Sample Quality via the Latent Space of Generative Models [44.59115390303591]
そこで本研究では,学習した生成モデルの潜伏空間について検討し,生成したサンプルの品質を推定する。
これは、生成されたサンプルの品質が、それに似たトレーニングデータの量に直接関連しているため、実現可能である。
提案手法は, VAE, GAN, 潜伏拡散モデルなど, 様々な生成モデルのサンプル品質と高い相関関係を示す。
論文 参考訳(メタデータ) (2024-07-21T14:05:06Z) - Diffusion-based Image Generation for In-distribution Data Augmentation in Surface Defect Detection [8.93281936150572]
産業シナリオにおいて拡散モデルを用いてデータ拡張の手順を改善することができることを示す。
そこで本研究では,アウト・オブ・ディストリビューションとイン・ディストリビューション・サンプルを混合したデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T17:09:18Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Improving novelty detection with generative adversarial networks on hand
gesture data [1.3750624267664153]
本稿では,GAN(Generative Adversarial Network)フレームワークで訓練されたニューラルネットワーク(ANN)を用いた語彙外ジェスチャの分類方法を提案する。
生成モデルは、新しいサンプルとターゲットベクトルでオンライン形式でデータセットを拡大し、識別モデルはサンプルのクラスを決定する。
論文 参考訳(メタデータ) (2023-04-13T17:50:15Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。