論文の概要: Hierarchical Visual Categories Modeling: A Joint Representation Learning and Density Estimation Framework for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2408.15580v1
- Date: Wed, 28 Aug 2024 07:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 17:03:09.211999
- Title: Hierarchical Visual Categories Modeling: A Joint Representation Learning and Density Estimation Framework for Out-of-Distribution Detection
- Title(参考訳): 階層型視覚カテゴリモデリング:アウト・オブ・ディストリビューション検出のための共同表現学習と密度推定フレームワーク
- Authors: Jinglun Li, Xinyu Zhou, Pinxue Guo, Yixuan Sun, Yiwen Huang, Weifeng Ge, Wenqiang Zhang,
- Abstract要約: 本稿では,分布外データと分布内データとを分離する階層型視覚カテゴリーモデリング手法を提案する。
我々は、CIFAR、iNaturalist、SUN、Places、Textures、ImageNet-O、OpenImage-Oを含む7つの人気のあるベンチマーク実験を行った。
我々の視覚表現は古典的手法で学習した特徴と比較して競争力がある。
- 参考スコア(独自算出の注目度): 28.442470704073767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting out-of-distribution inputs for visual recognition models has become critical in safe deep learning. This paper proposes a novel hierarchical visual category modeling scheme to separate out-of-distribution data from in-distribution data through joint representation learning and statistical modeling. We learn a mixture of Gaussian models for each in-distribution category. There are many Gaussian mixture models to model different visual categories. With these Gaussian models, we design an in-distribution score function by aggregating multiple Mahalanobis-based metrics. We don't use any auxiliary outlier data as training samples, which may hurt the generalization ability of out-of-distribution detection algorithms. We split the ImageNet-1k dataset into ten folds randomly. We use one fold as the in-distribution dataset and the others as out-of-distribution datasets to evaluate the proposed method. We also conduct experiments on seven popular benchmarks, including CIFAR, iNaturalist, SUN, Places, Textures, ImageNet-O, and OpenImage-O. Extensive experiments indicate that the proposed method outperforms state-of-the-art algorithms clearly. Meanwhile, we find that our visual representation has a competitive performance when compared with features learned by classical methods. These results demonstrate that the proposed method hasn't weakened the discriminative ability of visual recognition models and keeps high efficiency in detecting out-of-distribution samples.
- Abstract(参考訳): 視覚認識モデルにおけるアウト・オブ・ディストリビューション・インプットの検出は、安全な深層学習において重要になっている。
本稿では,共同表現学習と統計モデルを用いて,分布外データと分布内データとを分離する階層型視覚カテゴリーモデリング手法を提案する。
分配圏ごとにガウスモデルの混合を学習する。
異なる視覚カテゴリーをモデル化するガウス混合モデルが多数存在する。
これらのガウスモデルを用いて、複数のマハラノビスに基づくメトリクスを集約することにより、分布内スコア関数を設計する。
トレーニングサンプルとして補助的な外れ値データを使用せず、アウト・オブ・ディストリビューション検出アルゴリズムの一般化能力を損なう可能性がある。
ImageNet-1kデータセットをランダムに10倍に分割しました。
提案手法の評価には,一方を分布内データセットとして,他方を分布外データセットとして使用する。
また、CIFAR、iNaturalist、SUN、Places、Textures、ImageNet-O、OpenImage-Oを含む7つの人気のあるベンチマークの実験も行っています。
実験結果から,提案手法は最先端のアルゴリズムよりも優れていたことが示唆された。
一方、従来の手法で学習した特徴と比較すると、視覚表現は競合する性能を持つことがわかった。
これらの結果から,本手法は視覚認識モデルの識別能力を低下させておらず,分布外サンプルの検出において高い効率を保っていることが明らかとなった。
関連論文リスト
- Masked Image Modeling: A Survey [73.21154550957898]
マスク付き画像モデリングは、コンピュータビジョンにおける強力な自己教師付き学習技術として登場した。
我々は近年,分類学を構築し,最も顕著な論文をレビューしている。
我々は,最も人気のあるデータセット上で,様々なマスク付き画像モデリング手法の性能評価結果を集約する。
論文 参考訳(メタデータ) (2024-08-13T07:27:02Z) - Understanding normalization in contrastive representation learning and out-of-distribution detection [0.0]
コントラッシブ・ラーニングに基づく簡易な手法を提案し, コントラッシブ・ラーニング空間における正規サンプルを識別することにより, 分布外データを含む手法を提案する。
われわれのアプローチは、OE(outlier exposure)アプローチや、完全に自己教師付き学習アプローチとして柔軟に適用できる。
対照的な学習を通じて学んだ高品質な機能は、利用可能なアウト・オブ・ディストリビューションデータセットが十分な多様性を持っていない場合でも、OEシナリオのパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2023-12-23T16:05:47Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Kernel Relative-prototype Spectral Filtering for Few-shot Learning [3.2091741098687696]
少ないサンプルで分類タスクと回帰タスクを実行する場合はほとんどない。
本稿では,クエリサンプルとプロトタイプの差分を測定するためのスペクトルフィルタリング(収縮)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T07:53:27Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Performance evaluation and application of computation based low-cost
homogeneous machine learning model algorithm for image classification [0.0]
画像分類機械学習モデルは入力画像のカテゴリを予測する目的で訓練された。
本稿では,最新のクラウドベースアプリケーションにシームレスに統合可能な,低コストでシンプルなアルゴリズムの性能評価を行う。
論文 参考訳(メタデータ) (2020-10-16T01:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。