論文の概要: Forte : Finding Outliers with Representation Typicality Estimation
- arxiv url: http://arxiv.org/abs/2410.01322v2
- Date: Mon, 09 Dec 2024 05:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:51:32.093467
- Title: Forte : Finding Outliers with Representation Typicality Estimation
- Title(参考訳): Forte : 表現の典型推定による外乱の発見
- Authors: Debargha Ganguly, Warren Morningstar, Andrew Yu, Vipin Chaudhary,
- Abstract要約: 生成モデルは、それを訓練する実際のデータとほぼ区別できない合成データを生成することができる。
OOD検出に関する最近の研究は、生成モデルの可能性が最適なOOD検出器であるという疑念を提起している。
本稿では,表現学習と,多様体推定に基づく情報的要約統計を利用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.14061979259370275
- License:
- Abstract: Generative models can now produce photorealistic synthetic data which is virtually indistinguishable from the real data used to train it. This is a significant evolution over previous models which could produce reasonable facsimiles of the training data, but ones which could be visually distinguished from the training data by human evaluation. Recent work on OOD detection has raised doubts that generative model likelihoods are optimal OOD detectors due to issues involving likelihood misestimation, entropy in the generative process, and typicality. We speculate that generative OOD detectors also failed because their models focused on the pixels rather than the semantic content of the data, leading to failures in near-OOD cases where the pixels may be similar but the information content is significantly different. We hypothesize that estimating typical sets using self-supervised learners leads to better OOD detectors. We introduce a novel approach that leverages representation learning, and informative summary statistics based on manifold estimation, to address all of the aforementioned issues. Our method outperforms other unsupervised approaches and achieves state-of-the art performance on well-established challenging benchmarks, and new synthetic data detection tasks.
- Abstract(参考訳): 生成モデルは、それを訓練する実際のデータとほぼ区別できない、フォトリアリスティックな合成データを生成することができる。
これは、トレーニングデータの妥当なファクシミリを生成することができる以前のモデルよりも大きな進化であるが、人間の評価によってトレーニングデータと視覚的に区別できるモデルである。
OOD検出に関する最近の研究は、生成過程における誤推定、エントロピー、典型性などの問題により、生成モデルの可能性が最適なOOD検出器であることに疑問を呈している。
生成OOD検出器は,データのセマンティックな内容ではなく,画素に焦点を絞ったモデルであり,画素が類似する可能性があるが情報内容が著しく異なる場合においても失敗する可能性がある。
自己教師付き学習器を用いて典型的な集合を推定すると、より優れたOOD検出器が得られるという仮説を立てる。
本稿では,表現学習と,多様体推定に基づく情報的要約統計を利用して,上記の問題に対処する手法を提案する。
提案手法は他の教師なし手法よりも優れており、確立された挑戦的ベンチマーク上での最先端の性能、新しい合成データ検出タスクを実現している。
関連論文リスト
- Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - VOS: Learning What You Don't Know by Virtual Outlier Synthesis [23.67449949146439]
最近、ニューラルネットワークの安全なデプロイの重要性から、アウト・オブ・ディストリビューション(OOD)検出が注目されている。
従来のアプローチでは、モデル正則化に実際の外れ値データセットを頼っていた。
仮想外れ値の適応合成によるOOD検出のための新しいフレームワークであるVOSを提案する。
論文 参考訳(メタデータ) (2022-02-02T18:43:01Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。