論文の概要: General-Purpose Multi-Modal OOD Detection Framework
- arxiv url: http://arxiv.org/abs/2307.13069v1
- Date: Mon, 24 Jul 2023 18:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 19:15:03.973012
- Title: General-Purpose Multi-Modal OOD Detection Framework
- Title(参考訳): 汎用多モードOOD検出フレームワーク
- Authors: Viet Duong, Qiong Wu, Zhengyi Zhou, Eric Zavesky, Jiahe Chen,
Xiangzhou Liu, Wen-Ling Hsu, Huajie Shao
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 5.287829685181842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection identifies test samples that differ from
the training data, which is critical to ensuring the safety and reliability of
machine learning (ML) systems. While a plethora of methods have been developed
to detect uni-modal OOD samples, only a few have focused on multi-modal OOD
detection. Current contrastive learning-based methods primarily study
multi-modal OOD detection in a scenario where both a given image and its
corresponding textual description come from a new domain. However, real-world
deployments of ML systems may face more anomaly scenarios caused by multiple
factors like sensor faults, bad weather, and environmental changes. Hence, the
goal of this work is to simultaneously detect from multiple different OOD
scenarios in a fine-grained manner. To reach this goal, we propose a
general-purpose weakly-supervised OOD detection framework, called WOOD, that
combines a binary classifier and a contrastive learning component to reap the
benefits of both. In order to better distinguish the latent representations of
in-distribution (ID) and OOD samples, we adopt the Hinge loss to constrain
their similarity. Furthermore, we develop a new scoring metric to integrate the
prediction results from both the binary classifier and contrastive learning for
identifying OOD samples. We evaluate the proposed WOOD model on multiple
real-world datasets, and the experimental results demonstrate that the WOOD
model outperforms the state-of-the-art methods for multi-modal OOD detection.
Importantly, our approach is able to achieve high accuracy in OOD detection in
three different OOD scenarios simultaneously. The source code will be made
publicly available upon publication.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
単一モードのOODサンプルを検出するために多くの方法が開発されているが、多モードのOOD検出に焦点を当てた例はごくわずかである。
現在の対照的な学習ベース手法は、与えられた画像とその対応するテキスト記述が新しいドメインから来るシナリオにおいて、主にマルチモーダルOOD検出を研究する。
しかし、MLシステムの実際の展開は、センサ障害、悪天候、環境変化など、複数の要因によって引き起こされるより異常なシナリオに直面する可能性がある。
したがって、この研究の目的は、複数の異なるOODシナリオをきめ細かい方法で同時に検出することである。
この目的を達成するために,バイナリ分類器とコントラスト学習コンポーネントを組み合わせて,両者の利点を享受する汎用的な弱教師付きood検出フレームワークwoodを提案する。
In-distriion (ID) および OOD サンプルの潜伏表現をよりよく区別するために, 類似性を制限するために Hinge loss を採用する。
さらに,OODサンプルを識別するための2値分類器とコントラスト学習の両方から予測結果を統合するための新しいスコアリング指標を開発した。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
重要なことは、3つのOODシナリオで同時にOOD検出を高精度に行うことが可能である。
ソースコードは公開時には公開される予定だ。
関連論文リスト
- Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - MultiOOD: Scaling Out-of-Distribution Detection for Multiple Modalities [11.884004583641325]
我々は,多種多様なデータセットサイズと様々なモダリティの組み合わせを特徴とする,第一種ベンチマークであるMultiOODを紹介する。
我々はまず,既存のOOD検出アルゴリズムをMultiOOD上で評価した。
本稿では,近隣クラスからの情報を活用することで,より広い特徴空間を探索する新しいアウトリー合成手法NP-Mixを提案する。
論文 参考訳(メタデータ) (2024-05-27T17:59:02Z) - Toward a Realistic Benchmark for Out-of-Distribution Detection [3.8038269045375515]
我々は ImageNet と Places365 に基づく OOD 検出のための総合ベンチマークを導入する。
様々な特性を持つベンチマークを生成するために、どのクラスを配布中と考えるべきかを決定するために、いくつかのテクニックが使える。
論文 参考訳(メタデータ) (2024-04-16T11:29:43Z) - Out-of-Distribution Detection Using Peer-Class Generated by Large Language Model [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、マシンラーニングモデルの信頼性とセキュリティを確保するための重要なタスクである。
本稿では,ODPCと呼ばれる新しい手法を提案し,大規模言語モデルを用いてOODピア・セマンティクスのクラスを生成する。
5つのベンチマークデータセットの実験により,提案手法は最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2024-03-20T06:04:05Z) - Distilling the Unknown to Unveil Certainty [66.29929319664167]
標準ネットワークがトレーニングされるIDデータから逸脱するテストサンプルを特定するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
本稿では,IDデータのトレーニングが可能であるか否かを問う,先駆的な学習フレームワークであるOODナレッジ蒸留について紹介する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - Meta OOD Learning for Continuously Adaptive OOD Detection [38.28089655572316]
現代のディープラーニングアプリケーションには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
本稿では,CAOOD(Continuous Adaptive Out-of-distribution)検出という,新しい,より現実的な設定を提案する。
トレーニングプロセス中に優れたOOD検出モデルが学習されるように、学習適応図を設計し、メタOOD学習(MOL)を開発する。
論文 参考訳(メタデータ) (2023-09-21T01:05:45Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。