論文の概要: Towards Reliable AI Model Deployments: Multiple Input Mixup for
Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2312.15514v1
- Date: Sun, 24 Dec 2023 15:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:53:25.640020
- Title: Towards Reliable AI Model Deployments: Multiple Input Mixup for
Out-of-Distribution Detection
- Title(参考訳): 信頼できるaiモデルの展開に向けて: 分散検出のための複数の入力ミックスアップ
- Authors: Dasol Choi, Dongbin Na
- Abstract要約: 本稿では,OOD(Out-of-Distribution)検出問題の解法を提案する。
本手法は, 単一エポック微調整によるOOD検出性能の向上に有効である。
我々の方法は、ゼロからモデルを訓練する必要がなく、簡単に分類器にアタッチできる。
- 参考スコア(独自算出の注目度): 4.985768723667418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent remarkable success in the deep-learning industries has unprecedentedly
increased the need for reliable model deployment. For example, the model should
alert the user if the produced model outputs might not be reliable. Previous
studies have proposed various methods to solve the Out-of-Distribution (OOD)
detection problem, however, they generally require a burden of resources. In
this work, we propose a novel and simple method, Multiple Input Mixup (MIM).
Our method can help improve the OOD detection performance with only single
epoch fine-tuning. Our method does not require training the model from scratch
and can be attached to the classifier simply. Despite its simplicity, our MIM
shows competitive performance. Our method can be suitable for various
environments because our method only utilizes the In-Distribution (ID) samples
to generate the synthesized OOD data. With extensive experiments with CIFAR10
and CIFAR100 benchmarks that have been largely adopted in out-of-distribution
detection fields, we have demonstrated our MIM shows comprehensively superior
performance compared to the SOTA method. Especially, our method does not need
additional computation on the feature vectors compared to the previous studies.
All source codes are publicly available at
https://github.com/ndb796/MultipleInputMixup.
- Abstract(参考訳): ディープラーニング産業における近年の顕著な成功は、信頼性のあるモデル展開の必要性を前例のないほど高めている。
例えば、生成したモデル出力が信頼できない場合、モデルがユーザに警告するべきです。
従来の研究は、アウト・オブ・ディストリビューション(OOD)の検出問題を解決するための様々な方法を提案してきたが、一般的にはリソースの負担を必要とする。
本研究では,新しい簡易な手法であるmim(multiple input mixup)を提案する。
本手法は, 単一エポック微調整によるOOD検出性能の向上に有効である。
このメソッドは、モデルをスクラッチからトレーニングする必要はなく、単純に分類器にアタッチできる。
その単純さにもかかわらず、MIMは競争力のある性能を示している。
本手法は, 合成OODデータを生成するために, In-Distribution (ID) サンプルのみを利用するため, 様々な環境に適応できる。
分散検出分野で広く採用されているcifar10およびcifar100ベンチマークを用いた広範な実験により,本手法はsoma法よりも総合的に優れた性能を示した。
特に,本手法では,従来の研究に比べ,特徴ベクトルに余分な計算は不要である。
すべてのソースコードはhttps://github.com/ndb796/MultipleInputMixupで公開されている。
関連論文リスト
- Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - Min-K%++: Improved Baseline for Detecting Pre-Training Data from Large Language Models [15.50128790503447]
我々はMin-K%++という名前の事前学習データ検出のための新しい理論的動機付け手法を提案する。
具体的には,各入力次元に沿ったモデル分布の局所的な最大値であることを示す。
論文 参考訳(メタデータ) (2024-04-03T04:25:01Z) - Enhancing Out-of-Distribution Detection with Multitesting-based Layer-wise Feature Fusion [11.689517005768046]
アウト・オブ・ディストリビューション(Out-of-distriion)サンプルは、トレーニング分布と比較して、局所的またはグローバルな特徴の変化を示す可能性がある。
本稿では,新しいフレームワーク,Multitesting-based Layer-wise Out-of-Distribution (OOD) を提案する。
本手法は, ベースライン法と比較して, 分布外検出の性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-03-16T04:35:04Z) - Calibrated Out-of-Distribution Detection with a Generic Representation [28.658200157111505]
アウト・オブ・ディストリビューション検出(Out-of-distriion detection)は、視覚モデルを実際にデプロイする際の一般的な問題であり、安全クリティカルなアプリケーションにおいて重要なビルディングブロックである。
GROODと呼ばれる新しい OOD 法を提案する。これは,OOD 検出をベイマン・ピアソンのタスクとして定式化し,高い校正スコアを付与し,優れた性能を実現する。
この手法は多くのOODベンチマークで最先端の性能を達成し、いくつかのベンチマークでほぼ完璧な性能を達成した。
論文 参考訳(メタデータ) (2023-03-23T10:03:12Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - Unsupervised Multi-source Domain Adaptation Without Access to Source
Data [58.551861130011886]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
本稿では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-05T10:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。