論文の概要: A Comprehensive Review of Trends, Applications and Challenges In
Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2209.12935v1
- Date: Mon, 26 Sep 2022 18:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:02:22.099544
- Title: A Comprehensive Review of Trends, Applications and Challenges In
Out-of-Distribution Detection
- Title(参考訳): アウト・オブ・ディストリビューション検出の動向, 応用, 課題の包括的レビュー
- Authors: Navid Ghassemi, Ehsan Fazl-Ersi
- Abstract要約: アウト・オブ・ディストリビューション・データ・サブセットの検出とより包括的な一般化の実現に焦点をあてた研究分野が誕生した。
多くのディープラーニングベースのモデルは、ベンチマークデータセットでほぼ完璧な結果を得たため、これらのモデルの信頼性と信頼性を評価する必要性は、これまで以上に強く感じられる。
本稿では,本分野における70以上の論文のレビューに加えて,今後の研究の課題と方向性を提示するとともに,データシフトの多種多様さを統一的に把握し,より一般化するためのソリューションを提案する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With recent advancements in artificial intelligence, its applications can be
seen in every aspect of humans' daily life. From voice assistants to mobile
healthcare and autonomous driving, we rely on the performance of AI methods for
many critical tasks; therefore, it is essential to assert the performance of
models in proper means to prevent damage. One of the shortfalls of AI models in
general, and deep machine learning in particular, is a drop in performance when
faced with shifts in the distribution of data. Nonetheless, these shifts are
always expected in real-world applications; thus, a field of study has emerged,
focusing on detecting out-of-distribution data subsets and enabling a more
comprehensive generalization. Furthermore, as many deep learning based models
have achieved near-perfect results on benchmark datasets, the need to evaluate
these models' reliability and trustworthiness for pushing towards real-world
applications is felt more strongly than ever. This has given rise to a growing
number of studies in the field of out-of-distribution detection and domain
generalization, which begs the need for surveys that compare these studies from
various perspectives and highlight their straightens and weaknesses. This paper
presents a survey that, in addition to reviewing more than 70 papers in this
field, presents challenges and directions for future works and offers a
unifying look into various types of data shifts and solutions for better
generalization.
- Abstract(参考訳): 近年の人工知能の進歩により、その応用は人間の日常生活のあらゆる側面で見ることができる。
音声アシスタントからモバイルヘルスケア、自律運転に至るまで、私たちは多くの重要なタスクにおいてAIメソッドのパフォーマンスに依存しているため、損傷を防ぐために適切な方法でモデルのパフォーマンスを主張することが不可欠である。
AIモデル全般、特にディープラーニングの欠点のひとつは、データの分散の変化に直面した場合のパフォーマンス低下である。
しかしながら、これらのシフトは常に現実世界のアプリケーションで期待されているため、配布外データサブセットの検出とより包括的な一般化の実現に焦点をあてた研究分野が生まれている。
さらに、多くのディープラーニングベースのモデルがベンチマークデータセットでほぼ完全な結果を得たため、これらのモデルの信頼性と信頼性を評価して現実のアプリケーションにプッシュする必要性は、これまで以上に強く感じられる。
これは、分散検出とドメイン一般化の分野における研究の増加をもたらし、様々な観点からこれらの研究を比較し、その正しさと弱さを強調する調査の必要性を訴えている。
本稿では,70以上の論文のレビューに加えて,今後の研究に向けた課題と方向性を提示するとともに,様々なデータシフトと解の統一的考察を行い,その一般化について述べる。
関連論文リスト
- Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - A Study on Domain Generalization for Failure Detection through Human
Reactions in HRI [7.664159325276515]
マシンラーニングモデルは一般的に、分散(データセット)でテストされる。
これにより、ドメインの一般化 - 異なる設定でパフォーマンスを維持する - が重要な問題となる。
本稿では,人間の表情を訓練した故障検出モデルにおける領域一般化の簡潔な解析を行う。
論文 参考訳(メタデータ) (2024-03-10T21:30:22Z) - Spurious Correlations in Machine Learning: A Survey [69.89249134046086]
機械学習システムは、入力の偏りのある特徴と対応するラベルの間の急激な相関に敏感である。
これらの特徴とそのラベルとの相関は"spurious"として知られている。
我々は、機械学習モデルにおける素早い相関に対処する現在の最先端の手法の分類とともに、この問題を包括的にレビューする。
論文 参考訳(メタデータ) (2024-02-20T04:49:34Z) - Supervised Algorithmic Fairness in Distribution Shifts: A Survey [18.88904307983235]
現実世界のアプリケーションでは、機械学習モデルは特定のデータセットでトレーニングされることが多いが、データ分散がシフトする可能性のある環境にデプロイされる。
この変化は、人種や性別などのセンシティブな属性によって特徴づけられる特定のグループに不公平な予測をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-02-02T11:26:18Z) - Robust Computer Vision in an Ever-Changing World: A Survey of Techniques
for Tackling Distribution Shifts [20.17397328893533]
AIアプリケーションは、ますます一般大衆に注目を集めている。
コンピュータビジョンモデルに関する理論的な仮定と、それらのモデルが現実世界に展開する際に直面する現実との間には、顕著なギャップがある。
このギャップの重要な理由の1つは、分散シフトとして知られる難しい問題である。
論文 参考訳(メタデータ) (2023-12-03T23:40:12Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Reinforcement Learning for Generative AI: A Survey [40.21640713844257]
この調査は、さまざまなアプリケーション領域にまたがるハイレベルなレビューに光を当てることを目的としています。
この領域では厳格な分類法を提供し、様々なモデルや応用について十分なカバレッジを提供している。
この調査は、現在のモデルの限界に対処し、生成AIのフロンティアを拡大する可能性のある潜在的方向を示すことで締めくくられる。
論文 参考訳(メタデータ) (2023-08-28T06:15:14Z) - Non-adversarial Robustness of Deep Learning Methods for Computer Vision [0.0]
非敵対的ロバスト性(英: non-adversarial robustness)、あるいは自然ロバスト性(英: natural robustness)は、ディープラーニングモデルの特性である。
本稿では,コンピュータビジョン手法のロバスト性向上のための最新の技術の概要を紹介する。
論文 参考訳(メタデータ) (2023-05-24T10:21:31Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。