論文の概要: OoD-Bench: Benchmarking and Understanding Out-of-Distribution
Generalization Datasets and Algorithms
- arxiv url: http://arxiv.org/abs/2106.03721v1
- Date: Mon, 7 Jun 2021 15:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:47:53.355340
- Title: OoD-Bench: Benchmarking and Understanding Out-of-Distribution
Generalization Datasets and Algorithms
- Title(参考訳): OoD-Bench: 分布外一般化データセットとアルゴリズムのベンチマークと理解
- Authors: Nanyang Ye, Kaican Li, Lanqing Hong, Haoyue Bai, Yiting Chen, Fengwei
Zhou, Zhenguo Li
- Abstract要約: 1つの分布シフトにおいて経験的リスク最小化よりも優れた既存のOoDアルゴリズムは、通常、他の分布シフトに制限があることを示す。
新しいベンチマークは、将来のOoD一般化研究で活用できる強力な基盤として機能する可能性がある。
- 参考スコア(独自算出の注目度): 28.37021464780398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved tremendous success with independent and
identically distributed (i.i.d.) data. However, the performance of neural
networks often degenerates drastically when encountering out-of-distribution
(OoD) data, i.e., training and test data are sampled from different
distributions. While a plethora of algorithms has been proposed to deal with
OoD generalization, our understanding of the data used to train and evaluate
these algorithms remains stagnant. In this work, we position existing datasets
and algorithms from various research areas (e.g., domain generalization, stable
learning, invariant risk minimization) seemingly unconnected into the same
coherent picture. First, we identify and measure two distinct kinds of
distribution shifts that are ubiquitous in various datasets. Next, we compare
various OoD generalization algorithms with a new benchmark dominated by the two
distribution shifts. Through extensive experiments, we show that existing OoD
algorithms that outperform empirical risk minimization on one distribution
shift usually have limitations on the other distribution shift. The new
benchmark may serve as a strong foothold that can be resorted to by future OoD
generalization research.
- Abstract(参考訳): 深層学習は独立的で同一に分散した(d.d.)ことで大きな成功を収めた。
データだ
しかし、ニューラルネットワークの性能は、アウト・オブ・ディストリビューション(OoD)データに遭遇した場合、しばしば劇的に低下する。
ood一般化に対処するために多くのアルゴリズムが提案されているが、これらのアルゴリズムを訓練し評価するために使用されるデータの理解は停滞している。
本研究では,複数の研究領域(ドメイン一般化,安定学習,不変リスク最小化など)から既存のデータセットとアルゴリズムを同一のコヒーレントな図形に含めないように配置する。
まず,様々なデータセットにおいてユビキタスな2種類の分布シフトを同定し,測定する。
次に,ood一般化アルゴリズムと2つの分布シフトに支配される新しいベンチマークを比較した。
実験により,ある分布シフトにおいて経験的リスクを最小化する既存のoodアルゴリズムは,他の分布シフトに制限があることを実証した。
新しいベンチマークは、将来のood一般化研究に頼れる強固な足場となるかもしれない。
関連論文リスト
- Scalable Decentralized Algorithms for Online Personalized Mean Estimation [12.002609934938224]
本研究は,各エージェントが実数値分布からサンプルを収集し,その平均値を推定する,オーバーアーキシング問題の簡易版に焦点を当てた。
1つは信念の伝播からインスピレーションを得ており、もう1つはコンセンサスに基づくアプローチを採用している。
論文 参考訳(メタデータ) (2024-02-20T08:30:46Z) - Biquality Learning: a Framework to Design Algorithms Dealing with
Closed-Set Distribution Shifts [0.0]
このようなアルゴリズムを設計するのには、バイ品質のデータ設定が適していると考えています。
トレーニング時に利用可能な信頼できないデータセットは、任意の分散シフトを扱うアルゴリズムの設計を可能にする。
実世界のデータセットに概念ドリフトとクラス条件シフトを合成的に導入する2つの新しい手法を実験した。
論文 参考訳(メタデータ) (2023-08-29T08:57:47Z) - DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization [58.704753031608625]
時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
論文 参考訳(メタデータ) (2023-08-04T12:27:11Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Anomaly Detection under Distribution Shift [24.094884041252044]
異常検出(AD)は、通常のトレーニングサンプルのセットからパターンを学習し、テストデータの異常サンプルを特定することを目的とした、重要な機械学習タスクである。
既存のAD研究の多くは、トレーニングデータとテストデータは同一のデータ分布から引き出されると仮定しているが、テストデータは大きな分散シフトを持つ可能性がある。
トレーニングおよび推論段階のOOD標準試料の分布ギャップを最小化することにより, 多様な分布シフトに対する新しいロバストADアプローチを導入する。
論文 参考訳(メタデータ) (2023-03-24T07:39:08Z) - Modeling the Data-Generating Process is Necessary for Out-of-Distribution Generalization [23.302060306322506]
実世界のデータは、しばしば異なる属性に対して複数の分散シフトを持つ。
最先端のDGアルゴリズムは、すべてのシフトに対して一貫してうまく動作しない。
我々は、データ生成プロセスに関する知識を用いて正規化のための正しい独立制約を適応的に識別し、適用するアルゴリズムであるCausally Adaptive Constraint Minimization (CACM)を開発した。
論文 参考訳(メタデータ) (2022-06-15T22:35:06Z) - An Information-theoretical Approach to Semi-supervised Learning under
Covariate-shift [24.061858945664856]
半教師あり学習における一般的な前提は、ラベル付き、ラベルなし、テストデータが同じ分布から引き出されることである。
本稿では,この問題に対処可能な半教師付き学習アルゴリズムを提案する。
また,このフレームワークはエントロピーの最小化や擬似ラベル付けなど,一般的な手法を復元する。
論文 参考訳(メタデータ) (2022-02-24T14:25:14Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data [87.61504710345528]
我々は,OoD検出性能を改善しつつ,ニューラルネットワークをOoDデータのチューニングから解放する2つの方法を提案する。
具体的には、信頼性スコアリングと修正された入力前処理法を分離することを提案する。
大規模画像データセットのさらなる解析により、セマンティックシフトと非セマンティックシフトの2種類の分布シフトが有意な差を示すことが示された。
論文 参考訳(メタデータ) (2020-02-26T04:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。