論文の概要: Out-of-Distribution Generalization Analysis via Influence Function
- arxiv url: http://arxiv.org/abs/2101.08521v1
- Date: Thu, 21 Jan 2021 09:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 17:26:15.074258
- Title: Out-of-Distribution Generalization Analysis via Influence Function
- Title(参考訳): 影響関数による分布の一般化解析
- Authors: Haotian Ye, Chuanlong Xie, Yue Liu, Zhenguo Li
- Abstract要約: トレーニングとターゲットデータのミスマッチは、機械学習システムにとって大きな課題のひとつだ。
我々は,OOD一般化問題に,ロバスト統計学の古典的ツールであるインフルエンス関数を導入する。
実験領域と提案指標の精度は,OODアルゴリズムが必要かどうか,モデルが優れたOOD一般化を実現するかどうかを判別する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 25.80365416547478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The mismatch between training and target data is one major challenge for
current machine learning systems. When training data is collected from multiple
domains and the target domains include all training domains and other new
domains, we are facing an Out-of-Distribution (OOD) generalization problem that
aims to find a model with the best OOD accuracy. One of the definitions of OOD
accuracy is worst-domain accuracy. In general, the set of target domains is
unknown, and the worst over target domains may be unseen when the number of
observed domains is limited. In this paper, we show that the worst accuracy
over the observed domains may dramatically fail to identify the OOD accuracy.
To this end, we introduce Influence Function, a classical tool from robust
statistics, into the OOD generalization problem and suggest the variance of
influence function to monitor the stability of a model on training domains. We
show that the accuracy on test domains and the proposed index together can help
us discern whether OOD algorithms are needed and whether a model achieves good
OOD generalization.
- Abstract(参考訳): トレーニングとターゲットデータのミスマッチは、現在の機械学習システムにとって大きな課題のひとつだ。
複数のドメインからトレーニングデータを収集し、対象ドメインがすべてのトレーニングドメインや他の新しいドメインを含む場合、最適なOOD精度のモデルを見つけることを目的とした、アウト・オブ・ディストリビューション(OOD)一般化問題に直面している。
OODの精度の定義の1つは、最悪の領域の精度である。
一般に、対象ドメインの集合は未知であり、観測されたドメインの数が限られている場合、対象ドメインに対する最悪の状態は見つからない可能性がある。
本稿では,観測領域における最悪の精度は,OODの精度を劇的に識別できない可能性があることを示す。
そこで本研究では,ロバスト統計学の古典的ツールであるインフルエント関数をood一般化問題に導入し,モデルの安定性を監視するためにインフルエント関数の分散を提案する。
実験領域と提案指標の精度は,OODアルゴリズムが必要かどうか,モデルが優れたOOD一般化を実現するかどうかを判別する上で有効であることを示す。
- 全文 参考訳へのリンク
関連論文リスト
- Algorithms and Theory for Supervised Gradual Domain Adaptation [19.42476993856205]
本研究では, 学習者に対して, 学習経路に沿った変化分布からラベル付きデータを利用できるようにするための, 教師付き段階的領域適応の課題について検討する。
この設定の下では、軽度な仮定の下で学習誤差に関する最初の一般化上限を提供する。
本研究の結果は, 損失関数の範囲に依存しないアルゴリズムであり, 軌道上の平均学習誤差にのみ依存する。
論文 参考訳(メタデータ) (2022-04-25T13:26:11Z) - Generalizable Person Re-Identification via Self-Supervised Batch Norm
Test-Time Adaption [63.7424680360004]
Batch Norm Test-time Adaption (BNTA)は、BNパラメータを適応的に更新するための自己教師型戦略を適用する、新しいre-idフレームワークである。
BNTAは、推論前にラベル付けされていないターゲットデータ内のドメイン認識情報を探索し、BNによって正規化された特徴分布を変調してターゲットドメインに適応させる。
論文 参考訳(メタデータ) (2022-03-01T18:46:32Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - ProtoInfoMax: Prototypical Networks with Mutual Information Maximization
for Out-of-Domain Detection [19.61846393392849]
ProtoInfoMaxは、Prototypeal Networksを拡張してIn-Domain(ID)とOOD文を同時に処理する新しいアーキテクチャである。
提案手法は,低資源環境下でのOOD検出性能を最大20%向上できることを示す。
論文 参考訳(メタデータ) (2021-08-27T11:55:34Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Domain Adaptation with Incomplete Target Domains [65.38480076899634]
本稿では、この新たなドメイン適応問題に対処するために、不完全データインプットに基づく Adversarial Network (IDIAN) モデルを提案する。
提案モデルでは,対象領域における部分的な観測に基づいて,欠落した特徴値を満たすデータ計算モジュールを設計する。
我々は、クロスドメインベンチマークタスクと、不完全なターゲットドメインを用いた実世界適応タスクの両方で実験を行う。
論文 参考訳(メタデータ) (2020-12-03T00:07:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。