論文の概要: Distribution Shift Inversion for Out-of-Distribution Prediction
- arxiv url: http://arxiv.org/abs/2306.08328v1
- Date: Wed, 14 Jun 2023 08:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:46:21.789624
- Title: Distribution Shift Inversion for Out-of-Distribution Prediction
- Title(参考訳): out-of-distribution predictionのための分布シフトインバージョン
- Authors: Runpeng Yu, Songhua Liu, Xingyi Yang, Xinchao Wang
- Abstract要約: 本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
- 参考スコア(独自算出の注目度): 57.22301285120695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning society has witnessed the emergence of a myriad of
Out-of-Distribution (OoD) algorithms, which address the distribution shift
between the training and the testing distribution by searching for a unified
predictor or invariant feature representation. However, the task of directly
mitigating the distribution shift in the unseen testing set is rarely
investigated, due to the unavailability of the testing distribution during the
training phase and thus the impossibility of training a distribution translator
mapping between the training and testing distribution. In this paper, we
explore how to bypass the requirement of testing distribution for distribution
translator training and make the distribution translation useful for OoD
prediction. We propose a portable Distribution Shift Inversion algorithm, in
which, before being fed into the prediction model, the OoD testing samples are
first linearly combined with additional Gaussian noise and then transferred
back towards the training distribution using a diffusion model trained only on
the source distribution. Theoretical analysis reveals the feasibility of our
method. Experimental results, on both multiple-domain generalization datasets
and single-domain generalization datasets, show that our method provides a
general performance gain when plugged into a wide range of commonly used OoD
algorithms.
- Abstract(参考訳): 機械学習学会は、統一予測器や不変特徴表現を探索することによって、トレーニングとテスト分布の間の分散シフトに対処する、無数の分散(ood)アルゴリズムの出現を目撃している。
しかし、トレーニング期間中に試験分布が不有効であることや、トレーニングとテスト分布間の分布トランスレータマッピングのトレーニングが不可能であることから、未確認の試験セットにおける分布シフトを直接緩和するタスクはめったに検討されない。
本稿では,分散翻訳訓練における分散テストの必要性を回避し,分散翻訳をood予測に役立てる方法について検討する。
そこで本研究では, 予測モデルに入力される前に, ood試験試料をガウス雑音と線形結合し, 音源分布にのみ訓練された拡散モデルを用いて, トレーニング分布に戻す可搬分布シフトインバージョンアルゴリズムを提案する。
理論解析により本手法の有効性が明らかになった。
複数領域の一般化データセットと単一領域の一般化データセットを併用した実験結果から,OoDアルゴリズムを幅広く使用する場合,本手法は汎用的な性能向上をもたらすことが示された。
関連論文リスト
- Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Any-Shift Prompting for Generalization over Distributions [66.29237565901734]
即時学習におけるトレーニングとテスト分布の関係を考察する一般的な確率的推論フレームワークである「任意のシフトプロンプト」を提案する。
このフレームワーク内では、テストプロンプトが分散関係を利用して、CLIPイメージ言語モデルのトレーニングからテストディストリビューションへの一般化を導く。
ネットワークは、トレーニング情報とテスト情報の両方をフィードフォワードパスに組み込んだ調整されたテストプロンプトを生成し、テスト時の追加のトレーニングコストを回避する。
論文 参考訳(メタデータ) (2024-02-15T16:53:42Z) - Invariant Anomaly Detection under Distribution Shifts: A Causal
Perspective [6.845698872290768]
異常検出(AD、Anomaly Detection)は、異常なサンプルを識別する機械学習タスクである。
分散シフトの制約の下では、トレーニングサンプルとテストサンプルが同じ分布から引き出されるという仮定が崩壊する。
我々は,異常検出モデルのレジリエンスを,異なる種類の分布シフトに高めようとしている。
論文 参考訳(メタデータ) (2023-12-21T23:20:47Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Out-of-distribution Detection by Cross-class Vicinity Distribution of
In-distribution Data [36.66825830101456]
画像分類のためのディープニューラルネットワークは、トレーニングにおいて、インディストリビューション入力を対応する基底真理ラベルにマップすることしか学ばない。
これは、全てのサンプルが独立であり、同一に分散しているという仮定から生じる。
textitCross-class Vicinity Distributionは、複数のin-distributionサンプルを混合したアウト・オブ・ディストリビューションサンプルが、その構成成分の同じクラスを共有していないことを仮定して導入される。
論文 参考訳(メタデータ) (2022-06-19T12:03:33Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Calibrated Adversarial Refinement for Stochastic Semantic Segmentation [5.849736173068868]
本稿では,各予測に関連付けられた確率が,その根拠となる真偽の正しさを反映する,セマンティックマップ上の校正された予測分布を学習するための戦略を提案する。
マルチグレーダのLIDCデータセットと、注入曖昧さのあるCityscapesデータセットに対して、最先端の成果を達成し、アプローチの汎用性と堅牢性を実証する。
本研究は,おもちゃの回帰データセットを用いて実験することにより,校正された予測分布の学習を必要とする他のタスクにコア設計を適用することができることを示す。
論文 参考訳(メタデータ) (2020-06-23T16:39:59Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。