論文の概要: Confidence-Based Model Selection: When to Take Shortcuts for
Subpopulation Shifts
- arxiv url: http://arxiv.org/abs/2306.11120v1
- Date: Mon, 19 Jun 2023 18:48:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:40:39.266875
- Title: Confidence-Based Model Selection: When to Take Shortcuts for
Subpopulation Shifts
- Title(参考訳): 信頼に基づくモデル選択:サブポピュレーションシフトのショートカットをいつ行うか
- Authors: Annie S. Chen, Yoonho Lee, Amrith Setlur, Sergey Levine, Chelsea Finn
- Abstract要約: モデル信頼度がモデル選択を効果的に導くことができるConfidence-based Model Selection (CosMoS)を提案する。
我々はCosMoSを,データ分散シフトのレベルが異なる複数のテストセットを持つ4つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 119.22672589020394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective machine learning models learn both robust features that directly
determine the outcome of interest (e.g., an object with wheels is more likely
to be a car), and shortcut features (e.g., an object on a road is more likely
to be a car). The latter can be a source of error under distributional shift,
when the correlations change at test-time. The prevailing sentiment in the
robustness literature is to avoid such correlative shortcut features and learn
robust predictors. However, while robust predictors perform better on
worst-case distributional shifts, they often sacrifice accuracy on majority
subpopulations. In this paper, we argue that shortcut features should not be
entirely discarded. Instead, if we can identify the subpopulation to which an
input belongs, we can adaptively choose among models with different strengths
to achieve high performance on both majority and minority subpopulations. We
propose COnfidence-baSed MOdel Selection (CosMoS), where we observe that model
confidence can effectively guide model selection. Notably, CosMoS does not
require any target labels or group annotations, either of which may be
difficult to obtain or unavailable. We evaluate CosMoS on four datasets with
spurious correlations, each with multiple test sets with varying levels of data
distribution shift. We find that CosMoS achieves 2-5% lower average regret
across all subpopulations, compared to using only robust predictors or other
model aggregation methods.
- Abstract(参考訳): 効果的な機械学習モデルは、興味のある結果を直接決定する堅牢な機能(例えば、車輪のある物体は車になる可能性が高い)とショートカット機能(例えば、道路上の物体は車になる可能性が高い)の両方を学習する。
後者は、相関がテスト時に変化するとき、分布シフトの下でエラーの原因となる。
堅牢性文学における一般的な感情は、そのような相関的なショートカットの特徴を避け、堅牢な予測子を学ぶことである。
しかしながら、ロバストな予測器は最悪の場合の分布シフトにおいてより良い性能を発揮するが、多数集団の精度を犠牲にすることが多い。
本稿では,ショートカット機能を完全に破棄するべきではないと論じる。
代わりに、入力が属する部分集団を識別できるなら、異なる強みを持つモデルの中から適応的に選択し、多数派と少数派の両方で高いパフォーマンスを達成することができる。
本研究では,信頼度に基づくモデル選択(cosmos)を提案する。
特に、CosMoSはターゲットラベルやグループアノテーションを必要としない。
我々はCosMoSを,データ分散シフトのレベルが異なる複数のテストセットを持つ4つのデータセットで評価した。
また,CosMoSは,ロバストな予測器やモデルアグリゲーション法に比べて,全サブポピュレーションの平均後悔率を2-5%低下させることがわかった。
関連論文リスト
- A Complete Decomposition of KL Error using Refined Information and Mode Interaction Selection [11.994525728378603]
我々は高次モード相互作用に着目したログ線形モデルの古典的定式化を再考する。
学習した分布は、実際に利用可能な有限量のデータをより効率的に利用することができる。
論文 参考訳(メタデータ) (2024-10-15T18:08:32Z) - Information FOMO: The unhealthy fear of missing out on information. A method for removing misleading data for healthier models [0.0]
ミスリーディングや不要なデータは、マシンラーニング(ML)モデルの健全性や正確性に大きく影響します。
本稿では,データセット内の重要な情報を特定するシーケンシャルな選択法を提案する。
これらの不安定性は、基礎となるマップの複雑さの結果であり、極端な事象や重い尾と結びついている。
論文 参考訳(メタデータ) (2022-08-27T19:43:53Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。