論文の概要: Diversify and Disambiguate: Learning From Underspecified Data
- arxiv url: http://arxiv.org/abs/2202.03418v1
- Date: Mon, 7 Feb 2022 18:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:15:30.693260
- Title: Diversify and Disambiguate: Learning From Underspecified Data
- Title(参考訳): 多様性と曖昧さ:未特定データから学ぶ
- Authors: Yoonho Lee, Huaxiu Yao, Chelsea Finn
- Abstract要約: DivDisは、テストディストリビューションからラベルのないデータを活用することで、タスクに対するさまざまな仮説のコレクションを学ぶフレームワークである。
我々はDivDisが画像分類や自然言語処理問題において頑健な特徴を用いた仮説を見つける能力を示す。
- 参考スコア(独自算出の注目度): 76.67228314592904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many datasets are underspecified, which means there are several equally
viable solutions for the data. Underspecified datasets can be problematic for
methods that learn a single hypothesis because different functions that achieve
low training loss can focus on different predictive features and thus have
widely varying predictions on out-of-distribution data. We propose DivDis, a
simple two-stage framework that first learns a diverse collection of hypotheses
for a task by leveraging unlabeled data from the test distribution. We then
disambiguate by selecting one of the discovered hypotheses using minimal
additional supervision, in the form of additional labels or inspection of
function visualization. We demonstrate the ability of DivDis to find hypotheses
that use robust features in image classification and natural language
processing problems with underspecification.
- Abstract(参考訳): 多くのデータセットは特定されていないため、データに対して等しく実行可能なソリューションがいくつか存在する。
低トレーニング損失を達成する異なる関数は、異なる予測特徴に焦点を合わせ、分散データに広く異なる予測を持つため、単一の仮説を学習する手法では、不特定なデータセットが問題となる可能性がある。
テスト分布からラベルのないデータを活用することにより,まずタスクに対するさまざまな仮説を学習する,シンプルな2段階フレームワークであるDivDisを提案する。
次に,検出された仮説の1つを,付加ラベルの形で,あるいは機能可視化の検査という形で,最小限の追加監督で選択することで曖昧さを解消する。
我々はDivDisが画像分類や自然言語処理問題において頑健な特徴を用いた仮説を見つける能力を示す。
関連論文リスト
- Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Context-Aware Drift Detection [0.0]
均質性の2サンプル試験は、既存のドリフト検出手法が構築される基礎となる。
条件分布処理効果の2サンプル試験の基礎の上に構築した,より一般的なドリフト検出フレームワークを開発した。
論文 参考訳(メタデータ) (2022-03-16T14:23:02Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Meta Learning for Causal Direction [29.00522306460408]
小型データ設定における原因と効果の区別を可能にする新しい生成モデルを提案する。
提案手法は, 各種合成データと実世界のデータを用いて実証し, 種々のデータセットサイズにおける方向検出の精度を高い精度で維持可能であることを示す。
論文 参考訳(メタデータ) (2020-07-06T15:12:05Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。