論文の概要: ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction
- arxiv url: http://arxiv.org/abs/2304.03870v3
- Date: Fri, 1 Mar 2024 00:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-04 14:42:06.926492
- Title: ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction
- Title(参考訳): aspest: アクティブラーニングと選択的予測のギャップを埋める
- Authors: Jiefeng Chen, Jinsung Yoon, Sayna Ebrahimi, Sercan Arik, Somesh Jha,
Tomas Pfister
- Abstract要約: 選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
- 参考スコア(独自算出の注目度): 56.001808843574395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Selective prediction aims to learn a reliable model that abstains from making
predictions when uncertain. These predictions can then be deferred to humans
for further evaluation. As an everlasting challenge for machine learning, in
many real-world scenarios, the distribution of test data is different from the
training data. This results in more inaccurate predictions, and often increased
dependence on humans, which can be difficult and expensive. Active learning
aims to lower the overall labeling effort, and hence human dependence, by
querying the most informative examples. Selective prediction and active
learning have been approached from different angles, with the connection
between them missing. In this work, we introduce a new learning paradigm,
active selective prediction, which aims to query more informative samples from
the shifted target domain while increasing accuracy and coverage. For this new
paradigm, we propose a simple yet effective approach, ASPEST, that utilizes
ensembles of model snapshots with self-training with their aggregated outputs
as pseudo labels. Extensive experiments on numerous image, text and structured
datasets, which suffer from domain shifts, demonstrate that ASPEST can
significantly outperform prior work on selective prediction and active learning
(e.g. on the MNIST$\to$SVHN benchmark with the labeling budget of 100, ASPEST
improves the AUACC metric from 79.36% to 88.84%) and achieves more optimal
utilization of humans in the loop.
- Abstract(参考訳): 選択的予測は、不確定な場合の予測を省略する信頼できるモデルを学ぶことを目的としている。
これらの予測は、さらなる評価のために人間に延期することができる。
機械学習の永続的な課題として、多くの現実世界のシナリオでは、テストデータの分布はトレーニングデータとは異なる。
この結果、より正確な予測が得られず、しばしば人間への依存が増大し、困難で費用がかかる可能性がある。
アクティブラーニングは、最も有意義な例をクエリすることで、ラベリング全体の労力を下げることを目的としている。
選択的予測とアクティブラーニングは異なる角度からアプローチされ、それらの関係は失われている。
本研究では,移動対象領域からより有意義なサンプルをクエリし,精度とカバレッジを高めることを目的とした,新しい学習パラダイムであるactive selective predictionを提案する。
新たなパラダイムとして,モデルスナップショットのアンサンブルと,集約された出力を擬似ラベルとして自己学習する,シンプルで効果的なアプローチであるASPESTを提案する。
ドメインシフトに苦しむ多数の画像、テキスト、構造化データセットに関する大規模な実験は、ASPESTが選択的な予測とアクティブラーニング(MNIST$\to$SVHNベンチマークでは100のラベル付け予算で、ASPESTはAUACCメトリックを79.36%から88.84%に改善し、ループ内での人間のより最適な利用を可能にすることを実証している。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Overcoming Overconfidence for Active Learning [1.2776312584227847]
本稿では,アクティブな学習シナリオで発生する過信の問題に対処する2つの新しい手法を提案する。
1つ目はCross-Mix-and-Mix(CMaM)と呼ばれる拡張戦略で、限られたトレーニング分布を拡張してモデルを校正することを目的としている。
2つ目は Ranked Margin Sampling (RankedMS) という選択戦略である。
論文 参考訳(メタデータ) (2023-08-21T09:04:54Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Zero-shot meta-learning for small-scale data from human subjects [10.320654885121346]
我々は,サンプル外テストデータに対する限られたトレーニングデータを用いて,新しい予測タスクに迅速に適応するフレームワークを開発した。
本モデルでは, 介入による遅延処理効果を学習し, 設計上はマルチタスク予測を自然に処理できる。
我々のモデルは、より広い人口への小型人間研究の一般化を向上するために重要である。
論文 参考訳(メタデータ) (2022-03-29T17:42:04Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。