論文の概要: Learning in the Wild with Incremental Skeptical Gaussian Processes
- arxiv url: http://arxiv.org/abs/2011.00928v1
- Date: Mon, 2 Nov 2020 12:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:31:55.800941
- Title: Learning in the Wild with Incremental Skeptical Gaussian Processes
- Title(参考訳): 漸進的懐疑的ガウス過程を用いた野生の学習
- Authors: Andrea Bontempelli, Stefano Teso, Fausto Giunchiglia, Andrea Passerini
- Abstract要約: ガウス過程(GP)を中心とした懐疑的学習の再考を提案する。
我々の再設計はISGPと呼ばれ、GPが供給する不確実性推定を活用して、ラベル付けと矛盾するクエリをよりよく割り当てる。
合成および実世界のデータを用いた実験では、ISGPは様々なノイズレベルにおいてうまく機能し、新しいクラスが観測される。
- 参考スコア(独自算出の注目度): 27.700043183428807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to learn from human supervision is fundamental for personal
assistants and other interactive applications of AI. Two central challenges for
deploying interactive learners in the wild are the unreliable nature of the
supervision and the varying complexity of the prediction task. We address a
simple but representative setting, incremental classification in the wild,
where the supervision is noisy and the number of classes grows over time. In
order to tackle this task, we propose a redesign of skeptical learning centered
around Gaussian Processes (GPs). Skeptical learning is a recent interactive
strategy in which, if the machine is sufficiently confident that an example is
mislabeled, it asks the annotator to reconsider her feedback. In many cases,
this is often enough to obtain clean supervision. Our redesign, dubbed ISGP,
leverages the uncertainty estimates supplied by GPs to better allocate labeling
and contradiction queries, especially in the presence of noise. Our experiments
on synthetic and real-world data show that, as a result, while the original
formulation of skeptical learning produces over-confident models that can fail
completely in the wild, ISGP works well at varying levels of noise and as new
classes are observed.
- Abstract(参考訳): 人間の監督から学ぶ能力は、パーソナルアシスタントや他のAIのインタラクティブな応用に基本である。
対話型学習者を野生に展開する上での2つの重要な課題は、監督の信頼性の低い性質と予測タスクの複雑さである。
我々は,監視が騒がしく,時間が経つにつれてクラス数が増加する,野放しでは,単純だが代表的な設定である漸進的な分類に対処した。
そこで本研究では,ガウス過程(gps)を中心とした懐疑的学習の再設計を提案する。
懐疑的学習は最近の対話的戦略であり、もし機械が例が誤記されていると十分に確信しているなら、注釈官にフィードバックを再考するよう依頼する。
多くの場合、これはクリーンな監視を得るのに十分である。
我々の再設計はISGPと呼ばれ、特にノイズの存在下でのラベル付けと矛盾クエリをより適切に割り当てるために、GPが供給する不確実性推定を活用する。
人工的・実世界のデータを用いた実験の結果,懐疑的学習の原型は,完全に失敗しうる自信過剰なモデルを生成するが,isgpは様々なノイズレベルや新しいクラスが観察されるように機能することが示された。
関連論文リスト
- Negotiated Representations for Machine Mearning Application [0.0]
オーバーフィッティング(Overfitting)は、機械学習モデルが長時間トレーニングされ、提供されたトレーニングラベルに対するトレーニングサンプルの正確な適合度に過度にフォーカスされた場合に発生する現象である。
本稿では,事前に決定されたクラスラベルを用いて,サンプルの出力表現を交渉可能にすることによって,機械学習モデルの分類精度を高める手法を提案する。
論文 参考訳(メタデータ) (2023-11-19T19:53:49Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Improving Self-supervised Learning with Automated Unsupervised Outlier
Arbitration [83.29856873525674]
本稿では,自己教師型学習のためのビューサンプリング問題を対象とした,軽量潜在変数モデル UOTA を提案する。
本手法は,多くの主流な自己指導型学習手法に直接応用する。
論文 参考訳(メタデータ) (2021-12-15T14:05:23Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Self-supervised driven consistency training for annotation efficient
histopathology image analysis [13.005873872821066]
大きなラベル付きデータセットでニューラルネットワークをトレーニングすることは、計算病理学において依然として支配的なパラダイムである。
本研究では,非教師付き表現学習のための強力な監視信号を学ぶために,ヒストロジ全体スライディング画像の背景となる多段階的文脈的手がかりを利用する自己教師付きプレテキストタスクを提案する。
また,タスク固有の未ラベルデータとの予測整合性に基づいて,事前学習した表現を下流タスクに効果的に転送することを学ぶ教師による半教師付き一貫性パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-07T19:46:21Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Handling Noisy Labels via One-Step Abductive Multi-Target Learning and
Its Application to Helicobacter Pylori Segmentation [32.635694819049306]
機械学習に一段階論理的推論を課す一段階帰納的多目的学習(OSAMTL)を提案する。
我々はOSAMTLにより、より合理的な予測を論理的に達成できることを示した。
論文 参考訳(メタデータ) (2020-11-25T09:40:34Z) - Unsupervised One-shot Learning of Both Specific Instances and
Generalised Classes with a Hippocampal Architecture [0.0]
特定のインスタンスを識別することは、あなたが属するカップを記憶するなど、現実世界の多くのタスクに必要である。
クラス内の一般化は、クラスのインスタンスを分離する能力と矛盾し、単一のアーキテクチャ内で両方の機能を達成するのが難しくなる。
我々は,1回の露光後に特定のインスタンスを識別する能力をテストする標準Omniglot分類一般化フレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2020-10-30T00:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。