論文の概要: From Weakly Supervised Learning to Active Learning
- arxiv url: http://arxiv.org/abs/2209.11629v1
- Date: Fri, 23 Sep 2022 14:55:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 13:53:41.171020
- Title: From Weakly Supervised Learning to Active Learning
- Title(参考訳): 弱い教師付き学習から アクティブラーニングまで
- Authors: Vivien Cabannes
- Abstract要約: この論文は、教師付き学習よりも汎用的なフレームワークを導き出せるか?
私たちは、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとして、弱い監督をモデル化します。
我々は、ほとんどの観測値と一致する楽観的な'関数を求めるべきだと論じる。これにより、部分ラベルを曖昧にするための原則を導出できる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Applied mathematics and machine computations have raised a lot of hope since
the recent success of supervised learning. Many practitioners in industries
have been trying to switch from their old paradigms to machine learning.
Interestingly, those data scientists spend more time scrapping, annotating and
cleaning data than fine-tuning models. This thesis is motivated by the
following question: can we derive a more generic framework than the one of
supervised learning in order to learn from clutter data?
This question is approached through the lens of weakly supervised learning,
assuming that the bottleneck of data collection lies in annotation. We model
weak supervision as giving, rather than a unique target, a set of target
candidates. We argue that one should look for an ``optimistic'' function that
matches most of the observations. This allows us to derive a principle to
disambiguate partial labels. We also discuss the advantage to incorporate
unsupervised learning techniques into our framework, in particular manifold
regularization approached through diffusion techniques, for which we derived a
new algorithm that scales better with input dimension then the baseline method.
Finally, we switch from passive to active weakly supervised learning,
introducing the ``active labeling'' framework, in which a practitioner can
query weak information about chosen data. Among others, we leverage the fact
that one does not need full information to access stochastic gradients and
perform stochastic gradient descent.
- Abstract(参考訳): 応用数学と機械計算は、近年の教師あり学習の成功以来、多くの期待を集めている。
業界の多くの実践者が、古いパラダイムから機械学習に切り替えようとしている。
興味深いことに、これらのデータサイエンティストは微調整モデルよりもスクレイピング、注釈、クリーニングに多くの時間を費やしている。
雑多なデータから学ぶために、教師付き学習よりも汎用的なフレームワークを導き出せるか?
この問題は、データ収集のボトルネックがアノテーションにあると仮定して、弱教師付き学習のレンズを通してアプローチされる。
私たちは弱い監督を、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとしてモデル化します。
我々は、観察のほとんどに合致する ``optimistic''' 関数を探すべきだと主張する。
これにより、部分ラベルを曖昧にするための原則を導出できます。
また,非教師なし学習手法をフレームワークに組み込むことの利点,特に拡散手法によってアプローチした多様体正規化について論じる。
最後に、実践者が選択したデータの弱い情報をクエリできる「アクティブラベリング」フレームワークを導入し、受動的から能動的に教師付き学習に切り替える。
中でも,我々は,確率勾配へのアクセスや確率勾配降下を行うために,完全な情報を必要としないという事実を活用している。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Zero-shot Active Learning Using Self Supervised Learning [11.28415437676582]
我々は,反復的なプロセスを必要としないモデル非依存の新たなアクティブラーニング手法を提案する。
アクティブラーニングの課題に自己指導型学習機能を活用することを目的としている。
論文 参考訳(メタデータ) (2024-01-03T11:49:07Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Towards Label-Efficient Incremental Learning: A Survey [42.603603392991715]
本研究では,学習者が様々な分布を持つデータストリームに適応するために,インクリメンタル学習を学習する。
ラベル付け作業を減らすために, セミショット, 数ショット, 自己教師型学習の3つの区分を同定した。
論文 参考訳(メタデータ) (2023-02-01T10:24:55Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Learning to Predict Gradients for Semi-Supervised Continual Learning [36.715712711431856]
マシンインテリジェンスの主な課題は、以前獲得した知識を忘れずに、新しい視覚概念を学習することだ。
既存の教師付き連続学習と人間のような知性の間にはギャップがあり、人間はラベル付きデータとラベルなしデータの両方から学ぶことができる。
我々は,既存の連続学習モデルに汎用的に適用可能な,半教師付き連続学習法を定式化した。
論文 参考訳(メタデータ) (2022-01-23T06:45:47Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。