論文の概要: Strength from Weakness: Fast Learning Using Weak Supervision
- arxiv url: http://arxiv.org/abs/2002.08483v1
- Date: Wed, 19 Feb 2020 22:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:27:22.681205
- Title: Strength from Weakness: Fast Learning Using Weak Supervision
- Title(参考訳): 弱みからの強み:弱い監督による高速な学習
- Authors: Joshua Robinson, Stefanie Jegelka, Suvrit Sra
- Abstract要約: 弱いラベルへのアクセスは、強いタスクの学習速度を、$mathcalO(nicefrac1n)$の速さに著しく加速させることができる。
実際の加速は、利用可能な弱いラベルの数と、2つのタスク間の関係に継続的に依存する。
- 参考スコア(独自算出の注目度): 81.41106207042948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study generalization properties of weakly supervised learning. That is,
learning where only a few "strong" labels (the actual target of our prediction)
are present but many more "weak" labels are available. In particular, we show
that having access to weak labels can significantly accelerate the learning
rate for the strong task to the fast rate of $\mathcal{O}(\nicefrac1n)$, where
$n$ denotes the number of strongly labeled data points. This acceleration can
happen even if by itself the strongly labeled data admits only the slower
$\mathcal{O}(\nicefrac{1}{\sqrt{n}})$ rate. The actual acceleration depends
continuously on the number of weak labels available, and on the relation
between the two tasks. Our theoretical results are reflected empirically across
a range of tasks and illustrate how weak labels speed up learning on the strong
task.
- Abstract(参考訳): 弱教師付き学習の一般化特性について検討する。
つまり、いくつかの"強力な"ラベル(私たちの予測の実際のターゲット)しか存在しないが、多くの"弱い"ラベルが利用可能である。
特に、弱いラベルにアクセスできると、強いタスクの学習速度が$\mathcal{O}(\nicefrac1n)$となり、$n$は強いラベル付きデータポイントの数を表す。
この加速は、強いラベル付けされたデータがより遅い$\mathcal{o}(\nicefrac{1}{\sqrt{n}})$レートしか認めていない場合でも起こり得る。
実際の加速は、利用可能な弱いラベルの数と、2つのタスク間の関係に継続的に依存する。
我々の理論的結果は、様々なタスクに経験的に反映され、弱いラベルが強いタスクでの学習をいかに加速するかを示す。
関連論文リスト
- Weak to Strong Learning from Aggregate Labels [9.804335415337071]
本研究では,そのような学習袋にアグリゲートラベルを付けた弱い学習者を用いて,強力な学習者を得るという課題について検討する。
弱い学習者はトレーニングバッグに一定精度1を有し、強い学習者の精度は任意に1に近づくことができる。
我々の研究は、LLPで同じことを達成するアルゴリズムを用いて、アグリゲーションラベルから弱いから強い学習を理論的に研究した最初のものである。
論文 参考訳(メタデータ) (2024-11-09T14:56:09Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - On the Informativeness of Supervision Signals [31.418827619510036]
我々は情報理論を用いて、多くの一般的な監視信号が表現学習のパフォーマンスにどのように貢献するかを比較する。
我々のフレームワークは、ビッグデータシステムにおいてハードラベルを使用するための理論的正当性を提供するが、よりリッチな監視信号により、数発の学習とアウト・オブ・ディストリビューションの一般化を実現している。
論文 参考訳(メタデータ) (2022-11-02T18:02:31Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Active WeaSuL: Improving Weak Supervision with Active Learning [2.624902795082451]
アクティブラーニングを弱い監督に組み込んだアプローチであるActive WeaSuLを提案します。
我々は,1) 弱いラベルの組み合わせを通知し改善する弱監督損失関数の修正,2) 専門家ラベルがどのデータポイントに最も有用かを決定するmaxKL分散サンプリング戦略,の2つの貢献を行う。
論文 参考訳(メタデータ) (2021-04-30T08:58:26Z) - Self-Supervised Learning from Semantically Imprecise Data [7.24935792316121]
動物」や「鳥」などの不正確なラベルから学ぶことは、熟練したラベル付きトレーニングデータが乏しい場合に重要な機能です。
CHILLAXはこの課題に取り組むために最近提案された方法です。
制約外挿を用いた自己教師型スキームでCHILLAXを拡張して擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-04-22T07:26:14Z) - A Theoretical Analysis of Learning with Noisily Labeled Data [62.946840431501855]
最初に、最初のエポックトレーニングで、クリーンラベルの例が先に学習されることを示しました。
次に、クリーンデータステージから学習した後、継続的なトレーニングモデルがテストエラーのさらなる改善を達成できることを示します。
論文 参考訳(メタデータ) (2021-04-08T23:40:02Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Limitations of weak labels for embedding and tagging [0.0]
環境音響分析における多くのデータセットやアプローチは、弱いラベル付きデータを用いており、強いラベルで全てのデータサンプルに注釈をつけるのは高すぎるため、弱いラベルが用いられる。
本稿では,弱いラベルを含む教師付き学習問題を定式化し,他の課題とは対照的に,強いラベルと弱いラベルの違いに着目したデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-05T08:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。