論文の概要: Few-Shot Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2106.00984v1
- Date: Wed, 2 Jun 2021 07:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:51:16.667455
- Title: Few-Shot Partial-Label Learning
- Title(参考訳): 少数の部分ラベル学習
- Authors: Yunfeng Zhao, Guoxian Yu, Lei Liu, Zhongmin Yan, Lizhen Cui and
Carlotta Domeniconi
- Abstract要約: 部分ラベル学習(Partial-label Learning, PLL)は、一般的に、過度に注釈付けされたサンプルをトレーニングすることで、耐雑音性のあるマルチクラスを誘導することに焦点を当てている。
既存の数発の学習アルゴリズムはサポートセットの正確なラベルを仮定する。
本稿では,FsPLL (Few-shot Image Learning) というアプローチを提案する。
- 参考スコア(独自算出の注目度): 25.609766770479265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning (PLL) generally focuses on inducing a noise-tolerant
multi-class classifier by training on overly-annotated samples, each of which
is annotated with a set of labels, but only one is the valid label. A basic
promise of existing PLL solutions is that there are sufficient partial-label
(PL) samples for training. However, it is more common than not to have just few
PL samples at hand when dealing with new tasks. Furthermore, existing few-shot
learning algorithms assume precise labels of the support set; as such,
irrelevant labels may seriously mislead the meta-learner and thus lead to a
compromised performance. How to enable PLL under a few-shot learning setting is
an important problem, but not yet well studied. In this paper, we introduce an
approach called FsPLL (Few-shot PLL). FsPLL first performs adaptive distance
metric learning by an embedding network and rectifying prototypes on the tasks
previously encountered. Next, it calculates the prototype of each class of a
new task in the embedding network. An unseen example can then be classified via
its distance to each prototype. Experimental results on widely-used few-shot
datasets (Omniglot and miniImageNet) demonstrate that our FsPLL can achieve a
superior performance than the state-of-the-art methods across different
settings, and it needs fewer samples for quickly adapting to new tasks.
- Abstract(参考訳): 部分ラベル学習(PLL)は一般に、過度に注釈付けされたサンプルをトレーニングすることで、耐雑音性のあるマルチクラス分類器を誘導することに焦点を当てている。
既存のPLLソリューションの基本的な約束は、トレーニングに十分な部分ラベル(PL)サンプルが存在することである。
しかし、新しいタスクを扱う際に手元にいくつかのplサンプルを持っていない方が一般的である。
さらに、既存の数発の学習アルゴリズムはサポートセットの正確なラベルを仮定するので、無関係なラベルはメタラーナーを著しく誤解させ、それによって性能が損なわれる可能性がある。
数ショットの学習環境でPLLを有効にする方法は重要な問題であるが、まだ十分に研究されていない。
本稿では,FsPLL (Few-shot PLL) と呼ばれる手法を提案する。
FsPLLはまず、埋め込みネットワークによる適応距離メトリック学習を行い、以前に遭遇したタスクのプロトタイプを修正する。
次に、埋め込みネットワークにおいて、新しいタスクの各クラスのプロトタイプを計算する。
見えない例を各プロトタイプまでの距離で分類することができる。
広く使用されているマイナショットデータセット(omniglotとminiimagenet)の実験結果から、fspllは、さまざまな設定で最先端のメソッドよりも優れたパフォーマンスを実現でき、新しいタスクに迅速に適応するにはサンプルが少ないことが分かりました。
関連論文リスト
- LC-Protonets: Multi-label Few-shot learning for world music audio tagging [65.72891334156706]
ラベル結合型プロトタイプネットワーク(LC-Protonets)を導入し,複数ラベルの複数ショット分類の問題に対処する。
LC-Protonetsは、限られたトレーニング項目に存在するラベルのパワーセットから、ラベルの組み合わせごとに1つのプロトタイプを生成する。
本手法は,様々な文化をカバーし,現代音楽と伝統音楽の両方を含む,多様な音楽データセットにまたがる自動音声タグ付けに適用する。
論文 参考訳(メタデータ) (2024-09-17T15:13:07Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Towards Effective Visual Representations for Partial-Label Learning [49.91355691337053]
部分ラベル学習(PLL)では、トレーニングインスタンス毎に、未知の真のラベルを含むあいまいなラベルのセットのみがアクセス可能である。
真のラベルがなければ、正の点は本質的にノイズの多い擬似ラベルで予測され、負の点は大きなバッチや運動量エンコーダを必要とすることが多い。
本稿では,表現学習の改善のための重要なスコープを示す,最先端のコントラスト手法PiCO[PiPi24]を再考する。
論文 参考訳(メタデータ) (2023-05-10T12:01:11Z) - ALIM: Adjusting Label Importance Mechanism for Noisy Partial Label
Learning [46.53885746394252]
雑音部分ラベル学習は、弱教師付き学習の重要な分野である。
既存の研究のほとんどは、ノイズのあるサンプルを検出し、各ノイズのあるサンプルの基幹構造を推定しようと試みている。
我々は,ALIM(Adjusting Labeling Mechanism)と呼ばれる,理論的な保証を伴う雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力をトレードオフすることで、検出エラーの負の影響を低減することを目的としている。
論文 参考訳(メタデータ) (2023-01-28T03:42:53Z) - Multi-Instance Partial-Label Learning: Towards Exploiting Dual Inexact
Supervision [53.530957567507365]
実世界のタスクでは、各トレーニングサンプルは、1つの基底真実ラベルといくつかの偽陽性ラベルを含む候補ラベルセットに関連付けられている。
本稿では,Multi-instance partial-label learning (MIPL) などの問題を定式化する。
既存のマルチインスタンス学習アルゴリズムと部分ラベル学習アルゴリズムはMIPL問題の解法に最適である。
論文 参考訳(メタデータ) (2022-12-18T03:28:51Z) - ARNet: Automatic Refinement Network for Noisy Partial Label Learning [41.577081851679765]
本稿では,ARNet(Automatic Refinement Network)と呼ばれる新しいフレームワークを提案する。
本手法は,複数ラウンドからなる。各ラウンドにおいて,ノイズ検出とラベル補正という2つの重要なモジュールを通じてノイズサンプルを浄化する。
提案手法がデータセットの雑音レベルを低減し,最終的にベイズを最適に近似できることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:01:25Z) - PiCO: Contrastive Label Disambiguation for Partial Label Learning [37.91710419258801]
部分ラベル学習(Partial label learning, PLL)は、各トレーニング例を粗い候補セットでラベル付けできる重要な問題である。
本研究では,表現学習とラベル曖昧化における2つの重要な研究課題に対処することによって,このギャップを埋める。
提案するフレームワークは,対照的な学習モジュールと,新しいクラスプロトタイプベースのラベル曖昧化から構成される。
論文 参考訳(メタデータ) (2022-01-22T07:48:41Z) - Provably Consistent Partial-Label Learning [120.4734093544867]
部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
論文 参考訳(メタデータ) (2020-07-17T12:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。