論文の概要: Meta-learning Representations for Learning from Multiple Annotators
- arxiv url: http://arxiv.org/abs/2506.10259v1
- Date: Thu, 12 Jun 2025 00:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.506904
- Title: Meta-learning Representations for Learning from Multiple Annotators
- Title(参考訳): マルチアノテータからの学習のためのメタ学習表現
- Authors: Atsutoshi Kumagai, Tomoharu Iwata, Taishi Nishiyama, Yasutoshi Ida, Yasuhiro Fujiwara,
- Abstract要約: 本稿では,複数の雑音アノテータから学習するメタラーニング手法を提案する。
提案手法は,ニューラルネットワークを用いてタスク中の各例を潜在空間に埋め込む。
合成ノイズと実世界のクラウドソーシングデータセットを用いた実世界のデータセットを用いて,本手法の有効性を示す。
- 参考スコア(独自算出の注目度): 40.886894995806955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a meta-learning method for learning from multiple noisy annotators. In many applications such as crowdsourcing services, labels for supervised learning are given by multiple annotators. Since the annotators have different skills or biases, given labels can be noisy. To learn accurate classifiers, existing methods require many noisy annotated data. However, sufficient data might be unavailable in practice. To overcome the lack of data, the proposed method uses labeled data obtained in different but related tasks. The proposed method embeds each example in tasks to a latent space by using a neural network and constructs a probabilistic model for learning a task-specific classifier while estimating annotators' abilities on the latent space. This neural network is meta-learned to improve the expected test classification performance when the classifier is adapted to a given small amount of annotated data. This classifier adaptation is performed by maximizing the posterior probability via the expectation-maximization (EM) algorithm. Since each step in the EM algorithm is easily computed as a closed-form and is differentiable, the proposed method can efficiently backpropagate the loss through the EM algorithm to meta-learn the neural network. We show the effectiveness of our method with real-world datasets with synthetic noise and real-world crowdsourcing datasets.
- Abstract(参考訳): 本稿では,複数の雑音アノテータから学習するメタラーニング手法を提案する。
クラウドソーシングサービスのような多くのアプリケーションでは、教師あり学習のためのラベルが複数のアノテーションによって与えられる。
アノテーションには異なるスキルやバイアスがあるため、与えられたラベルはうるさい。
正確な分類法を学ぶためには、既存の手法は多くのノイズのある注釈付きデータを必要とする。
しかし、実際には十分なデータは利用できないかもしれない。
データ不足を克服するために、提案手法は異なるタスクで得られたラベル付きデータを使用する。
提案手法は、ニューラルネットワークを用いてタスク中の各例を潜在空間に埋め込み、潜在空間上のアノテータの能力を推定しながらタスク固有の分類器を学習する確率論的モデルを構築する。
このニューラルネットワークは、所定の少量の注釈付きデータに分類器を適応させる際に、期待されるテスト分類性能を向上させるためにメタ学習される。
この分類器適応は、予測最大化(EM)アルゴリズムにより、後続確率を最大化する。
EMアルゴリズムの各ステップは、クローズドフォームとして容易に計算でき、微分可能であるため、提案手法は、EMアルゴリズムによる損失を効率的に軽減し、ニューラルネットワークをメタ学習することができる。
合成ノイズと実世界のクラウドソーシングデータセットを用いた実世界のデータセットを用いて,本手法の有効性を示す。
関連論文リスト
- Unsupervised Estimation of Ensemble Accuracy [0.0]
いくつかの分類器の結合力を推定する手法を提案する。
ラベルに依存しない「多様性」対策に重点を置く既存のアプローチとは異なる。
本手法は,一般的な大規模顔認証データセット上で実証する。
論文 参考訳(メタデータ) (2023-11-18T02:31:36Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - An Online Learning Algorithm for a Neuro-Fuzzy Classifier with
Mixed-Attribute Data [9.061408029414455]
General Fuzzy min-max Neural Network (GFMMNN) は、データ分類のための効率的な神経ファジィシステムの一つである。
本稿ではGFMMNNのための拡張オンライン学習アルゴリズムを提案する。
提案手法は連続的特徴と分類的特徴の両方でデータセットを処理できる。
論文 参考訳(メタデータ) (2020-09-30T13:45:36Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。