論文の概要: Multi-annotator Deep Learning: A Probabilistic Framework for
Classification
- arxiv url: http://arxiv.org/abs/2304.02539v1
- Date: Wed, 5 Apr 2023 16:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 12:04:55.049027
- Title: Multi-annotator Deep Learning: A Probabilistic Framework for
Classification
- Title(参考訳): multi-annotator deep learning: 分類の確率的枠組み
- Authors: Marek Herde, Denis Huseljic, Bernhard Sick
- Abstract要約: 標準的なディープニューラルネットワークのトレーニングは、マルチアノテーションによる教師付き学習設定におけるサブパーパフォーマンスにつながる。
基礎的真理とアノテータのパフォーマンスモデルは、エンドツーエンドの学習アプローチで共同で訓練される。
モジュラーネットワークアーキテクチャは、アノテータのパフォーマンスに関する様々な仮定を可能にする。
以上の結果から,MADLの最先端性能と,関連性のあるスパムアノテータに対する堅牢性が示唆された。
- 参考スコア(独自算出の注目度): 6.11404710424087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving complex classification tasks using deep neural networks typically
requires large amounts of annotated data. However, corresponding class labels
are noisy when provided by error-prone annotators, e.g., crowd workers.
Training standard deep neural networks leads to subpar performances in such
multi-annotator supervised learning settings. We address this issue by
presenting a probabilistic training framework named multi-annotator deep
learning (MaDL). A ground truth and an annotator performance model are jointly
trained in an end-to-end learning approach. The ground truth model learns to
predict instances' true class labels, while the annotator performance model
infers probabilistic estimates of annotators' performances. A modular network
architecture enables us to make varying assumptions regarding annotators'
performances, e.g., an optional class or instance dependency. Further, we learn
annotator embeddings to estimate annotators' densities within a latent space as
proxies of their potentially correlated annotations. Together with a weighted
loss function, we improve the learning from correlated annotation patterns. In
a comprehensive evaluation, we examine three research questions about
multi-annotator supervised learning. Our findings indicate MaDL's
state-of-the-art performance and robustness against many correlated, spamming
annotators.
- Abstract(参考訳): ディープニューラルネットワークを使って複雑な分類タスクを解くには、通常大量の注釈付きデータが必要である。
しかし、エラーの多いアノテータ(例えば、群衆労働者)によって提供されると、対応するクラスラベルはうるさい。
標準ディープニューラルネットワークのトレーニングは、このようなマルチアノテーションの学習設定におけるサブパーパフォーマンスをもたらす。
本稿では,マルチアノテーション深層学習(MaDL)という確率的学習フレームワークを提案することでこの問題に対処する。
基礎的真理と注釈子のパフォーマンスモデルは、エンドツーエンドの学習アプローチで共同で訓練される。
ground truthモデルは、インスタンスの真のクラスラベルを予測することを学習し、annotatorパフォーマンスモデルは、アノテータのパフォーマンスの確率論的推定を推論する。
モジュラーネットワークアーキテクチャにより、アノテータのパフォーマンス、例えばオプションのクラスやインスタンスの依存性に関する様々な仮定ができます。
さらに,アノテーションが相互に関連付けられる可能性のプロキシとして,潜在空間内のアノテーションの密度を推定するために,アノテーション組込みを学習する。
重み付き損失関数と共に、相関したアノテーションパターンから学習を改善する。
総合評価では,マルチアノテーションによる教師あり学習に関する3つの研究課題について検討する。
以上の結果から,madlの最先端のパフォーマンスと多数の関連したスパムアノテータに対する堅牢性が示唆された。
関連論文リスト
- Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - pRSL: Interpretable Multi-label Stacking by Learning Probabilistic Rules [0.0]
本稿では,確率論的命題論理則と信念伝播を用いた確率論的ルールスタックリング(pRSL)を提案し,その基礎となる分類器の予測と組み合わせる。
精度と近似推論と学習のためのアルゴリズムを導出し、様々なベンチマークデータセット上でpRSLが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-05-28T14:06:21Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。