論文の概要: Modeling sequential annotations for sequence labeling with crowds
- arxiv url: http://arxiv.org/abs/2209.09430v1
- Date: Tue, 20 Sep 2022 02:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 17:32:44.327896
- Title: Modeling sequential annotations for sequence labeling with crowds
- Title(参考訳): 群衆によるシーケンスラベリングのための逐次アノテーションのモデル化
- Authors: Xiaolei Lu, Tommy W.S.Chow
- Abstract要約: クラウドシーケンシャルアノテーションは、シーケンスラベリングのための大規模なデータセットを構築する上で、効率的でコスト効率のよい方法である。
群集を用いたシーケンスラベリングのための逐次アノテーションのモデル化(SA-SLC)を提案する。
提案手法は,クラウド・シーケンシャル・アノテーションから有効な基底トラス・ラベル・シーケンスを導出するために有効なラベル・シーケンス・推論(VLSE)手法を提案する。
- 参考スコア(独自算出の注目度): 8.239028141030621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd sequential annotations can be an efficient and cost-effective way to
build large datasets for sequence labeling. Different from tagging independent
instances, for crowd sequential annotations the quality of label sequence
relies on the expertise level of annotators in capturing internal dependencies
for each token in the sequence. In this paper, we propose Modeling sequential
annotation for sequence labeling with crowds (SA-SLC). First, a conditional
probabilistic model is developed to jointly model sequential data and
annotators' expertise, in which categorical distribution is introduced to
estimate the reliability of each annotator in capturing local and non-local
label dependency for sequential annotation. To accelerate the marginalization
of the proposed model, a valid label sequence inference (VLSE) method is
proposed to derive the valid ground-truth label sequences from crowd sequential
annotations. VLSE derives possible ground-truth labels from the token-wise
level and further prunes sub-paths in the forward inference for label sequence
decoding. VLSE reduces the number of candidate label sequences and improves the
quality of possible ground-truth label sequences. The experimental results on
several sequence labeling tasks of Natural Language Processing show the
effectiveness of the proposed model.
- Abstract(参考訳): クラウドシーケンシャルアノテーションは、シーケンスラベリングのための大規模なデータセットを構築するための効率的でコスト効率のよい方法である。
独立インスタンスのタグ付けとは異なり、クラウドシーケンシャルアノテーションでは、ラベルシーケンスの品質は、シーケンス内の各トークンの内部依存関係をキャプチャするアノテータの専門レベルに依存する。
本稿では,群集を用いたシーケンスラベリングのための逐次アノテーションのモデル化を提案する。
まず、逐次的データとアノテータの専門知識を共同でモデル化する条件確率モデルを構築し、各アノテータの局所的および非局所的なラベル依存を逐次的アノテーションとして捉える際の信頼性を推定するために分類分布を導入する。
提案するモデルの限界化を加速するため,クラウドシーケンシャルアノテーションから有効な基底構造ラベルシーケンスを導出する有効なラベルシーケンス推論(VLSE)法を提案する。
VLSEはトークンワイドレベルからゼロトラスラベルを導出し、さらにラベルシーケンス復号のためのフォワード推論においてサブパスをプーンする。
VLSEは、候補ラベルシーケンスの数を減らし、可能な基底構造ラベルシーケンスの品質を向上させる。
自然言語処理における複数のシーケンスラベリングタスクの実験結果は,提案モデルの有効性を示す。
関連論文リスト
- Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Perception and Semantic Aware Regularization for Sequential Confidence
Calibration [12.265757315192497]
本稿では,パーセプションとセマンティックなシーケンス正規化フレームワークを提案する。
意味的文脈に依存しない認識と言語モデルを導入し、高い知覚的類似性と意味的相関性を持つ類似のシーケンスを取得する。
シーンテキストや音声認識など,標準シーケンス認識タスクの実験により,本手法が新たな最先端の結果を設定できることが実証された。
論文 参考訳(メタデータ) (2023-05-31T02:16:29Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Automatic Label Sequence Generation for Prompting Sequence-to-sequence
Models [105.4590533269863]
完全自動プロンプト方式であるAutoSeqを提案する。
我々はシーケンス・ツー・シーケンス・モデルに自然言語プロンプトを採用する。
本手法は,数ショット学習におけるシーケンス・ツー・シーケンスモデルの可能性を明らかにする。
論文 参考訳(メタデータ) (2022-09-20T01:35:04Z) - Partial sequence labeling with structured Gaussian Processes [8.239028141030621]
部分列ラベリングのための構造付きガウス過程を提案する。
予測の不確実性を符号化し、モデル選択やハイパーパラメータ学習に余分な労力を要しない。
いくつかのシーケンスラベリングタスクで評価を行い,実験結果から提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-09-20T00:56:49Z) - A Label Dependence-aware Sequence Generation Model for Multi-level
Implicit Discourse Relation Recognition [31.179555215952306]
暗黙の談話関係認識は、談話分析において難しいが重要な課題である。
ラベル依存型シーケンス生成モデル(LDSGM)を提案する。
ボトムアップ方向のラベル依存を利用した相互学習強化訓練法を開発した。
論文 参考訳(メタデータ) (2021-12-22T09:14:03Z) - Enhancing Label Correlation Feedback in Multi-Label Text Classification
via Multi-Task Learning [6.1538971100140145]
ラベル相関フィードバックを高めるために,マルチタスク学習を用いた新しい手法を提案する。
本稿では,ラベル相関学習を強化するための2つの補助ラベル共起予測タスクを提案する。
論文 参考訳(メタデータ) (2021-06-06T12:26:14Z) - Interaction Matching for Long-Tail Multi-Label Classification [57.262792333593644]
既存のマルチラベル分類モデルにおいて,制約に対処するためのエレガントで効果的なアプローチを提案する。
ソフトなn-gram相互作用マッチングを実行することで、ラベルと自然言語記述をマッチングする。
論文 参考訳(メタデータ) (2020-05-18T15:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。