論文の概要: BERT-Assisted Semantic Annotation Correction for Emotion-Related
Questions
- arxiv url: http://arxiv.org/abs/2204.00916v1
- Date: Sat, 2 Apr 2022 18:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 05:25:20.563727
- Title: BERT-Assisted Semantic Annotation Correction for Emotion-Related
Questions
- Title(参考訳): 感情関連質問に対するBERT支援セマンティックアノテーション補正
- Authors: Abe Kazemzadeh
- Abstract要約: EMO20Q(Emotion Twenty Questions)と呼ばれる質問ゲームにおいて,BERTニューラルネットワークモデルを用いてアノテーションタスクに情報をフィードバックする。
本手法は,テキストユーザデータのアノテーションを,複雑な発話レベルのセマンティックラベルで評価・修正する有効な方法であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Annotated data have traditionally been used to provide the input for training
a supervised machine learning (ML) model. However, current pre-trained ML
models for natural language processing (NLP) contain embedded linguistic
information that can be used to inform the annotation process. We use the BERT
neural language model to feed information back into an annotation task that
involves semantic labelling of dialog behavior in a question-asking game called
Emotion Twenty Questions (EMO20Q). First we describe the background of BERT,
the EMO20Q data, and assisted annotation tasks. Then we describe the methods
for fine-tuning BERT for the purpose of checking the annotated labels. To do
this, we use the paraphrase task as a way to check that all utterances with the
same annotation label are classified as paraphrases of each other. We show this
method to be an effective way to assess and revise annotations of textual user
data with complex, utterance-level semantic labels.
- Abstract(参考訳): 注釈付きデータは伝統的に、教師付き機械学習(ML)モデルをトレーニングするための入力を提供するために使われてきた。
しかし、現在の自然言語処理(NLP)のための事前訓練されたMLモデルには、アノテーションプロセスの通知に使用できる組み込み言語情報が含まれている。
EMO20Q(Emotion Twenty Questions)と呼ばれる,対話行動の意味的なラベル付けを含むアノテーションタスクに情報をフィードバックするために,BERTニューラル言語モデルを使用する。
まず、BERT、EMO20Qデータ、およびアノテーションタスクの背景について述べる。
次に、アノテーション付きラベルをチェックするためにbertを微調整する方法について述べる。
これを実現するために、同じアノテーションラベルを持つ全ての発話が互いにパラフレーズに分類されていることを確認する手段として、パラフレーズタスクを使用する。
本手法は,複雑な発話レベル意味ラベルを用いたテキストユーザデータのアノテーションの評価と修正に有効な手法であることを示す。
関連論文リスト
- Zero-shot prompt-based classification: topic labeling in times of foundation models in German Tweets [1.734165485480267]
そこで,本論文では,文章ガイドラインを用いてテキストを自動的に注釈付けするツールについて,トレーニングサンプルを提供することなく提案する。
提案手法は細調整されたBERTに匹敵するが,アノテートしたトレーニングデータはない。
本研究は,NLPランドスケープにおける進行中のパラダイムシフト,すなわち下流タスクの統一と事前ラベル付きトレーニングデータの必要性の排除を強調した。
論文 参考訳(メタデータ) (2024-06-26T10:44:02Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - Active Learning and Multi-label Classification for Ellipsis and
Coreference Detection in Conversational Question-Answering [5.984693203400407]
エリプシスとコアは、一般的に発生する言語現象である。
DistilBERTに基づくマルチラベル分類器を提案する。
これらの手法は,手動ラベル付きデータセット上で,これらの現象を検出するための分類器の性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-07-07T08:14:54Z) - Enhanced Language Representation with Label Knowledge for Span
Extraction [2.4909170697740963]
ラベル知識を統合するための新しいパラダイムを導入し、ラベル知識をテキスト表現に明示的にかつ効率的に統合する新しいモデルを提案する。
具体的には、テキストとラベルアノテーションを独立してエンコードし、ラベル知識をテキスト表現と精巧に設計されたセマンティックス融合モジュールに統合する。
我々は,フラットNER,ネストNER,イベント検出の3つの典型的なスパン抽出タスクについて広範な実験を行った。
提案手法は4つのベンチマークで最先端性能を実現し,2)QA形式化パラダイムと比較して,トレーニング時間と推論時間を平均で76%,77%削減する。
論文 参考訳(メタデータ) (2021-11-01T12:21:05Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Automatically Identifying Words That Can Serve as Labels for Few-Shot
Text Classification [12.418532541734193]
最近のテキスト分類のアプローチでは、テキスト入力をある種のタスク記述を含むクローズ質問に変換し、事前訓練された言語モデルで処理し、予測された単語をラベルにマッピングする。
この問題を軽減するために、少量のトレーニングデータからそのようなマッピングを自動的に見つけるアプローチを考案する。
多くのタスクにおいて、我々の手法で発見されたマッピングは、手作りのラベルと単語のマッピングとほぼ同等に機能する。
論文 参考訳(メタデータ) (2020-10-26T14:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。