論文の概要: BEIKE NLP at SemEval-2022 Task 4: Prompt-Based Paragraph Classification
for Patronizing and Condescending Language Detection
- arxiv url: http://arxiv.org/abs/2208.01312v1
- Date: Tue, 2 Aug 2022 08:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:08:22.384157
- Title: BEIKE NLP at SemEval-2022 Task 4: Prompt-Based Paragraph Classification
for Patronizing and Condescending Language Detection
- Title(参考訳): beike nlp at semeval-2022 task 4: prompt-based paragraph classification for patronizing and condescending language detection
- Authors: Yong Deng, Chenxiao Dou, Liangyu Chen, Deqiang Miao, Xianghui Sun,
Baochang Ma, Xiangang Li
- Abstract要約: PCL検出タスクは、メディアの脆弱なコミュニティを保護し、あるいは支持している言語を特定することを目的としている。
本稿では,段落分類における素早い学習の力を活用した解法について紹介する。
- 参考スコア(独自算出の注目度): 13.944149742291788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PCL detection task is aimed at identifying and categorizing language that is
patronizing or condescending towards vulnerable communities in the general
media.Compared to other NLP tasks of paragraph classification, the negative
language presented in the PCL detection task is usually more implicit and
subtle to be recognized, making the performance of common text-classification
approaches disappointed. Targeting the PCL detection problem in SemEval-2022
Task 4, in this paper, we give an introduction to our team's solution, which
exploits the power of prompt-based learning on paragraph classification. We
reformulate the task as an appropriate cloze prompt and use pre-trained Masked
Language Models to fill the cloze slot. For the two subtasks, binary
classification and multi-label classification, DeBERTa model is adopted and
fine-tuned to predict masked label words of task-specific prompts. On the
evaluation dataset, for binary classification, our approach achieves an
F1-score of 0.6406; for multi-label classification, our approach achieves an
macro-F1-score of 0.4689 and ranks first in the leaderboard.
- Abstract(参考訳): PCL検出タスクは, メディアの脆弱なコミュニティを補完する言語を識別・分類することを目的としており, 段落分類の他のNLPタスクと比較すると, PCL検出タスクで提示される負の言語は一般的に暗黙的かつ微妙に認識され, 一般的なテキスト分類のアプローチを失望させる。
本稿では,SemEval-2022タスク4におけるPCL検出問題を対象として,段落分類に基づく即時学習の力を活用したチームの解法について紹介する。
タスクを適切なクローゼプロンプトとして再構成し、事前訓練されたマスケッド言語モデルを用いてクローゼスロットを埋める。
2進分類と複数ラベル分類の2つのサブタスクに対して、タスク固有のプロンプトのマスク付きラベル語を予測するためにDeBERTaモデルを採用し、微調整する。
評価データセットでは,2進分類では,f1-scoreが 0.6406 となり,マルチラベル分類では macro-f1-score が 0.4689 である。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Blueprinting the Future: Automatic Item Categorization using
Hierarchical Zero-Shot and Few-Shot Classifiers [6.907552533477328]
本研究では,ゼロショットおよび少数ショット生成事前学習変換器(GPT)を用いた階層的項目分類手法を提案する。
検査ブループリントの階層的な性質はシームレスにナビゲートされ、複数のレベルの項目を階層的に分類することができる。
人工データによる初期シミュレーションは、この方法の有効性を示し、F1スコアで測定された平均精度92.91%を達成する。
論文 参考訳(メタデータ) (2023-12-06T15:51:49Z) - Token Prediction as Implicit Classification to Identify LLM-Generated
Text [37.89852204279844]
本稿では,テキスト生成に関わる大きな言語モデル (LLM) を識別するための新しいアプローチを提案する。
ベースLMに新たな分類層を追加する代わりに、分類タスクを次の注意すべき予測タスクとして再設定する。
実験のバックボーンとしてText-to-Text Transfer Transformer (T5) モデルを用いる。
論文 参考訳(メタデータ) (2023-11-15T06:33:52Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Task-Specific Embeddings for Ante-Hoc Explainable Text Classification [6.671252951387647]
テキストのタスク固有の埋め込みを学習する学習目標を提案する。
提案する目的は,同一のクラスラベルを共有するすべてのテキストが近接しているように埋め込みを学習することである。
本研究は, 総合的な分類精度において, アンテホックな説明可能性と漸進的な学習の利点が無コストで得られることを示す広範囲な実験である。
論文 参考訳(メタデータ) (2022-11-30T19:56:25Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - UMass PCL at SemEval-2022 Task 4: Pre-trained Language Model Ensembles
for Detecting Patronizing and Condescending Language [0.0]
PCL(Patronizing and condescending Language)は至る所にあるが、メディアによる脆弱なコミュニティへの利用に焦点を当てることは滅多にない。
本稿では,SemEval 2022 Task 4: Patronizing and Condescending Language Detectionに提出された言語検出システムについて述べる。
論文 参考訳(メタデータ) (2022-04-18T13:22:10Z) - Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot
Classification [15.575483080819563]
本稿では,自動マルチラベルプロンプト(AMuLaP)を提案する。
提案手法は,1対多のラベルマッピングと統計に基づくアルゴリズムを用いて,プロンプトテンプレートを付与したラベルマッピングを選択する。
実験の結果,AMuLaPは人的労力や外部リソースを使わずにGLUEベンチマーク上での競合性能を実証した。
論文 参考訳(メタデータ) (2022-04-13T11:15:52Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。