論文の概要: Distant finetuning with discourse relations for stance classification
- arxiv url: http://arxiv.org/abs/2204.12693v1
- Date: Wed, 27 Apr 2022 04:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 22:41:01.257303
- Title: Distant finetuning with discourse relations for stance classification
- Title(参考訳): 姿勢分類のための談話関係を用いた遠隔微調整
- Authors: Lifeng Jin, Kun Xu, Linfeng Song, Dong Yu
- Abstract要約: そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
- 参考スコア(独自算出の注目度): 55.131676584455306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approaches for the stance classification task, an important task for
understanding argumentation in debates and detecting fake news, have been
relying on models which deal with individual debate topics. In this paper, in
order to train a system independent from topics, we propose a new method to
extract data with silver labels from raw text to finetune a model for stance
classification. The extraction relies on specific discourse relation
information, which is shown as a reliable and accurate source for providing
stance information. We also propose a 3-stage training framework where the
noisy level in the data used for finetuning decreases over different stages
going from the most noisy to the least noisy. Detailed experiments show that
the automatically annotated dataset as well as the 3-stage training help
improve model performance in stance classification. Our approach ranks 1st
among 26 competing teams in the stance classification track of the NLPCC 2021
shared task Argumentative Text Understanding for AI Debater, which confirms the
effectiveness of our approach.
- Abstract(参考訳): 議論における議論の理解と偽ニュースの検出のための重要な課題であるスタンス分類課題に対するアプローチは、個別の議論トピックを扱うモデルに依存してきた。
本稿では,話題とは無関係なシステムを学習するために,原文から銀ラベルを用いたデータを抽出し,スタンス分類のモデルを微調整する新しい手法を提案する。
この抽出は、スタンス情報を提供するための信頼性と正確な情報源として示される特定の談話関係情報に依存する。
また,最もノイズが多い段階から最もノイズが少ない段階まで,微調整に使用されるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
詳細な実験によると、自動アノテーション付きデータセットと3段階のトレーニングは、スタンス分類におけるモデルパフォーマンスを向上させる。
私たちのアプローチは、nlpcc 2021のスタンス分類トラックにおいて、aiディベータのための共通タスク議論テキスト理解において、26チーム中1位にランク付けし、このアプローチの有効性を確認した。
関連論文リスト
- Detecting Statements in Text: A Domain-Agnostic Few-Shot Solution [1.3654846342364308]
最先端のアプローチは通常、作成にコストがかかる大規模な注釈付きデータセット上の微調整モデルを含む。
本稿では,クレームに基づくテキスト分類タスクの共通パラダイムとして,定性的で多目的な少ショット学習手法の提案とリリースを行う。
本手法は,気候変動対策,トピック/スタンス分類,うつ病関連症状検出の3つの課題の文脈で説明する。
論文 参考訳(メタデータ) (2024-05-09T12:03:38Z) - Annotation-Inspired Implicit Discourse Relation Classification with
Auxiliary Discourse Connective Generation [14.792252724959383]
暗黙の談話関係分類は、談話接続が欠如しているため難しい課題である。
PDTBのアノテーションプロセスにインスパイアされた,タスクの談話接続を明示的に生成するエンド・ツー・エンドニューラルネットワークを設計する。
具体的には,議論間の談話接続を生成することを共同で学習し,議論と生成した連接関係に基づいて談話関係を予測する。
論文 参考訳(メタデータ) (2023-06-10T16:38:46Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Task-Specific Embeddings for Ante-Hoc Explainable Text Classification [6.671252951387647]
テキストのタスク固有の埋め込みを学習する学習目標を提案する。
提案する目的は,同一のクラスラベルを共有するすべてのテキストが近接しているように埋め込みを学習することである。
本研究は, 総合的な分類精度において, アンテホックな説明可能性と漸進的な学習の利点が無コストで得られることを示す広範囲な実験である。
論文 参考訳(メタデータ) (2022-11-30T19:56:25Z) - Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs [37.754787051387034]
本稿では,ブレークポイントモデリングと呼ばれる表現学習フレームワークを提案する。
私たちのアプローチは、中間表現を構築するために、効率的でエンドツーエンドの方法でモデルをトレーニングします。
我々は,従来の表現学習手法よりも,T5に基づく主要なブレークポイント変換器の利点を示す。
論文 参考訳(メタデータ) (2022-11-15T07:28:14Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations [22.894541507068933]
本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
論文 参考訳(メタデータ) (2022-03-08T12:26:57Z) - Speaker Embedding-aware Neural Diarization for Flexible Number of
Speakers with Textual Information [55.75018546938499]
本稿では,話者埋め込み認識型ニューラルダイアリゼーション(SEND)手法を提案する。
本手法は,ターゲット話者の音声活動検出よりも低いダイアリゼーション誤差率を実現する。
論文 参考訳(メタデータ) (2021-11-28T12:51:04Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Noisy Self-Knowledge Distillation for Text Summarization [83.49809205891496]
我々は, テキスト要約に自己知識蒸留を適用し, 最大習熟時の問題を緩和できると考えている。
学生要約モデルは,学習の正規化を支援するスムーズなラベルを生成する教師の指導によって訓練される。
筆者らは,3つのベンチマークを用いて,事前学習と非事前学習の両方のパフォーマンス向上を実証した。
論文 参考訳(メタデータ) (2020-09-15T12:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。