論文の概要: Multi-Task and Multi-Corpora Training Strategies to Enhance
Argumentative Sentence Linking Performance
- arxiv url: http://arxiv.org/abs/2109.13067v1
- Date: Mon, 27 Sep 2021 14:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 21:21:32.012640
- Title: Multi-Task and Multi-Corpora Training Strategies to Enhance
Argumentative Sentence Linking Performance
- Title(参考訳): 議論的文リンク性能を向上させるマルチタスクおよびマルチコーポラトレーニング戦略
- Authors: Jan Wira Gotama Putra and Simone Teufel and Takenobu Tokunaga
- Abstract要約: マルチタスクとマルチコーパスのトレーニング戦略を用いて,最先端のリンクモデルを改善する。
我々の補助的なタスクは、モデルが議論構造における各文の役割を学ぶのに役立ちます。
英語と外国語の学習者によるエッセイの実験は、どちらの戦略もモデルの性能を大幅に向上させることを示した。
- 参考スコア(独自算出の注目度): 4.374417345150659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Argumentative structure prediction aims to establish links between textual
units and label the relationship between them, forming a structured
representation for a given input text. The former task, linking, has been
identified by earlier works as particularly challenging, as it requires finding
the most appropriate structure out of a very large search space of possible
link combinations. In this paper, we improve a state-of-the-art linking model
by using multi-task and multi-corpora training strategies. Our auxiliary tasks
help the model to learn the role of each sentence in the argumentative
structure. Combining multi-corpora training with a selective sampling strategy
increases the training data size while ensuring that the model still learns the
desired target distribution well. Experiments on essays written by
English-as-a-foreign-language learners show that both strategies significantly
improve the model's performance; for instance, we observe a 15.8% increase in
the F1-macro for individual link predictions.
- Abstract(参考訳): 議論的構造予測は、テキスト単位間のリンクを確立し、それらの関係をラベル付けし、与えられた入力テキストの構造化表現を形成することを目的としている。
前者のタスクであるlinkingは、リンクの組み合わせの可能な非常に大きな検索空間から最も適切な構造を見つける必要があるため、以前の作業によって特に難しいと特定された。
本稿では,マルチタスクとマルチコーポラのトレーニング戦略を用いて,最先端のリンクモデルを改善する。
我々の補助タスクは、モデルが議論構造において各文の役割を学ぶのに役立つ。
マルチコーポラトレーニングと選択的サンプリング戦略の組み合わせは、モデルが所望のターゲット分布を十分に学習しながらも、トレーニングデータサイズを増加させる。
英語学習者によるエッセイの実験では、どちらの戦略もモデルの性能を著しく向上させており、例えば、個々のリンク予測のためのF1マクロの15.8%の増加が観察されている。
関連論文リスト
- Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - Pointer-Guided Pre-Training: Infusing Large Language Models with Paragraph-Level Contextual Awareness [3.2925222641796554]
ポインター誘導セグメントオーダリング(SO)は,段落レベルのテキスト表現の文脈的理解を高めることを目的とした,新しい事前学習手法である。
実験の結果,ポインタ誘導型事前学習は複雑な文書構造を理解する能力を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-06T15:17:51Z) - Cross-domain Chinese Sentence Pattern Parsing [67.1381983012038]
文パターン構造解析(SPS)は、主に言語教育に使用される構文解析法である。
既存のSPSは教科書のコーパスに大きく依存しており、クロスドメイン機能に欠ける。
本稿では,大規模言語モデル(LLM)を自己学習フレームワーク内で活用する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T05:30:48Z) - ZhichunRoad at Amazon KDD Cup 2022: MultiTask Pre-Training for
E-Commerce Product Search [4.220439000486713]
検索結果の質を向上させるために,頑健な多言語モデルを提案する。
事前学習の段階では、mlmタスク、分類タスク、コントラスト学習タスクを採用する。
微調整段階では、自信ある学習、指数的移動平均法(EMA)、対人訓練(FGM)、正規化ドロップアウト戦略(R-Drop)を用いる。
論文 参考訳(メタデータ) (2023-01-31T07:31:34Z) - Forging Multiple Training Objectives for Pre-trained Language Models via
Meta-Learning [97.28779163988833]
複数の事前学習目標が単一目的言語モデリングの理解能力の欠如を埋める。
メタラーニングに基づく新しい適応型サンプリングシステムであるtextitMOMETAS を提案し,任意の事前学習対象に対して潜時サンプリングパターンを学習する。
論文 参考訳(メタデータ) (2022-10-19T04:38:26Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - OCHADAI-KYODAI at SemEval-2021 Task 1: Enhancing Model Generalization
and Robustness for Lexical Complexity Prediction [8.066349353140819]
単語とマルチワード表現の語彙的複雑性を予測するアンサンブルモデルを提案する。
モデルは、目的語またはMWEandの文を入力として受信し、その複雑性スコアを出力する。
本モデルは,両サブタスクの上位10システムにランクインした。
論文 参考訳(メタデータ) (2021-05-12T09:27:46Z) - Multidirectional Associative Optimization of Function-Specific Word
Representations [86.87082468226387]
本稿では,関係する単語群間の関連を学習するためのニューラルネットワークフレームワークを提案する。
我々のモデルは結合関数固有の単語ベクトル空間を誘導し、例えば可塑性SVO合成のベクトルが近接して配置される。
このモデルは、共同空間においても単語群のメンバーシップに関する情報を保持し、SVO構造を前提とした複数のタスクに効果的に適用することができる。
論文 参考訳(メタデータ) (2020-05-11T17:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。