論文の概要: Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information
- arxiv url: http://arxiv.org/abs/2310.05073v1
- Date: Sun, 8 Oct 2023 08:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 12:44:49.081159
- Title: Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information
- Title(参考訳): 文脈情報の効率的な活用による調停構造抽出
- Authors: Yun Luo and Zhen Yang and Fandong Meng and Yingjie Li and Jie Zhou and
Yue Zhang
- Abstract要約: 本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 79.06082391992545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Argument structure extraction (ASE) aims to identify the discourse structure
of arguments within documents. Previous research has demonstrated that
contextual information is crucial for developing an effective ASE model.
However, we observe that merely concatenating sentences in a contextual window
does not fully utilize contextual information and can sometimes lead to
excessive attention on less informative sentences. To tackle this challenge, we
propose an Efficient Context-aware ASE model (ECASE) that fully exploits
contextual information by enhancing modeling capacity and augmenting training
data. Specifically, we introduce a sequence-attention module and
distance-weighted similarity loss to aggregate contextual information and
argumentative information. Additionally, we augment the training data by
randomly masking discourse markers and sentences, which reduces the model's
reliance on specific words or less informative sentences. Our experiments on
five datasets from various domains demonstrate that our model achieves
state-of-the-art performance. Furthermore, ablation studies confirm the
effectiveness of each module in our model.
- Abstract(参考訳): 引数構造抽出(ASE)は、文書内の引数の談話構造を特定することを目的としている。
従来の研究では、文脈情報は効果的なASEモデルの開発に不可欠であることが示されている。
しかし,コンテクストウィンドウ内の文の連結だけでは文脈情報を完全に活用できないため,情報量の低い文に対して過度な注意が向けられることがある。
この課題に取り組むために,モデリング能力の向上とトレーニングデータの強化により文脈情報を完全に活用する,効率的な文脈認識型aseモデル(ecase)を提案する。
具体的には,文脈情報と議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
さらに,会話マーカーや文をランダムにマスキングすることで学習データを強化し,特定の単語への依存度を低下させるか,あるいは情報文を減少させる。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
さらに,本モデルにおける各モジュールの有効性について検討した。
関連論文リスト
- Personalized Video Summarization using Text-Based Queries and Conditional Modeling [3.4447129363520337]
この論文は、テキストベースのクエリと条件付きモデリングを統合することで、ビデオ要約の強化を探求する。
精度やF1スコアなどの評価指標は、生成された要約の品質を評価する。
論文 参考訳(メタデータ) (2024-08-27T02:43:40Z) - Factual Dialogue Summarization via Learning from Large Language Models [35.63037083806503]
大規模言語モデル(LLM)に基づく自動テキスト要約モデルは、より現実的に一貫した要約を生成する。
ゼロショット学習を用いて、LLMから記号的知識を抽出し、事実整合性(正)および矛盾性(負)の要約を生成する。
各種自動評価指標で確認したように,コヒーレンス,フラレンシ,関連性を保ちながら,より優れた事実整合性を実現する。
論文 参考訳(メタデータ) (2024-06-20T20:03:37Z) - Discovering Elementary Discourse Units in Textual Data Using Canonical Correlation Analysis [0.0]
本研究は,初等談話単位(EDU)の同定におけるカノニカル相関分析(CCA)の可能性を示すことによって,さらに一歩進める。
モデルは単純で、線形で、適応可能で、言語に依存しないため、特にラベル付きトレーニングデータが不足している場合、理想的なベースラインとなる。
論文 参考訳(メタデータ) (2024-06-18T18:37:24Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Efficient Multi-Modal Embeddings from Structured Data [0.0]
マルチモーダルワードセマンティクスは、知覚入力による埋め込みを強化することを目的としている。
ビジュアルグラウンドは言語アプリケーションにも貢献できる。
新しい埋め込みは、テキストベースの埋め込みのための補完的な情報を伝達する。
論文 参考訳(メタデータ) (2021-10-06T08:42:09Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Attend to the beginning: A study on using bidirectional attention for
extractive summarization [1.148539813252112]
本稿では,抽出要約モデルの性能向上のために,文書の開始に参画することを提案する。
我々は、テキストデータの最初の数文に出席することで、テキストの早期に重要な情報を導入する傾向を生かしている。
論文 参考訳(メタデータ) (2020-02-09T17:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。