論文の概要: An Empirical Study of Causal Relation Extraction Transfer: Design and Data
- arxiv url: http://arxiv.org/abs/2503.06076v1
- Date: Sat, 08 Mar 2025 05:51:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:06.423488
- Title: An Empirical Study of Causal Relation Extraction Transfer: Design and Data
- Title(参考訳): 因果関係伝達の実証的研究:設計とデータ
- Authors: Sydney Anuyah, Jack Vanschaik, Palak Jain, Sawyer Lehman, Sunandan Chakraborty,
- Abstract要約: 比較的単純なBioBERT-BiGRU関係抽出モデルが、様々なWebベースソースやアノテーション戦略をまたいだ他のアーキテクチャよりも一般化されていることを示す。
また、ターゲットタグを直接マッチングするのではなく、名詞句のローカライゼーションを重視した転送性能の評価指標である$Fphrase$を導入する。
- 参考スコア(独自算出の注目度): 0.8785265845731496
- License:
- Abstract: We conduct an empirical analysis of neural network architectures and data transfer strategies for causal relation extraction. By conducting experiments with various contextual embedding layers and architectural components, we show that a relatively straightforward BioBERT-BiGRU relation extraction model generalizes better than other architectures across varying web-based sources and annotation strategies. Furthermore, we introduce a metric for evaluating transfer performance, $F1_{phrase}$ that emphasizes noun phrase localization rather than directly matching target tags. Using this metric, we can conduct data transfer experiments, ultimately revealing that augmentation with data with varying domains and annotation styles can improve performance. Data augmentation is especially beneficial when an adequate proportion of implicitly and explicitly causal sentences are included.
- Abstract(参考訳): 本稿では,ニューラルネットワークアーキテクチャの実証分析と因果関係抽出のためのデータ転送戦略について述べる。
各種のコンテキスト埋め込みレイヤやアーキテクチャコンポーネントを用いて実験を行うことにより、比較的単純なBioBERT-BiGRU関係抽出モデルが、様々なWebベースソースやアノテーション戦略をまたいで、他のアーキテクチャよりも良く一般化できることが示される。
さらに、ターゲットタグと直接一致するのではなく、名詞句のローカライゼーションを重視した転送性能評価指標である$F1_{phrase}$を導入する。
この測定値を用いてデータ転送実験を行い、最終的に、さまざまなドメインやアノテーションスタイルのデータによる拡張により、パフォーマンスが向上することを明らかにした。
データ拡張は、暗黙的かつ明示的な因果文が適切に含まれている場合、特に有益である。
関連論文リスト
- $\textbf{Only-IF}$:Revealing the Decisive Effect of Instruction Diversity on Generalization [1.6958018695660049]
トレーニングデータがセマンティックドメインで十分に分散されている場合、textbfonlyが$であることを示す。
例えば$textit$textbfspecialist$$と$textit$textbf generalist$$$モデルの微調整などです。
論文 参考訳(メタデータ) (2024-10-07T03:15:11Z) - Leveraging Variation Theory in Counterfactual Data Augmentation for Optimized Active Learning [19.962212551963383]
アクティブラーニング(AL)は、モデルがユーザフィードバックからインタラクティブに学習することを可能にする。
本稿では,ALに反実データ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-08-07T14:55:04Z) - Graphical Reasoning: LLM-based Semi-Open Relation Extraction [3.2586315449885106]
GPT-3.5でテキスト内学習を活用すれば,抽出プロセスが大幅に向上することを示す。
本稿では,関係抽出を逐次的なサブタスクに分解する新しい図式推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T21:41:53Z) - Relational Graph Convolutional Networks for Sentiment Analysis [0.0]
Graph Convolutional Networks(NRGC)は、グラフ内のノードとして表されるデータポイント間の依存関係をキャプチャすることで、解釈性と柔軟性を提供する。
本稿では,Amazon および Digikala データセットの製品レビューにおいて,BERT や RoBERTa などの事前学習言語モデルと RGCN アーキテクチャを用いたアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-04-16T07:27:49Z) - Advancing Aspect-Based Sentiment Analysis through Deep Learning Models [4.0064131990718606]
本研究では,セティシィス(SentiSys)と呼ばれる革新的なエッジ強化GCNを導入し,無傷な特徴情報を保存しながら構文グラフをナビゲートする。
実験結果から,SentiSysを用いたアスペクトベース感情分析の性能向上が示された。
論文 参考訳(メタデータ) (2024-04-04T07:31:56Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for
Natural Language Understanding [67.61357003974153]
我々はCoDAと呼ばれる新しいデータ拡張フレームワークを提案する。
CoDAは、複数の変換を有機的に統合することで、多種多様な情報付加例を合成する。
すべてのデータサンプルのグローバルな関係を捉えるために、対照的な正則化の目的を導入する。
論文 参考訳(メタデータ) (2020-10-16T23:57:03Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。