論文の概要: Modular Self-Supervision for Document-Level Relation Extraction
- arxiv url: http://arxiv.org/abs/2109.05362v1
- Date: Sat, 11 Sep 2021 20:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:49:13.721216
- Title: Modular Self-Supervision for Document-Level Relation Extraction
- Title(参考訳): 文書レベル関係抽出のためのモジュール自己スーパービジョン
- Authors: Sheng Zhang, Cliff Wong, Naoto Usuyama, Sarthak Jain, Tristan Naumann,
Hoifung Poon
- Abstract要約: 本稿では,文書レベルの関係抽出を関係検出と議論解決に分解する手法を提案する。
バイオメディカル・マシン・リーダーの精度オンコロジーにおいて,クロスパラグラフ関係の言及が一般的である点を徹底的に評価する。
提案手法は,マルチスケール学習やグラフニューラルネットワークなど,従来の技術よりも20以上の絶対的なF1点を達成している。
- 参考スコア(独自算出の注目度): 17.039775384229355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting relations across large text spans has been relatively
underexplored in NLP, but it is particularly important for high-value domains
such as biomedicine, where obtaining high recall of the latest findings is
crucial for practical applications. Compared to conventional information
extraction confined to short text spans, document-level relation extraction
faces additional challenges in both inference and learning. Given longer text
spans, state-of-the-art neural architectures are less effective and
task-specific self-supervision such as distant supervision becomes very noisy.
In this paper, we propose decomposing document-level relation extraction into
relation detection and argument resolution, taking inspiration from Davidsonian
semantics. This enables us to incorporate explicit discourse modeling and
leverage modular self-supervision for each sub-problem, which is less
noise-prone and can be further refined end-to-end via variational EM. We
conduct a thorough evaluation in biomedical machine reading for precision
oncology, where cross-paragraph relation mentions are prevalent. Our method
outperforms prior state of the art, such as multi-scale learning and graph
neural networks, by over 20 absolute F1 points. The gain is particularly
pronounced among the most challenging relation instances whose arguments never
co-occur in a paragraph.
- Abstract(参考訳): 大きなテキストスパンにまたがる関係の抽出はnlpでは比較的過小評価されているが、バイオメディシンのような高価値ドメインでは特に重要であり、最新の発見を高いリコールを得ることが実用的応用には不可欠である。
テキストスパンに限定した従来の情報抽出と比較して、文書レベルの関係抽出は推論と学習の両方において新たな課題に直面している。
より長いテキストスパンを考えると、最先端のニューラルネットワークアーキテクチャは効果が低く、遠隔監視のようなタスク固有の自己スーパービジョンは非常にうるさくなります。
本稿では,ダビドソン意味論から着想を得て,関係検出と引数解決に文書レベルの関係抽出を分解する。
これにより、明示的な談話モデリングを取り入れ、各サブプロブレムに対してモジュール化された自己スーパービジョンを活用できます。
クロスパラグラフ関係が普及する精密腫瘍学のために,バイオメディカルマシンリーディングの徹底的な評価を行う。
本手法は,マルチスケール学習やグラフニューラルネットワークなど,先行技術よりも20以上の絶対的f1点を上回っている。
利得は、議論が段落で共起しない最も困難な関係例の中で特に顕著である。
関連論文リスト
- Hierarchical Attention Graph for Scientific Document Summarization in Global and Local Level [3.7651378994837104]
ロングインプットは、文間の大域的高次関係と局所的文内関係を同時にモデル化することを妨げる。
本稿では,階層的談話構造に基づく文書のモデル化にグラフニューラルネットワークを用いた新しい手法であるHAESumを提案する。
提案手法を2つのベンチマークデータセットで検証し,実験結果からHAESumの有効性を実証した。
論文 参考訳(メタデータ) (2024-05-16T15:46:30Z) - PromptRE: Weakly-Supervised Document-Level Relation Extraction via
Prompting-Based Data Programming [30.597623178206874]
本稿では,文書レベルの関係抽出手法であるPromptREを提案する。
PromptREは、ラベルの配布とエンティティタイプを事前知識として組み込んでパフォーマンスを向上させる。
文書レベルの関係抽出のためのベンチマークデータセットであるReDocREDの実験結果は、ベースラインアプローチよりもPromptREの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-10-13T17:23:17Z) - A Comprehensive Survey of Document-level Relation Extraction (2016-2023) [3.0204640945657326]
文書レベルの関係抽出(DocRE)は自然言語処理(NLP)研究の活発な領域である
本稿では,この分野における最近の進歩を包括的に概観し,文レベルの関係抽出と比較して,その適用方法の相違点を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-09-28T12:43:32Z) - Multimodal Relation Extraction with Cross-Modal Retrieval and Synthesis [89.04041100520881]
本研究は,対象物,文,画像全体に基づいて,テキストおよび視覚的証拠を検索することを提案する。
我々は,オブジェクトレベル,画像レベル,文レベル情報を合成し,同一性と異なるモダリティ間の推論を改善する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-05-25T15:26:13Z) - Improving Long Tailed Document-Level Relation Extraction via Easy
Relation Augmentation and Contrastive Learning [66.83982926437547]
我々は,DocREが現実のシナリオにおいて,長期分布問題の緩和に不可欠であると主張する。
長期分布問題に動機付けられ,DocREを改善するための簡易関係拡張法(ERA)を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:15:11Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。