論文の概要: Reinforcement Learning-based N-ary Cross-Sentence Relation Extraction
- arxiv url: http://arxiv.org/abs/2009.12683v1
- Date: Sat, 26 Sep 2020 20:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:18:51.025874
- Title: Reinforcement Learning-based N-ary Cross-Sentence Relation Extraction
- Title(参考訳): 強化学習に基づくN-aryクロスセンス関係抽出
- Authors: Chenhan Yuan, Ryan Rossi, Andrew Katz, and Hoda Eldardiry
- Abstract要約: 遠方監督に基づくn-aryクロス文関係抽出モデルでは、n 個の実体に言及する連続した文がこれらの n 個の実体の関係を記述していると仮定する。
一方、一部の非連続文は1つの関係を記述しており、これらの文はこの仮定ではラベル付けできない。
最初の問題に対処する新しい文分布推定器モデルを提案する。
- 参考スコア(独自算出の注目度): 3.342376225738321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The models of n-ary cross sentence relation extraction based on distant
supervision assume that consecutive sentences mentioning n entities describe
the relation of these n entities. However, on one hand, this assumption
introduces noisy labeled data and harms the models' performance. On the other
hand, some non-consecutive sentences also describe one relation and these
sentences cannot be labeled under this assumption. In this paper, we relax this
strong assumption by a weaker distant supervision assumption to address the
second issue and propose a novel sentence distribution estimator model to
address the first problem. This estimator selects correctly labeled sentences
to alleviate the effect of noisy data is a two-level agent reinforcement
learning model. In addition, a novel universal relation extractor with a hybrid
approach of attention mechanism and PCNN is proposed such that it can be
deployed in any tasks, including consecutive and nonconsecutive sentences.
Experiments demonstrate that the proposed model can reduce the impact of noisy
data and achieve better performance on general n-ary cross sentence relation
extraction task compared to baseline models.
- Abstract(参考訳): n-項間の関係抽出のモデルでは、n 個の実体に言及する連続した文がこれらの n 個の実体の関係を記述していると仮定している。
しかし、この仮定はノイズの多いラベル付きデータを導入し、モデルの性能を損なう。
一方、ある非包括文は一つの関係を記述しており、これらの文はこの仮定ではラベル付けできない。
本稿では,この強い仮定を,第2問題に対処するため,より弱い監督仮定により緩和し,第1問題に対処するための新しい文分布推定器モデルを提案する。
ノイズデータの影響を軽減するために正しくラベル付けされた文を選択する推定器は、二段階エージェント強化学習モデルである。
さらに,注意機構とPCNNを併用した新しいユニバーサルリレーションシップ抽出器を提案し,連続文や非連続文を含む任意のタスクに展開できるようにした。
実験により,提案手法は雑音データの影響を低減し,ベースラインモデルと比較して一般のn-aryクロス文関係抽出タスクにおいて優れた性能が得られることを示す。
関連論文リスト
- Entity or Relation Embeddings? An Analysis of Encoding Strategies for Relation Extraction [19.019881161010474]
関係抽出は、本質的にはテキスト分類問題であり、事前学習言語モデル(LM)を微調整することで取り組める。
既存のアプローチでは、LMを微調整して頭と尾のエンティティの埋め込みを学習し、それらのエンティティの埋め込みから関係を予測する。
本稿では,より直接的な方法で関係を捉えることにより,関係抽出モデルを改善することができるという仮説を立てる。
論文 参考訳(メタデータ) (2023-12-18T09:58:19Z) - Siamese Representation Learning for Unsupervised Relation Extraction [5.776369192706107]
非教師付き関係抽出(URE)は、オープンドメインのプレーンテキストから名前付きエンティティペア間の基礎となる関係を見つけることを目的としている。
比較学習を利用した既存のUREモデルでは、正のサンプルを惹きつけ、より良い分離を促進するために負のサンプルを反発させる効果がある。
非教師関係抽出のためのシームズ表現学習 - 正のペアを単純に活用して表現学習を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T02:57:43Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised
Relation Extraction [60.80849503639896]
非教師なし関係抽出は、関係範囲や分布に関する事前情報のない自然言語文からエンティティ間の関係を抽出することを目的としている。
本稿では,階層間注目を用いた階層的特徴空間から階層的信号を導出する機能を持つ,HiUREという新しいコントラスト学習フレームワークを提案する。
2つの公開データセットの実験結果は、最先端モデルと比較した場合の教師なし関係抽出におけるHiUREの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-05-04T17:56:48Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Improving Distantly Supervised Relation Extraction with Self-Ensemble
Noise Filtering [17.45521023572853]
本研究では,学習過程におけるノイズを除去する自己アンサンブルフィルタリング機構を提案する。
複数の最先端関係抽出モデルを用いた実験により,提案したフィルタリング機構はモデルの堅牢性を改善し,F1スコアを増加させることを示す。
論文 参考訳(メタデータ) (2021-08-22T11:23:36Z) - Sentence Similarity Based on Contexts [31.135984064747607]
提案するフレームワークは,文の意味を文脈によって定義する,という中核的な考え方に基づいている。
2つの文間の意味的類似度スコアを教師なしの方法で高品質の大規模データセットを生成することができます。
論文 参考訳(メタデータ) (2021-05-17T06:03:56Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。