論文の概要: Rescue Implicit and Long-tail Cases: Nearest Neighbor Relation
Extraction
- arxiv url: http://arxiv.org/abs/2210.11800v1
- Date: Fri, 21 Oct 2022 08:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:43:58.666978
- Title: Rescue Implicit and Long-tail Cases: Nearest Neighbor Relation
Extraction
- Title(参考訳): 暗黙的および長期的症例の救助 : 最寄りの隣接関係抽出
- Authors: Zhen Wan, Qianying Liu, Zhuoyuan Mao, Fei Cheng, Sadao Kurohashi,
Jiwei Li
- Abstract要約: 我々は、$k$近辺($k$NN-RE)を用いた単純な関係抽出の強化を導入する($k$NN-RE)。
k$NN-REでは、最寄りの検索を通じて、テスト時にトレーニング関係をコンサルティングすることができる。
実験の結果,提案した$k$NN-REは,様々な教師付きREデータセット上で最先端のパフォーマンスを実現することがわかった。
- 参考スコア(独自算出の注目度): 36.85068584859058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relation extraction (RE) has achieved remarkable progress with the help of
pre-trained language models. However, existing RE models are usually incapable
of handling two situations: implicit expressions and long-tail relation types,
caused by language complexity and data sparsity. In this paper, we introduce a
simple enhancement of RE using $k$ nearest neighbors ($k$NN-RE). $k$NN-RE
allows the model to consult training relations at test time through a
nearest-neighbor search and provides a simple yet effective means to tackle the
two issues above. Additionally, we observe that $k$NN-RE serves as an effective
way to leverage distant supervision (DS) data for RE. Experimental results show
that the proposed $k$NN-RE achieves state-of-the-art performances on a variety
of supervised RE datasets, i.e., ACE05, SciERC, and Wiki80, along with
outperforming the best model to date on the i2b2 and Wiki80 datasets in the
setting of allowing using DS. Our code and models are available at:
https://github.com/YukinoWan/kNN-RE.
- Abstract(参考訳): 関係抽出(re)は、事前学習された言語モデルの助けを借りて、著しく進歩した。
しかし、既存のREモデルは、暗黙の表現と長い尾の関係型という2つの状況を扱うことができない。
本稿では,近隣住民(k$NN-RE)によるREの簡易化について紹介する。
k$NN-REにより、モデルは最寄りの検索を通じてテスト時にトレーニング関係をコンサルティングすることができ、上記の2つの問題に対処するためのシンプルで効果的な手段を提供する。
さらに、$k$NN-REがREの遠隔監視(DS)データを活用する効果的な方法であることも確認した。
実験の結果、提案された$k$NN-REは、様々な教師付きREデータセット(ACE05、SciERC、Wiki80)で最先端のパフォーマンスを達成し、DSの使用を許可する設定において、i2b2およびWiki80データセットで現在最高のモデルを上回ることが示されている。
私たちのコードとモデルは、https://github.com/YukinoWan/kNN-RE.comで利用可能です。
関連論文リスト
- Great Memory, Shallow Reasoning: Limits of $k$NN-LMs [71.73611113995143]
検索とnext-word予測を統合した$k$NN-LMsは、言語モデリングにおいて強力な性能を示している。
この改良された情報リコール能力が、本当に下流の能力に変換されるかどうかを問う。
論文 参考訳(メタデータ) (2024-08-21T17:59:05Z) - Exploiting Pre-trained Models for Drug Target Affinity Prediction with Nearest Neighbors [58.661454334877256]
薬物-標的結合親和性(DTA)予測は、薬物発見に不可欠である。
DTA予測へのディープラーニング手法の適用にもかかわらず、達成された精度は依然として準最適である。
事前学習したDTA予測モデルに適用した非表現埋め込みに基づく検索手法である$k$NN-DTAを提案する。
論文 参考訳(メタデータ) (2024-07-21T15:49:05Z) - REST: Enhancing Group Robustness in DNNs through Reweighted Sparse
Training [49.581884130880944]
ディープニューラルネットワーク(DNN)は様々な領域で有効であることが証明されている。
しかし、彼らは推論中に一部の少数派でうまく行動するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-12-05T16:27:54Z) - Nearest Neighbor Search over Vectorized Lexico-Syntactic Patterns for
Relation Extraction from Financial Documents [1.068607542484439]
そこで本研究では, 近縁な近接探索により, 試行時間における学習関係を概説する簡単な手法を提案する。
我々は、REFinDに対するアプローチを評価し、その手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-26T18:19:56Z) - Relational Extraction on Wikipedia Tables using Convolutional and Memory
Networks [6.200672130699805]
関係抽出(Relation extract、RE)は、テキスト内のエンティティ間の関係を抽出するタスクである。
我々は、エンティティをエンコードするために、畳み込みニューラルネットワーク(CNN)とBidirectional-Long Short Term Memory(BiLSTM)ネットワークからなる新しいモデルを導入する。
論文 参考訳(メタデータ) (2023-07-11T22:36:47Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - You can't pick your neighbors, or can you? When and how to rely on
retrieval in the $k$NN-LM [65.74934004876914]
Retrieval-enhanced Language Model (LM) は、大規模な外部データストアから取得したテキストにそれらの予測を条件付ける。
そのようなアプローチの1つ、$k$NN-LMは、既存のLMの予測を$k$-nearest近くのモデルの出力と補間する。
本研究では,2つの英語モデルデータセットに対するアプローチの有効性を実証的に測定する。
論文 参考訳(メタデータ) (2022-10-28T02:57:40Z) - Automatically Generating Counterfactuals for Relation Exaction [18.740447044960796]
関係抽出(RE)は自然言語処理の基本課題である。
現在のディープニューラルモデルは高い精度を達成しているが、スプリアス相関の影響を受けやすい。
我々は、エンティティの文脈的反事実を導出するための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2022-02-22T04:46:10Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。