論文の概要: What do You Mean by Relation Extraction? A Survey on Datasets and Study
on Scientific Relation Classification
- arxiv url: http://arxiv.org/abs/2204.13516v1
- Date: Thu, 28 Apr 2022 14:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:58:17.865896
- Title: What do You Mean by Relation Extraction? A Survey on Datasets and Study
on Scientific Relation Classification
- Title(参考訳): 関係抽出とは何か?
データセットに関する調査と科学関係分類に関する研究
- Authors: Elisa Bassignana and Barbara Plank
- Abstract要約: 本研究では,2つのデータセットの科学的関係分類に関する実証的研究を行った。
大量のデータの重複にもかかわらず,本分析はアノテーションにかなりの相違点を明らかにした。
さらにサブドメイン内での変化は存在するが、関係分類は限定的な程度にしか影響しない。
- 参考スコア(独自算出の注目度): 21.513743126525622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last five years, research on Relation Extraction (RE) witnessed
extensive progress with many new dataset releases. At the same time, setup
clarity has decreased, contributing to increased difficulty of reliable
empirical evaluation (Taill\'e et al., 2020). In this paper, we provide a
comprehensive survey of RE datasets, and revisit the task definition and its
adoption by the community. We find that cross-dataset and cross-domain setups
are particularly lacking. We present an empirical study on scientific Relation
Classification across two datasets. Despite large data overlap, our analysis
reveals substantial discrepancies in annotation. Annotation discrepancies
strongly impact Relation Classification performance, explaining large drops in
cross-dataset evaluations. Variation within further sub-domains exists but
impacts Relation Classification only to limited degrees. Overall, our study
calls for more rigour in reporting setups in RE and evaluation across multiple
test sets.
- Abstract(参考訳): 過去5年間で、関係抽出(RE)の研究は、多くの新しいデータセットリリースで広範な進歩をみせた。
同時に、セットアップの明確さが低下し、信頼性のある経験的評価の難しさが増した(Taill\'e et al., 2020)。
本稿では,REデータセットの総合的な調査を行い,タスク定義の再検討とコミュニティによる採用について述べる。
クロスデータセットとクロスドメインのセットアップには特に欠けていることが分かりました。
2つのデータセットにわたる科学的関係分類に関する実証的研究を行った。
大量のデータの重複にもかかわらず,本分析はアノテーションにかなりの相違点を明らかにした。
アノテーションの相違は関係分類性能に強く影響を与え、データセット間の評価において大きな低下を説明する。
さらにサブドメイン内での変化は存在するが、関係分類は限定的な程度にしか影響しない。
全体として、調査では、REにおけるレポート設定の厳格化と、複数のテストセットに対する評価が求められている。
関連論文リスト
- Silver Syntax Pre-training for Cross-Domain Relation Extraction [20.603482820770356]
関係抽出(RE)は、特に現実的な領域外評価を考える場合、依然として困難な課題である。
高品質な(手動で注釈付けされた)データを取得するのは非常に高価であり、新しいドメインごとに現実的に繰り返すことはできない。
関連するタスクからのデータに対する中間的なトレーニングステップは、多くのNLPタスクで有用であることが示されているが、このセットアップには追加のアノテートデータが必要であるため、しばしば利用できない。
本稿では,REのための中間的事前学習について検討する。構文構造と意味的REとの親和性を利用して,2つのエンティティ間の最も短い依存性パスにあることで,REと密接に関連する構文関係を同定する。
論文 参考訳(メタデータ) (2023-05-18T14:49:19Z) - Discovering and Explaining the Non-Causality of Deep Learning in SAR ATR [20.662652637190515]
ディープラーニングは、SAR ATRで広く使われ、MSTARデータセット上で優れたパフォーマンスを実現している。
本稿では,Shapley値に基づいて,異なる領域の目標認識に対する貢献度を定量化する。
データバイアスとモデルバイアスが非因果性にどのように貢献するかを説明する。
論文 参考訳(メタデータ) (2023-04-03T00:45:11Z) - CrossRE: A Cross-Domain Dataset for Relation Extraction [21.513743126525622]
CrossREは、関係抽出(RE)のための新しい、自由に利用可能なクロスドメインベンチマークである。
関係分類のための最先端モデルを用いて経験的評価を行う。
メタデータにより、最先端のモデルに新たな光を放つことができるので、難しいケースの影響を包括的に分析する。
論文 参考訳(メタデータ) (2022-10-17T18:33:14Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - Re-TACRED: Addressing Shortcomings of the TACRED Dataset [5.820381428297218]
TACREDは、最大かつ最も広く使われている文レベルの関係抽出データセットの1つである。
このデータセットを用いて評価された提案モデルは、新しい最先端のパフォーマンスを一貫して設定する。
しかし、彼らはまだ大規模なテキストコーポラで外部の知識と教師なしの事前訓練を利用しながら大きなエラー率を示しています。
論文 参考訳(メタデータ) (2021-04-16T22:55:11Z) - CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems [121.78477833009671]
データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
論文 参考訳(メタデータ) (2020-10-11T02:19:15Z) - Let's Stop Incorrect Comparisons in End-to-end Relation Extraction! [13.207968737733196]
論文ではまず, 無効比較のいくつかのパターンを識別し, それらの伝播を避けるために記述する。
次に、最も一般的な誤りの影響を定量化し、それを評価し、ACE05上での最終的なRE性能を約5%過大評価する実験研究を提案する。
論文 参考訳(メタデータ) (2020-09-22T16:59:15Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z) - Novel Human-Object Interaction Detection via Adversarial Domain
Generalization [103.55143362926388]
本研究では,新たな人-物間相互作用(HOI)検出の問題点を考察し,モデルの一般化能力を向上させることを目的とした。
この課題は、主に対象と述語の大きな構成空間に起因し、全ての対象と述語の組み合わせに対する十分な訓練データが欠如している。
本稿では,予測のためのオブジェクト指向不変の特徴を学習するために,対数領域の一般化の統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-22T22:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。