論文の概要: Shall We Trust All Relational Tuples by Open Information Extraction? A
Study on Speculation Detection
- arxiv url: http://arxiv.org/abs/2305.04181v1
- Date: Sun, 7 May 2023 03:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 17:11:17.905148
- Title: Shall We Trust All Relational Tuples by Open Information Extraction? A
Study on Speculation Detection
- Title(参考訳): すべてのリレーショナルタプルをオープン情報抽出で信頼するか?
投機検出に関する研究
- Authors: Kuicai Dong, Aixin Sun, Jung-Jae Kim, Xiaoli Li
- Abstract要約: Open Information extract (OIE)は、オープンドメインの文から事実を抽出することを目的としている。
下流タスクは、抽出されたOIEを事実として、これらの事実の確実性を調べることなく使用する。
我々は,OIEにおける憶測を考察し,抽出されたリレーショナル・アイストリームの推測値を決定することを目的とする。
- 参考スコア(独自算出の注目度): 26.1066324477346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open Information Extraction (OIE) aims to extract factual relational tuples
from open-domain sentences. Downstream tasks use the extracted OIE tuples as
facts, without examining the certainty of these facts. However,
uncertainty/speculation is a common linguistic phenomenon. Existing studies on
speculation detection are defined at sentence level, but even if a sentence is
determined to be speculative, not all tuples extracted from it may be
speculative. In this paper, we propose to study speculations in OIE and aim to
determine whether an extracted tuple is speculative. We formally define the
research problem of tuple-level speculation detection and conduct a detailed
data analysis on the LSOIE dataset which contains labels for speculative
tuples. Lastly, we propose a baseline model OIE-Spec for this new research
task.
- Abstract(参考訳): Open Information extract (OIE)は、オープンドメイン文から事実関係タプルを抽出することを目的としている。
下流タスクは、抽出されたOIEタプルをこれらの事実の確実性を調べることなく、事実として使用する。
しかし、不確実性/推測は共通の言語現象である。
既存の投機検出の研究は文レベルで定義されるが、たとえ文が投機的であると判断されたとしても、そこから抽出されたすべてのタプルが投機的であるわけではない。
本稿では,オイエの推測を研究し,抽出されたタプルが投機的かどうかを判定する。
我々は,タプルレベルの投機検出に関する研究問題を正式に定義し,投機的タプルのラベルを含むLSOIEデータセットの詳細なデータ解析を行う。
最後に,本研究のベースラインモデルであるOIE-Specを提案する。
関連論文リスト
- To Believe or Not to Believe Your LLM [51.2579827761899]
大規模言語モデル(LLM)における不確実性定量化について検討する。
疫学的な不確実性が大きい場合にのみ確実に検出できる情報理論の指標を導出する。
定式化の利点を実証する一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-04T17:58:18Z) - Fact-Checking the Output of Large Language Models via Token-Level Uncertainty Quantification [116.77055746066375]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Benchmarking the Generation of Fact Checking Explanations [19.363672064425504]
我々は、正当化の生成(クレームが真か偽かのどちらかに分類される理由をテキストで説明する)に焦点を当て、新しいデータセットと高度なベースラインでベンチマークする。
その結果,生産要約の正当性はクレーム情報から得られることがわかった。
クロスデータセット実験は性能劣化に悩まされるが、2つのデータセットの組み合わせでトレーニングされたユニークなモデルは、スタイル情報を効率的に保持することができる。
論文 参考訳(メタデータ) (2023-08-29T10:40:46Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Towards Relation Extraction From Speech [56.36416922396724]
本稿では,新たな聴取情報抽出タスク,すなわち音声関係抽出を提案する。
本研究では,音声合成システムによる音声関係抽出のための訓練データセットを構築し,英語母語話者によるクラウドソーシングによるテストデータセットを構築した。
我々は,音声関係抽出における課題を識別するための包括的実験を行い,今後の探索に光を当てる可能性がある。
論文 参考訳(メタデータ) (2022-10-17T05:53:49Z) - Abstract, Rationale, Stance: A Joint Model for Scientific Claim
Verification [18.330265729989843]
我々は,3つのタスクのモジュールを,機械読解フレームワークを用いて共同で学習するアプローチをARSJointとして提案する。
ベンチマークデータセットSciFactの実験結果は、我々のアプローチが既存の作業より優れていることを示している。
論文 参考訳(メタデータ) (2021-09-13T10:07:26Z) - At Which Level Should We Extract? An Empirical Analysis on Extractive
Document Summarization [110.54963847339775]
本研究は,全文を抽出する際,不必要な問題や冗長性が存在することを示す。
選挙区解析木に基づくサブセグメント単位の抽出を提案する。
論文 参考訳(メタデータ) (2020-04-06T13:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。