論文の概要: BreakingBERT@IITK at SemEval-2021 Task 9 : Statement Verification and
Evidence Finding with Tables
- arxiv url: http://arxiv.org/abs/2104.03071v1
- Date: Wed, 7 Apr 2021 11:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:55:50.016364
- Title: BreakingBERT@IITK at SemEval-2021 Task 9 : Statement Verification and
Evidence Finding with Tables
- Title(参考訳): SemEval-2021 Task 9におけるBreakingBERT@IITK : 表を用いた文書検証と証拠発見
- Authors: Aditya Jindal, Ankur Gupta, Jaya Srivastava, Preeti Menghwani, Vijit
Malik, Vishesh Kaushik, Ashutosh Modi
- Abstract要約: 我々は,事実の検証と証拠発見の問題を表データ上で解決する。
与えられたSemTabFactデータセットのベースラインと最先端のアプローチを比較します。
また,自然言語推論タスクの一形態としてエビデンスを解くための新しいアプローチCellBERTを提案する。
- 参考スコア(独自算出の注目度): 1.78256232654567
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, there has been an interest in factual verification and prediction
over structured data like tables and graphs. To circumvent any false news
incident, it is necessary to not only model and predict over structured data
efficiently but also to explain those predictions. In this paper, as part of
the SemEval-2021 Task 9, we tackle the problem of fact verification and
evidence finding over tabular data. There are two subtasks. Given a table and a
statement/fact, subtask A determines whether the statement is inferred from the
tabular data, and subtask B determines which cells in the table provide
evidence for the former subtask. We make a comparison of the baselines and
state-of-the-art approaches over the given SemTabFact dataset. We also propose
a novel approach CellBERT to solve evidence finding as a form of the Natural
Language Inference task. We obtain a 3-way F1 score of 0.69 on subtask A and an
F1 score of 0.65 on subtask B.
- Abstract(参考訳): 近年,テーブルやグラフなどの構造化データに対する事実検証や予測への関心が高まっている。
偽ニュースの発生を回避するためには,構造化データを効率的にモデル化し,予測するだけでなく,その予測を説明する必要がある。
本稿では,SemEval-2021タスク9の一部として,表データ上の事実検証と証拠発見の問題に取り組む。
2つのサブタスクがあります。
テーブルとステートメント/ファクトが与えられた場合、サブタスクAは、そのステートメントが表データから推測されているかどうかを判断し、サブタスクBは、テーブル内のどのセルが以前のサブタスクの証拠を提供するかを決定する。
与えられたSemTabFactデータセットに対して,ベースラインと最先端アプローチを比較した。
また,自然言語推論タスクの一形態としてエビデンスを解くための新しいアプローチCellBERTを提案する。
サブタスクAでは3ウェイF1スコアが0.69、サブタスクBではF1スコアが0.65となる。
関連論文リスト
- Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Graph Reasoning with Context-Aware Linearization for Interpretable Fact
Extraction and Verification [18.80709296426521]
本稿では,テキストと表のエビデンスを用いて事実抽出と検証を行うエンド・ツー・エンドシステムを提案する。
ベストパフォーマンスシステムは,ブラインドテストデータ上でのFEVEROUSスコア0.23と53%のラベル精度を達成する。
論文 参考訳(メタデータ) (2021-09-25T12:05:28Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Volta at SemEval-2021 Task 9: Statement Verification and Evidence
Finding with Tables using TAPAS and Transfer Learning [19.286478269708592]
本稿では,SemEval-2021のタスク9:表によるステートメント検証とエビデンス検索を解くためのシステムを提案する。
タスクは2つのサブタスクから構成される: (A) テーブルとステートメントを付与し、テーブルがステートメントをサポートするかどうかを予測し、(B) テーブル内のどのセルがステートメントの証拠を提供するかを予測する。
サブタスクではF1スコアが67.34、サブタスクでは72.89、サブタスクBでは62.95である。
論文 参考訳(メタデータ) (2021-06-01T06:06:29Z) - SemEval-2021 Task 9: Fact Verification and Evidence Finding for Tabular
Data in Scientific Documents (SEM-TAB-FACTS) [0.0]
SEM-TAB-FACTSは2つのサブタスクを備えていた。
サブタスクAでは、テーブルに関して文がサポートされているか、否定されているか、不明かを決定することが目標である。
サブタスクBでは、声明の証拠を提供するテーブルの特定の細胞を特定することに重点が置かれた。
論文 参考訳(メタデータ) (2021-05-28T17:21:11Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - TABBIE: Pretrained Representations of Tabular Data [22.444607481407633]
表データのみから学習する単純な事前学習目標を考案する。
競合するアプローチとは異なり、我々のモデル(TABBIE)は全てのテーブルサブストラクチャの埋め込みを提供する。
学習したセル,列,行の表現を定性的に分析した結果,複雑なテーブルの意味や数値的傾向が理解できた。
論文 参考訳(メタデータ) (2021-05-06T11:15:16Z) - Sattiy at SemEval-2021 Task 9: An Ensemble Solution for Statement
Verification and Evidence Finding with Tables [4.691435917434472]
本稿では,SemEval-2021 タスク 9: Statement Verification and Evidence Finding with Tables (SEM-TAB-FACT) における満足のいくチームのシステムについて述べる。
この競争は、声明の検証と科学論文の表から証拠を見つけることを目的としている。
本論文では、タスクAのテーブル、TaPas、TaBERT上の学習済み言語モデルのアンサンブルモデルを活用し、タスクBで抽出されたいくつかのルールに基づいて結果を調整する。
論文 参考訳(メタデータ) (2021-04-21T06:11:49Z) - TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data [113.29476656550342]
本研究では,NL文と表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。
TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。
モデルの実装はhttp://fburl.com/TaBERT.comで公開される。
論文 参考訳(メタデータ) (2020-05-17T17:26:40Z) - ToTTo: A Controlled Table-To-Text Generation Dataset [61.83159452483026]
ToTToはオープンドメインの英語のテーブル・トゥ・テキストのデータセットで、12万以上のトレーニングサンプルがある。
本稿では、ウィキペディアから既存の候補文を直接修正するデータセット構築プロセスを紹介する。
通常流動的であるが、既存の方法は多くの場合、表がサポートしていないフレーズを幻覚させる。
論文 参考訳(メタデータ) (2020-04-29T17:53:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。