論文の概要: Abstract, Rationale, Stance: A Joint Model for Scientific Claim
Verification
- arxiv url: http://arxiv.org/abs/2110.15116v1
- Date: Mon, 13 Sep 2021 10:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 05:12:03.995106
- Title: Abstract, Rationale, Stance: A Joint Model for Scientific Claim
Verification
- Title(参考訳): 要約, Rationale, Stance: 科学的クレーム検証のための共同モデル
- Authors: Zhiwei Zhang, Jiyi Li, Fumiyo Fukumoto, Yanming Ye
- Abstract要約: 我々は,3つのタスクのモジュールを,機械読解フレームワークを用いて共同で学習するアプローチをARSJointとして提案する。
ベンチマークデータセットSciFactの実験結果は、我々のアプローチが既存の作業より優れていることを示している。
- 参考スコア(独自算出の注目度): 18.330265729989843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific claim verification can help the researchers to easily find the
target scientific papers with the sentence evidence from a large corpus for the
given claim. Some existing works propose pipeline models on the three tasks of
abstract retrieval, rationale selection and stance prediction. Such works have
the problems of error propagation among the modules in the pipeline and lack of
sharing valuable information among modules. We thus propose an approach, named
as ARSJoint, that jointly learns the modules for the three tasks with a machine
reading comprehension framework by including claim information. In addition, we
enhance the information exchanges and constraints among tasks by proposing a
regularization term between the sentence attention scores of abstract retrieval
and the estimated outputs of rational selection. The experimental results on
the benchmark dataset SciFact show that our approach outperforms the existing
works.
- Abstract(参考訳): 科学的クレームの検証は、研究者が与えられたクレームのための大きなコーパスから、文の証拠で対象とする科学論文を容易に見つけるのに役立つ。
既存の研究では,抽象検索,合理的選択,スタンス予測という3つのタスクについてパイプラインモデルを提案する。
このような作業は、パイプライン内のモジュール間のエラー伝搬と、モジュール間で貴重な情報の共有が欠如している。
そこで我々は,3つのタスクのモジュールを,クレーム情報を含む機械読解フレームワークで共同で学習するARSJointという手法を提案する。
さらに,要約検索の文注目スコアと有理選択の推定出力との正規化項を提案することにより,タスク間の情報交換や制約を強化する。
ベンチマークデータセットSciFactの実験結果は、我々のアプローチが既存の作業より優れていることを示している。
関連論文リスト
- GEGA: Graph Convolutional Networks and Evidence Retrieval Guided Attention for Enhanced Document-level Relation Extraction [15.246183329778656]
ドキュメントレベルの関係抽出(DocRE)は、構造化されていない文書テキストからエンティティ間の関係を抽出することを目的としている。
これらの課題を克服するために,DocREの新しいモデルであるGEGAを提案する。
我々は、広く使用されている3つのベンチマークデータセット、DocRED、Re-DocRED、Revisit-DocREDでGEGAモデルを評価する。
論文 参考訳(メタデータ) (2024-07-31T07:15:33Z) - Synthesizing Scientific Summaries: An Extractive and Abstractive Approach [0.5904095466127044]
論文要約のためのハイブリッド手法を提案する。
抽出段階では教師なし学習に基づく2つのモデルとトランスフォーマー言語モデルを用いる。
ハイパーパラメータの特定の組み合わせを用いることで、自動要約システムが人間によって書かれた要約の抽象性を超えることが可能であることが判明した。
論文 参考訳(メタデータ) (2024-07-29T08:21:42Z) - Plot Retrieval as an Assessment of Abstract Semantic Association [131.58819293115124]
Plot Retrievalのテキストペアは単語の重複を少なくし、より抽象的なセマンティックアソシエーションを持つ。
Plot Retrievalは、IRモデルのセマンティックアソシエーションモデリング能力に関するさらなる研究のベンチマークとなる。
論文 参考訳(メタデータ) (2023-11-03T02:02:43Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - A Review on Fact Extraction and Verification [19.373340472113703]
本研究では,あるクレームの正当性を特定することを目的とした事実チェック問題について検討する。
我々は、Fact extract and verification(FEVER)タスクとそれに伴うデータセットに焦点を当てる。
このタスクは必須であり、偽ニュースの検出や医療クレームの検証といったアプリケーションの構築ブロックになる可能性がある。
論文 参考訳(メタデータ) (2020-10-06T20:05:43Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。