論文の概要: RerrFact: Reduced Evidence Retrieval Representations for Scientific
Claim Verification
- arxiv url: http://arxiv.org/abs/2202.02646v1
- Date: Sat, 5 Feb 2022 21:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 11:12:28.197375
- Title: RerrFact: Reduced Evidence Retrieval Representations for Scientific
Claim Verification
- Title(参考訳): RerrFact: 科学的クレーム検証のための証拠検索表現の削減
- Authors: Ashish Rana, Deepanshu Khanna, Muskaan Singh, Tirthankar Ghosal,
Harpreet Singh and Prashant Singh Rana
- Abstract要約: 本稿では,各予測サブタスクに対して連続的に二項分類を行うモジュラー手法を提案する。
我々は、まず非関連な有理を区別し、与えられた主張に対する支持または反証する有理を識別する2段階のスタンス予測を行う。
実験的に、我々のシステムRerrFactは微調整もシンプルな設計もせず、モデルパラメータのごく一部はリーダーボード上で競争的に公正である。
- 参考スコア(独自算出の注目度): 4.052777228128475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exponential growth in digital information outlets and the race to publish has
made scientific misinformation more prevalent than ever. However, the task to
fact-verify a given scientific claim is not straightforward even for
researchers. Scientific claim verification requires in-depth knowledge and
great labor from domain experts to substantiate supporting and refuting
evidence from credible scientific sources. The SciFact dataset and
corresponding task provide a benchmarking leaderboard to the community to
develop automatic scientific claim verification systems via extracting and
assimilating relevant evidence rationales from source abstracts. In this work,
we propose a modular approach that sequentially carries out binary
classification for every prediction subtask as in the SciFact leaderboard. Our
simple classifier-based approach uses reduced abstract representations to
retrieve relevant abstracts. These are further used to train the relevant
rationale-selection model. Finally, we carry out two-step stance predictions
that first differentiate non-relevant rationales and then identify supporting
or refuting rationales for a given claim. Experimentally, our system RerrFact
with no fine-tuning, simple design, and a fraction of model parameters fairs
competitively on the leaderboard against large-scale, modular, and joint
modeling approaches. We make our codebase available at
https://github.com/ashishrana160796/RerrFact.
- Abstract(参考訳): デジタル情報メディアの指数的な成長と出版競争により、科学的な誤報がこれまで以上に広まりつつある。
しかし、ある科学的主張を事実検証する仕事は研究者にとっても単純ではない。
科学的クレームの検証は、信頼できる科学的情報源からの証拠の支持と反論を実証するために、ドメインの専門家からの深い知識と多大な労力を必要とする。
scifactデータセットおよび対応するタスクは、ソース抽象から関連する証拠を抽出および同化することにより、自動的に科学クレーム検証システムを開発するためのベンチマークリーダーボードをコミュニティに提供する。
本稿では,scifact leaderboardのように,予測サブタスク毎にバイナリ分類を逐次実行するモジュール方式を提案する。
我々の単純な分類器ベースのアプローチは、抽象表現を減らして関連する抽象情報を検索する。
これらは関連する合理的選択モデルをトレーニングするためにさらに使用される。
最後に,2段階の姿勢予測を行い,まず非関係性理論を区別し,その後に与えられた主張に対する支持あるいは反論の根拠を同定する。
実験では,本システムでは,微調整や簡単な設計,モデルパラメータのごく一部を伴わずに,大規模,モジュラー,ジョイントモデリングのアプローチに対して,リーダボード上で競争的に公平に設計する。
コードベースはhttps://github.com/ashishrana160796/rerrfactで利用可能です。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - SCITAB: A Challenging Benchmark for Compositional Reasoning and Claim
Verification on Scientific Tables [68.76415918462418]
本報告では,1.2Kの専門的な科学的クレームからなる,挑戦的な評価データセットであるSCITABについて述べる。
広範な評価を通じて、SCITABは最先端のモデルに重大な課題をもたらすことを示した。
SCITABは,表の接地,主張のあいまいさ,構成的推論など,いくつかの独特な課題を明らかにした。
論文 参考訳(メタデータ) (2023-05-22T16:13:50Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - SciFact-Open: Towards open-domain scientific claim verification [61.288725621156864]
本稿では,科学的クレーム検証システムの性能評価を目的とした新しいテストコレクションであるSciFact-Openを提案する。
我々は、4つの最先端の科学的クレーム検証モデルの上位予測をプールし、注釈付けすることで、科学的クレームの証拠を収集する。
その結果,SciFact-Openへの一般化に苦慮する小形コーパス上で開発されたシステムは,少なくとも15F1の性能低下を示すことがわかった。
論文 参考訳(メタデータ) (2022-10-25T05:45:00Z) - Adversarial Contrastive Learning for Evidence-aware Fake News Detection
with Graph Neural Networks [20.282527436527765]
本稿では,Contrastive Learning,すなわちGETRALを用いたグラフベースのsEmantic構造マイニングフレームワークを提案する。
まず、グラフ構造化データとしてクレームとエビデンスをモデル化し、長距離セマンティック依存関係をキャプチャします。
次に、詳細なセマンティック表現をクレーム-エビデンス相互作用モジュールに入力して予測を行う。
論文 参考訳(メタデータ) (2022-10-11T14:54:37Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Abstract, Rationale, Stance: A Joint Model for Scientific Claim
Verification [18.330265729989843]
我々は,3つのタスクのモジュールを,機械読解フレームワークを用いて共同で学習するアプローチをARSJointとして提案する。
ベンチマークデータセットSciFactの実験結果は、我々のアプローチが既存の作業より優れていることを示している。
論文 参考訳(メタデータ) (2021-09-13T10:07:26Z) - Fact or Fiction: Verifying Scientific Claims [53.29101835904273]
本稿では,研究文献から,REFUTESやREFUTESが与えられた科学的主張であることを示す証拠を含む抄録を抽出する新たな課題である,科学的クレーム検証を紹介する。
SciFactは、1.4Kの専門家による科学的主張と、ラベルや合理性に注釈を付けたエビデンスを含む抽象概念を組み合わせたデータセットである。
このシステムは,CORD-19コーパスの証拠を同定することにより,新型コロナウイルス関連クレームを検証可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T17:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。