論文の概要: LongChecker: Improving scientific claim verification by modeling
full-abstract context
- arxiv url: http://arxiv.org/abs/2112.01640v1
- Date: Thu, 2 Dec 2021 23:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-12-07 05:14:23.289034
- Title: LongChecker: Improving scientific claim verification by modeling
full-abstract context
- Title(参考訳): longchecker:完全抽象コンテキストモデリングによる科学的クレーム検証の改善
- Authors: David Wadden, Kyle Lo, Lucy Lu Wang, Arman Cohan, Iz Beltagy, Hannaneh
Hajishirzi
- Abstract要約: 科学的クレーム検証のためのLongCheckerシステムについて紹介する。
科学的主張と証拠を含む研究の要約が与えられた後、LongCheckerは正当性ラベルを予測し、支持する有理性を特定する。
利用可能なすべてのコンテキストに基づいてラベル決定を行うことで、LongCheckerはこの種の理解を必要とするケースでより良いパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 38.73116177387815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the LongChecker system for scientific claim verification. Given
a scientific claim and an evidence-containing research abstract, LongChecker
predicts a veracity label and identifies supporting rationales in a multitask
fashion based on a shared encoding of the claim and abstract. We perform
experiments on the SciFact dataset, and find that LongChecker achieves
state-of-the-art performance. We conduct analysis to understand the source of
this improvement, and find that identifying the relationship between a claim
and a rationale reporting a scientific finding often requires understanding the
context in which the rationale appears. By making labeling decisions based on
all available context, LongChecker achieves better performance on cases
requiring this type of understanding. In addition, we show that LongChecker is
able to leverage weakly-supervised in-domain data to facilitate few-shot domain
adaptation for scientific claim verification.
- Abstract(参考訳): 科学的クレーム検証のためのLongCheckerシステムを紹介する。
科学的クレームと証拠を含む研究要約が与えられた後、ロングチェッカーはveracityラベルを予測し、クレームと要約の共有エンコーディングに基づいてマルチタスク方式で合理性をサポートすることを識別する。
SciFactデータセット上で実験を行い、LongCheckerが最先端のパフォーマンスを達成することを確認する。
我々は、この改善の原点を理解するために分析を行い、クレームと科学的発見を報告する根拠との関係を特定するには、しばしばその根拠が現れる文脈を理解する必要があることを見出します。
利用可能なすべてのコンテキストに基づいてラベル決定を行うことで、LongCheckerはこの種の理解を必要とするケースでより良いパフォーマンスを達成する。
さらに,longcheckerは,弱教師付きドメイン内データを活用することで,科学的なクレーム検証のための少数ショットのドメイン適応が容易になることを示す。
関連論文リスト
- CiteAudit: You Cited It, But Did You Read It? A Benchmark for Verifying Scientific References in the LLM Era [51.63024682584688]
大規模言語モデル (LLM) は新たなリスクを導入している。
本稿では,科学文献における幻覚的引用のための総合的なベンチマークおよび検出フレームワークについて紹介する。
我々のフレームワークは、精度と解釈可能性の両方において、先行手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-02-26T19:17:39Z) - From Fluent to Verifiable: Claim-Level Auditability for Deep Research Agents [8.49451413641847]
研究生成が安価になるにつれて、監査可能性がボトルネックになる、と我々は主張する。
この観点からは,ディープリサーチエージェントの第一級設計および評価対象として,クレームレベルの監査性を提案する。
論文 参考訳(メタデータ) (2026-02-14T19:39:15Z) - MEVER: Multi-Modal and Explainable Claim Verification with Graph-based Evidence Retrieval [14.150601513832724]
本稿では,エビデンス検索,マルチモーダルクレーム検証,説明生成を共同で行う新しいモデルを提案する。
マルチモーダル検証のためのクレームとエビデンスを一体化するためのトークンおよびエビデンスレベルの融合を提案する。
ほぼすべてのデータセットが一般的なドメインにあるので、クレーム検証コミュニティを補完するために、AIドメインに科学データセットであるAIChartClaimを作成します。
論文 参考訳(メタデータ) (2026-02-10T17:44:57Z) - RIGOURATE: Quantifying Scientific Exaggeration with Evidence-Aligned Claim Evaluation [29.44948404858214]
RIGOURATEは、紙の本体から証拠を回収し、各クレームにオーバーステートメントスコアを割り当てる。
このフレームワークは、ICLRとNeurIPSの論文から10K以上のクレームエビデンスセットのデータセットで構成されている。
論文 参考訳(メタデータ) (2026-01-07T19:36:08Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - Robust Claim Verification Through Fact Detection [17.29665711917281]
我々の新しいアプローチであるFactDetectは、大規模言語モデル(LLM)を利用して、証拠から簡潔な事実文を生成する。
生成された事実は、クレームとエビデンスと組み合わせられる。
提案手法は,F1スコアにおいて,教師付きクレーム検証モデルにおいて,15%の競合結果を示す。
論文 参考訳(メタデータ) (2024-07-25T20:03:43Z) - RU22Fact: Optimizing Evidence for Multilingual Explainable Fact-Checking on Russia-Ukraine Conflict [34.2739191920746]
高品質な証拠は、ファクトチェックシステムを強化する上で重要な役割を担っている。
本稿では,Webから証拠を自動的に抽出・要約する大規模言語モデルを提案する。
RU22Factは、ロシアとウクライナの紛争に関する説明可能な事実チェックデータセットであり、16Kサンプルのうち2022年に構築された。
論文 参考訳(メタデータ) (2024-03-25T11:56:29Z) - From Relevance to Utility: Evidence Retrieval with Feedback for Fact Verification [118.03466985807331]
我々は、FVの関連性よりも、クレーム検証者が取得した証拠から導出する実用性に焦点を当てる必要があると論じる。
本稿では,エビデンス検索プロセスの最適化に,クレーム検証器からのフィードバックを取り入れたフィードバックベースのエビデンス検索手法(FER)を提案する。
論文 参考訳(メタデータ) (2023-10-18T02:59:38Z) - Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - SciFact-Open: Towards open-domain scientific claim verification [61.288725621156864]
本稿では,科学的クレーム検証システムの性能評価を目的とした新しいテストコレクションであるSciFact-Openを提案する。
我々は、4つの最先端の科学的クレーム検証モデルの上位予測をプールし、注釈付けすることで、科学的クレームの証拠を収集する。
その結果,SciFact-Openへの一般化に苦慮する小形コーパス上で開発されたシステムは,少なくとも15F1の性能低下を示すことがわかった。
論文 参考訳(メタデータ) (2022-10-25T05:45:00Z) - Generating Scientific Claims for Zero-Shot Scientific Fact Checking [54.62086027306609]
科学言語の複雑さと大量のトレーニングデータが不足しているため、自動科学的事実チェックは困難である。
科学的な文から1つ以上の原子的かつ検証可能なクレームを生成するための科学的クレーム生成を提案する。
また, バイオメディカルクレームのゼロショット事実チェックにも有用であることを示す。
論文 参考訳(メタデータ) (2022-03-24T11:29:20Z) - RerrFact: Reduced Evidence Retrieval Representations for Scientific
Claim Verification [4.052777228128475]
本稿では,各予測サブタスクに対して連続的に二項分類を行うモジュラー手法を提案する。
我々は、まず非関連な有理を区別し、与えられた主張に対する支持または反証する有理を識別する2段階のスタンス予測を行う。
実験的に、我々のシステムRerrFactは微調整もシンプルな設計もせず、モデルパラメータのごく一部はリーダーボード上で競争的に公正である。
論文 参考訳(メタデータ) (2022-02-05T21:52:45Z) - Graph-based Retrieval for Claim Verification over Cross-Document
Evidence [0.6853165736531939]
グラフに基づくアプローチは、断片化された証拠を特定するのに役立つと推測する。
我々はこの仮説を、コーパス全体にわたって、上述したエンティティによってテキスト部分を相互接続する大きなグラフを構築して検証した。
実験により,グラフ構造を活用することは,クレームに関連する通路のごく一部を特定する上で有益であることが確認された。
論文 参考訳(メタデータ) (2021-09-13T14:54:26Z) - Abstract, Rationale, Stance: A Joint Model for Scientific Claim
Verification [18.330265729989843]
我々は,3つのタスクのモジュールを,機械読解フレームワークを用いて共同で学習するアプローチをARSJointとして提案する。
ベンチマークデータセットSciFactの実験結果は、我々のアプローチが既存の作業より優れていることを示している。
論文 参考訳(メタデータ) (2021-09-13T10:07:26Z) - Fact or Fiction: Verifying Scientific Claims [53.29101835904273]
本稿では,研究文献から,REFUTESやREFUTESが与えられた科学的主張であることを示す証拠を含む抄録を抽出する新たな課題である,科学的クレーム検証を紹介する。
SciFactは、1.4Kの専門家による科学的主張と、ラベルや合理性に注釈を付けたエビデンスを含む抽象概念を組み合わせたデータセットである。
このシステムは,CORD-19コーパスの証拠を同定することにより,新型コロナウイルス関連クレームを検証可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T17:22:57Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。