論文の概要: GraphCheck: Multi-Path Fact-Checking with Entity-Relationship Graphs
- arxiv url: http://arxiv.org/abs/2502.20785v2
- Date: Fri, 06 Jun 2025 13:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:42.865852
- Title: GraphCheck: Multi-Path Fact-Checking with Entity-Relationship Graphs
- Title(参考訳): GraphCheck: エンティティ関連グラフによるマルチパスFact-Checking
- Authors: Hyewon Jeon, Jay-Yoon Lee,
- Abstract要約: GraphCheckは、クレームを構造化および体系的な検証のためにエンティティ関連グラフに変換するフレームワークである。
DP-GraphCheckは、ダイレクトプロンプトとGraphCheckを適応的に選択するために軽量戦略セレクタを使用する変種である。
提案手法は既存の手法,特にマルチホップクレームよりも優れている。
- 参考スコア(独自算出の注目度): 5.10832476049103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated fact-checking aims to assess the truthfulness of textual claims based on relevant evidence. However, verifying complex claims that require multi-hop reasoning remains a significant challenge. We propose GraphCheck, a novel framework that transforms claims into entity-relationship graphs for structured and systematic verification. By explicitly modeling both explicit and latent entities and exploring multiple reasoning paths, GraphCheck improves verification robustness. While GraphCheck excels in complex scenarios, it may be unnecessarily elaborate for simpler claims. To address this, we introduce DP-GraphCheck, a variant that employs a lightweight strategy selector to adaptively choose between direct prompting and GraphCheck. This selective mechanism improves both accuracy and efficiency by applying the appropriate level of reasoning to each claim. Experiments on the HOVER and EX-FEVER datasets demonstrate that our approach outperforms existing methods, particularly on multi-hop claims. Moreover, the strategy selection mechanism in DP-GraphCheck generalizes well to other fact-checking pipelines, highlighting the versatility of our framework.
- Abstract(参考訳): 自動事実チェックは、関連する証拠に基づいて、テキストクレームの真偽を評価することを目的としている。
しかし、マルチホップ推論を必要とする複雑な主張を検証することは大きな課題である。
構造化および体系的検証のために,請求項をエンティティ関係グラフに変換する新しいフレームワークであるGraphCheckを提案する。
明示的なエンティティと潜在エンティティの両方を明示的にモデル化し、複数の推論パスを探索することによって、GraphCheckは信頼性を向上する。
GraphCheckは複雑なシナリオに優れていますが、単純なクレームには必要以上に精巧です。
そこで我々はDP-GraphCheckを紹介した。DP-GraphCheckは軽量な戦略セレクタを用いて直接プロンプトとGraphCheckを適応的に選択する。
この選択的なメカニズムは、各クレームに適切な推論レベルを適用することにより、正確性と効率の両方を改善する。
HOVERデータセットとEX-FEVERデータセットの実験は、我々のアプローチが既存の手法、特にマルチホップクレームよりも優れていることを示した。
さらに、DP-GraphCheckの戦略選択機構は、他のファクトチェックパイプラインとよく似ており、我々のフレームワークの汎用性を強調している。
関連論文リスト
- A Graph-based Verification Framework for Fact-Checking [25.875698681028794]
ファクトチェックのためのグラフベースのフレームワークGraphFCを提案する。
この中核的な考え方に基づいて,ファクトチェックのためのグラフベースのフレームワークであるGraphFCを提案する。
論文 参考訳(メタデータ) (2025-03-10T13:02:29Z) - SuperRAG: Beyond RAG with Layout-Aware Graph Modeling [24.242783763410213]
本稿では,マルチモーダルRAGのためのレイアウト対応グラフモデリングを提案する。
提案手法は,グラフ構造を用いてマルチモダリティの関係を考慮に入れた。
入力文書の構造は、テキストチャンク、テーブル、フィギュアの接続で保持される。
論文 参考訳(メタデータ) (2025-02-28T09:05:49Z) - GraphCheck: Breaking Long-Term Text Barriers with Extracted Knowledge Graph-Powered Fact-Checking [26.6457136072675]
抽出した知識グラフを用いてテキスト表現を強化するファクトチェックフレームワークであるtextbftextitGraphCheckを提案する。
GraphCheckは、既存のメソッドで見過ごされることが多いマルチホップ推論チェーンをキャプチャし、正確で効率的なファクトチェックを可能にする。
特に、GraphCheckは既存のファクトチェッカーよりも優れており、最先端のLCMと同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-02-23T09:25:00Z) - Trust but Verify: Programmatic VLM Evaluation in the Wild [62.14071929143684]
プログラム型VLM評価(Programmatic VLM Evaluation、PROVE)は、オープンなクエリに対するVLM応答を評価するための新しいベンチマークパラダイムである。
我々は,PROVE上でのVLMの有効性-実効性トレードオフをベンチマークした結果,両者のバランスが良好であることは極めて少ないことがわかった。
論文 参考訳(メタデータ) (2024-10-17T01:19:18Z) - VSFormer: Mining Correlations in Flexible View Set for Multi-view 3D Shape Understanding [9.048401253308123]
本稿では,複数の視点に対するフレキシブルな組織と明示的な相関学習について検討する。
我々は,集合内のすべての要素の対関係と高次相関を明示的に捉えるために,emphVSFormerというニブルトランスフォーマーモデルを考案した。
ModelNet40、ScanObjectNN、RGBDなど、さまざまな3D認識データセットの最先端結果に到達している。
論文 参考訳(メタデータ) (2024-09-14T01:48:54Z) - CVTGAD: Simplified Transformer with Cross-View Attention for Unsupervised Graph-level Anomaly Detection [11.282629706121039]
教師なしグラフレベルの異常検出のためのクロスビューアテンション付きトランスフォーマーを提案する。
受信フィールドを拡大するために,グラフ内およびグラフ間の両方の観点からノード/グラフ間の関係を利用する,簡易なトランスフォーマベースモジュールを構築した。
我々は、異なるビュー間のビュー共起を直接利用し、ノードレベルとグラフレベルでのビュー間ギャップを埋めるために、クロスビューアテンション機構を設計する。
論文 参考訳(メタデータ) (2024-05-03T03:31:00Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Doc2SoarGraph: Discrete Reasoning over Visually-Rich Table-Text
Documents via Semantic-Oriented Hierarchical Graphs [79.0426838808629]
視覚的にリッチなテーブルテキスト文書に答えるTAT-DQAを提案する。
具体的には、離散推論機能を強化した新しいDoc2SoarGraphフレームワークを提案する。
我々は,TAT-DQAデータセットに関する広範な実験を行い,提案したフレームワークは,テストセット上でのエクサクティマッチ(EM)とF1スコアでそれぞれ17.73%,F1スコアで16.91%の最高のベースラインモデルを上回る結果を得た。
論文 参考訳(メタデータ) (2023-05-03T07:30:32Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - Interactive Visual Pattern Search on Graph Data via Graph Representation
Learning [20.795511688640296]
視覚分析システムGraphQは、ループ内、サンプルベース、サブグラフパターン検索をサポートする。
高速で対話的なクエリをサポートするために、グラフニューラルネットワーク(GNN)を使用して、グラフを固定長潜在ベクトル表現としてエンコードする。
また,NuroAlignと呼ばれるノードアライメントのための新しいGNNを提案し,クエリ結果の検証と解釈を容易にする。
論文 参考訳(メタデータ) (2022-02-18T22:30:28Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z) - Weakly Supervised Visual Semantic Parsing [49.69377653925448]
SGG(Scene Graph Generation)は、画像からエンティティ、述語、それらの意味構造を抽出することを目的としている。
既存のSGGメソッドでは、トレーニングのために何百万もの手動アノテーション付きバウンディングボックスが必要である。
本稿では,ビジュアルセマンティック・パーシング,VSPNet,グラフベースの弱教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-08T03:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。