論文の概要: Trification: A Comprehensive Tree-based Strategy Planner and Structural Verification for Fact-Checking
- arxiv url: http://arxiv.org/abs/2512.00267v1
- Date: Sat, 29 Nov 2025 01:12:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.140073
- Title: Trification: A Comprehensive Tree-based Strategy Planner and Structural Verification for Fact-Checking
- Title(参考訳): Trification: ツリーベースの総合戦略プランナとFact-Checkingの構造検証
- Authors: Anab Maulana Barik, Shou Ziyi, Yang Kaiwen, Yang Qi, Shen Xin,
- Abstract要約: 本稿では,Trificationと呼ばれる新しいファクトチェックフレームワークを提案する。
クレームの完全なカバレッジを保証するために、包括的な検証アクションセットを生成することから始まります。
その後、アクション間の論理的相互作用をモデル化するために、これらのアクションを依存性グラフに構造化した。
- 参考スコア(独自算出の注目度): 1.4537814945365966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Technological advancement allows information to be shared in just a single click, which has enabled the rapid spread of false information. This makes automated fact-checking system necessary to ensure the safety and integrity of our online media ecosystem. Previous methods have demonstrated the effectiveness of decomposing the claim into simpler sub-tasks and utilizing LLM-based multi agent system to execute them. However, those models faces two limitations: they often fail to verify every component in the claim and lack of structured framework to logically connect the results of sub-tasks for a final prediction. In this work, we propose a novel automated fact-checking framework called Trification. Our framework begins by generating a comprehensive set of verification actions to ensure complete coverage of the claim. It then structured these actions into a dependency graph to model the logical interaction between actions. Furthermore, the graph can be dynamically modified, allowing the system to adapt its verification strategy. Experimental results on two challenging benchmarks demonstrate that our framework significantly enhances fact-checking accuracy, thereby advancing current state-of-the-art in automated fact-checking system.
- Abstract(参考訳): 技術進歩により、情報はワンクリックで共有できるようになり、偽情報の急速な拡散を可能にした。
これにより、オンラインメディアエコシステムの安全性と整合性を確保するために、ファクトチェックの自動化が必要になります。
従来の手法では, クレームを単純なサブタスクに分解し, LLMベースのマルチエージェントシステムを用いて実行することが実証されている。
しかし、これらのモデルには2つの制限がある: クレームのすべてのコンポーネントを検証するのに失敗することが多く、最終的な予測のためにサブタスクの結果を論理的に結合する構造化されたフレームワークがない。
本研究では,Trificationと呼ばれる新しいファクトチェックフレームワークを提案する。
私たちのフレームワークは、クレームの完全なカバレッジを保証するために、包括的な検証アクションセットを生成することから始まります。
その後、アクション間の論理的相互作用をモデル化するために、これらのアクションを依存性グラフに構造化した。
さらに、グラフを動的に修正することで、システムは検証戦略に適応することができる。
2つの挑戦的なベンチマーク実験の結果、我々のフレームワークはファクトチェックの精度を大幅に向上し、自動化されたファクトチェックシステムにおける最先端の状態を推し進めることを示した。
関連論文リスト
- Metacognitive Self-Correction for Multi-Agent System via Prototype-Guided Next-Execution Reconstruction [58.51530390018909]
大規模言語モデルに基づくマルチエージェントシステムは、協調的な問題解決において優れているが、エラーのカスケードには脆弱である。
我々は,MASにリアルタイム,教師なし,ステップレベルの誤り検出と自己補正を付与するメタ認知フレームワークMASCを提案する。
論文 参考訳(メタデータ) (2025-10-16T05:35:37Z) - Demystifying deep search: a holistic evaluation with hint-free multi-hop questions and factorised metrics [89.1999907891494]
We present WebDetective, a benchmark of hint-free multi-hop questions with a control Wikipedia sandbox。
25の最先端モデルに対する我々の評価は、すべてのアーキテクチャにまたがる体系的な弱点を明らかにしている。
私たちはエージェントワークフローであるEvidenceLoopを開発し、ベンチマークが特定する課題を明示的にターゲットしています。
論文 参考訳(メタデータ) (2025-10-01T07:59:03Z) - Towards Robust Fact-Checking: A Multi-Agent System with Advanced Evidence Retrieval [1.515687944002438]
デジタル時代における誤報の急速な拡散は、世論に重大な課題をもたらす。
従来の人間主導のファクトチェック手法は信頼できるが、オンラインコンテンツの量と速度に苦慮している。
本稿では, 精度, 効率, 説明性を向上する自動ファクトチェックのための新しいマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2025-06-22T02:39:27Z) - DEFAME: Dynamic Evidence-based FAct-checking with Multimodal Experts [35.952854524873246]
Dynamic Evidence-based FAct-checking with Multimodal Experts (DEFAME)は、オープンドメイン、テキストイメージクレーム検証のためのゼロショットMLLMパイプラインである。
DEFAMEは6段階のプロセスで動作し、ツールと検索深度を動的に選択し、テキストおよび視覚的証拠を抽出し、評価する。
論文 参考訳(メタデータ) (2024-12-13T19:11:18Z) - A SAT-based approach to rigorous verification of Bayesian networks [13.489622701621698]
ベイジアンネットワークに適した検証フレームワークを導入し,これらの欠点に対処する。
本フレームワークは,(1)ベイジアンネットワークをブール論理リテラルに変換する2段階のコンパイルおよび符号化スキームと,(2)これらのリテラルを活用して制約として符号化された様々なプロパティを検証する形式的検証クエリの2つの主要なコンポーネントから構成される。
検証手法の効率をベンチマークし、実世界のシナリオでその実用性を実証する。
論文 参考訳(メタデータ) (2024-08-02T03:06:51Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [31.38942054994932]
フェデレーテッド・ラーニング(FL)システムは敵の攻撃を受けやすい。
RedJasperは、現実世界のFLデプロイメント用に特別に設計された2段階の異常検出手法である。
第1段階で不審な活動を特定し、第2段階を条件付きで活性化し、不審な局所モデルをさらに精査する。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。