論文の概要: T-REX: Table -- Refute or Entail eXplainer
- arxiv url: http://arxiv.org/abs/2508.14055v1
- Date: Fri, 08 Aug 2025 19:00:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.527564
- Title: T-REX: Table -- Refute or Entail eXplainer
- Title(参考訳): T-REX: Table -- Refute または Entail eXplainer
- Authors: Tim Luka Horstmann, Baptiste Geisenberger, Mehwish Alam,
- Abstract要約: T-REX (T-REX: Table -- Refute or Entail eXplainer) は、マルチモーダルな多言語テーブル上でクレーム検証を行う最初のインタラクティブなツールである。
正確性と透明性のために設計されたT-REXは、高度なファクトチェック技術へのアクセスを提供することで、非専門家に権限を与える。
- 参考スコア(独自算出の注目度): 0.12289361708127876
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Verifying textual claims against structured tabular data is a critical yet challenging task in Natural Language Processing with broad real-world impact. While recent advances in Large Language Models (LLMs) have enabled significant progress in table fact-checking, current solutions remain inaccessible to non-experts. We introduce T-REX (T-REX: Table -- Refute or Entail eXplainer), the first live, interactive tool for claim verification over multimodal, multilingual tables using state-of-the-art instruction-tuned reasoning LLMs. Designed for accuracy and transparency, T-REX empowers non-experts by providing access to advanced fact-checking technology. The system is openly available online.
- Abstract(参考訳): 構造化された表データに対するテキストによるクレームの検証は、自然言語処理において、幅広い実世界への影響を伴う重要な課題である。
近年のLLM(Large Language Models)の進歩は、テーブルファクトチェックの大幅な進歩を実現しているが、現在のソリューションは、非専門家にはアクセスできないままである。
本稿では,T-REX (T-REX: Table -- Refute or Entail eXplainer) を紹介する。
正確性と透明性のために設計されたT-REXは、高度なファクトチェック技術へのアクセスを提供することで、非専門家に権限を与える。
システムはオンラインで公開されている。
関連論文リスト
- Multimodal Tabular Reasoning with Privileged Structured Information [67.40011423365712]
ブリッジインfOrmation (sc Turbo) を用いたタブウラー推論(TabUlar Reasoning)について紹介する。
sc TurboはDeepSeek-R1をベースにした構造対応の推論トレースジェネレータの恩恵を受ける。
sc Turboは、複数のデータセットで最先端のパフォーマンス(+7.2%対以前のSOTA)を達成する。
論文 参考訳(メタデータ) (2025-06-04T15:46:30Z) - TableEval: A Real-World Benchmark for Complex, Multilingual, and Multi-Structured Table Question Answering [18.173773939709733]
既存のTableQAベンチマークは、単純なフラットテーブルにフォーカスし、データ漏洩に悩まされることがしばしばある。
現実的なTableQAタスク上でLLMを評価するために設計された新しいベンチマークであるTableEvalを紹介する。
データ漏洩のリスクを最小限に抑えるため、最近の実世界の文書からすべてのデータを収集する。
論文 参考訳(メタデータ) (2025-06-04T13:39:01Z) - Enhancing Large Vision-Language Models with Layout Modality for Table Question Answering on Japanese Annual Securities Reports [4.2134954427867]
In-table テキストコンテンツとレイアウト機能を組み込んだ LVLM を用いたテーブル理解手法を提案する。
実験により,これらの補助モーダルは性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-05-23T08:36:22Z) - Scalable Representation Learning for Multimodal Tabular Transactions [14.18267117657451]
これらの課題に対して、革新的でスケーラブルなソリューションを提示します。
トランザクションとテキストのモダリティをインターリーブするパラメータ効率の良いデコーダを提案する。
我々は,大規模な合成決済トランザクションデータセット上でのソリューションの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-10T12:18:42Z) - TART: An Open-Source Tool-Augmented Framework for Explainable Table-based Reasoning [61.14586098005874]
現在のLarge Language Models (LLM) は、テーブル構造を理解し、正確な数値推論を適用する能力に制限がある。
LLMと特殊なツールを統合するTART(Tool-Augmented Reasoning framework for Tables)を紹介した。
TARTには、正確なデータ表現を保証するテーブルフォーマッター、特定の計算ツールを開発するツールメーカー、説明可能性を維持するための説明ジェネレータの3つの重要なコンポーネントが含まれている。
論文 参考訳(メタデータ) (2024-09-18T06:19:59Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。