論文の概要: RePanda: Pandas-powered Tabular Verification and Reasoning
- arxiv url: http://arxiv.org/abs/2503.11921v1
- Date: Fri, 14 Mar 2025 23:12:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:36.477387
- Title: RePanda: Pandas-powered Tabular Verification and Reasoning
- Title(参考訳): RePanda: パンダを使ったタブラル検証と推論
- Authors: Atoosa Malemir Chegini, Keivan Rezaei, Hamid Eghbalzadeh, Soheil Feizi,
- Abstract要約: RePandaは、クレームを実行可能なパンダクエリに変換する構造化された事実検証手法である。
RePandaをトレーニングするために、TabFactから派生した構造化データセットであるPanTabFactを構築した。
そこで我々はPanWikiを紹介した。PanWikiはWikiTableQuestionsをパンダのクエリにマッピングするデータセットである。
- 参考スコア(独自算出の注目度): 47.373245682678515
- License:
- Abstract: Fact-checking tabular data is essential for ensuring the accuracy of structured information. However, existing methods often rely on black-box models with opaque reasoning. We introduce RePanda, a structured fact verification approach that translates claims into executable pandas queries, enabling interpretable and verifiable reasoning. To train RePanda, we construct PanTabFact, a structured dataset derived from the TabFact train set, where claims are paired with executable queries generated using DeepSeek-Chat and refined through automated error correction. Fine-tuning DeepSeek-coder-7B-instruct-v1.5 on PanTabFact, RePanda achieves 84.09% accuracy on the TabFact test set. To evaluate Out-of-Distribution (OOD) generalization, we interpret question-answer pairs from WikiTableQuestions as factual claims and refer to this dataset as WikiFact. Without additional fine-tuning, RePanda achieves 84.72% accuracy on WikiFact, significantly outperforming all other baselines and demonstrating strong OOD robustness. Notably, these results closely match the zero-shot performance of DeepSeek-Chat (671B), indicating that our fine-tuning approach effectively distills structured reasoning from a much larger model into a compact, locally executable 7B model. Beyond fact verification, RePanda extends to tabular question answering by generating executable queries that retrieve precise answers. To support this, we introduce PanWiki, a dataset mapping WikiTableQuestions to pandas queries. Fine-tuning on PanWiki, RePanda achieves 75.1% accuracy in direct answer retrieval. These results highlight the effectiveness of structured execution-based reasoning for tabular verification and question answering. We have publicly released the dataset on Hugging Face at datasets/AtoosaChegini/PanTabFact.
- Abstract(参考訳): 構造化情報の正確性を確保するためには、ファクトチェック表データが必要である。
しかし、既存の手法はしばしば不透明な推論を持つブラックボックスモデルに依存している。
RePandaは,クレームを実行可能なパンダクエリに変換し,解釈可能かつ検証可能な推論を可能にする,構造化された事実検証手法である。
RePanda をトレーニングするために,TabFact から派生した構造化データセットである PanTabFact を構築した。
微調整のDeepSeek-coder-7B-instruct-v1.5 on PanTabFact, RePandaはTabFactテストセットで84.09%の精度を達成した。
本研究では, WikiTableQuestions からの質問応答対を事実的クレームとして解釈し, このデータセットを WikiFact と呼ぶ。
さらなる微調整なしに、RePandaはWikiFactで84.72%の精度を達成し、他の全てのベースラインを著しく上回り、強力なOODロバスト性を示している。
これらの結果はDeepSeek-Chat (671B) のゼロショット性能と密接に一致し、我々の微調整手法はより大きなモデルからコンパクトで局所実行可能な7Bモデルへの構造的推論を効果的に蒸留することを示している。
事実検証以外にも、RePandaは正確な回答を検索する実行可能なクエリを生成することで、表形式の質問応答に拡張する。
そこで我々はPanWikiを紹介した。PanWikiはWikiTableQuestionsをパンダのクエリにマッピングするデータセットである。
PanWikiの微調整により、RePandaは75.1%の精度で直接回答を検索できる。
これらの結果は,表層検証と質問応答における構造化実行に基づく推論の有効性を浮き彫りにした。
私たちはHugging Faceのデータセットをデータセット/AtoosaChegini/PanTabFactで公開しました。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Large Scale Transfer Learning for Tabular Data via Language Modeling [30.44823668480631]
グラフ予測のための言語モデルであるTabuLa-8Bを提案する。
4百万を超えるユニークなテーブルから210億行を超えるデータセットを使用します。
その結果,TabuLa-8Bはランダムな推測よりも15ポイント以上高い未確認のテーブル上でゼロショット精度を持つことがわかった。
論文 参考訳(メタデータ) (2024-06-17T18:58:20Z) - Rethinking Pre-Training in Tabular Data: A Neighborhood Embedding Perspective [71.45945607871715]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
中心となる考え方は、データインスタンスを共有機能空間に埋め込むことで、各インスタンスは、近隣の固定数とそのラベルまでの距離で表現される。
101データセットの大規模な実験は、微調整の有無にかかわらず、分類タスクと回帰タスクの両方においてTabPTMの有効性を確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - PandaLM: An Automatic Evaluation Benchmark for LLM Instruction Tuning Optimization [63.55408755562274]
審査用大言語モデル PandaLM は、いくつかの大きな言語モデルが与えられた優れたモデルを区別するために訓練されている。
PandaLMは、相対的簡潔さ、明快さ、指示への固執、包括性、形式性などの重要な主観的要因に対処する。
PandaLMはGPT-3.5の評価能力の93.75%、テストデータセットのF1スコアの88.28%を達成している。
論文 参考訳(メタデータ) (2023-06-08T10:41:56Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - TabPert: An Effective Platform for Tabular Perturbation [6.555691728969102]
TabPertを使用すると、ユーザはテーブルを更新し、関連する仮説を変更し、ラベルを変更し、仮説分類に重要な行をハイライトすることができる。
これらのカウンターファクトテーブルと仮説は、メタデータと同様に、既存のモデルの欠点を体系的かつ定量的に探求するために使用することができる。
論文 参考訳(メタデータ) (2021-08-02T02:37:48Z) - FEVEROUS: Fact Extraction and VERification Over Unstructured and
Structured information [21.644199631998482]
我々は、87,026の検証済みクレームからなる新しいデータセットとベンチマーク、Fact extract and VERification Over Unstructured and Structured Information (FEVEROUS)を導入する。
それぞれのクレームには、ウィキペディアの表の文やセルの形での証拠と、この証拠が評決に達するのに十分な情報を提供していないかどうかを示すラベルが添付されている。
本研究は, 請求書の正しい証拠と18%の判定の両方を予測できる, テキストや表に対する請求を検証するためのベースラインを開発する。
論文 参考訳(メタデータ) (2021-06-10T12:47:36Z) - BreakingBERT@IITK at SemEval-2021 Task 9 : Statement Verification and
Evidence Finding with Tables [1.78256232654567]
我々は,事実の検証と証拠発見の問題を表データ上で解決する。
与えられたSemTabFactデータセットのベースラインと最先端のアプローチを比較します。
また,自然言語推論タスクの一形態としてエビデンスを解くための新しいアプローチCellBERTを提案する。
論文 参考訳(メタデータ) (2021-04-07T11:41:07Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。