論文の概要: MRT at IberLEF-2025 PRESTA Task: Maximizing Recovery from Tables with Multiple Steps
- arxiv url: http://arxiv.org/abs/2507.12981v1
- Date: Thu, 17 Jul 2025 10:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.454018
- Title: MRT at IberLEF-2025 PRESTA Task: Maximizing Recovery from Tables with Multiple Steps
- Title(参考訳): IberLEF-2025 PRESTAタスクでのMRT: 複数のステップでテーブルからのリカバリを最大化する
- Authors: Maximiliano Hormazábal Lagos, Álvaro Bueno Sáez, Héctor Cerezo-Costas, Pedro Alonso Doval, Jorge Alcalde Vesteiro,
- Abstract要約: 本稿では,IberLEF 2025 Task PRESTA: Questions and Answers about Tables in Spanishについて述べる。
LLMを用いてPythonのコード生成を実装し,テーブルのフィルタリングと処理を行う。
このアプローチでは、タスクの精度スコアが85%に達しました。
- 参考スコア(独自算出の注目度): 0.157286095422595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our approach for the IberLEF 2025 Task PRESTA: Preguntas y Respuestas sobre Tablas en Espa\~nol (Questions and Answers about Tables in Spanish). Our solution obtains answers to the questions by implementing Python code generation with LLMs that is used to filter and process the table. This solution evolves from the MRT implementation for the Semeval 2025 related task. The process consists of multiple steps: analyzing and understanding the content of the table, selecting the useful columns, generating instructions in natural language, translating these instructions to code, running it, and handling potential errors or exceptions. These steps use open-source LLMs and fine-grained optimized prompts for each step. With this approach, we achieved an accuracy score of 85\% in the task.
- Abstract(参考訳): 本稿では,IberLEF 2025 Task PRESTA: Preguntas y Respuestas sobre Tablas en Espa\~nol (Requestions and Answers about Tables in Spanish)について述べる。
LLMを用いてPythonのコード生成を実装し,テーブルのフィルタリングと処理を行う。
このソリューションは、Semeval 2025 関連タスクの MRT 実装から進化した。
プロセスは、テーブルの内容を分析し、理解し、有用な列を選択し、自然言語で命令を生成し、これらの命令をコードに翻訳し、実行し、潜在的なエラーや例外を処理する。
これらのステップは、オープンソースのLLMと、各ステップに対してきめ細かい最適化プロンプトを使用する。
このアプローチにより,タスクの精度は85%向上した。
関連論文リスト
- MRT at SemEval-2025 Task 8: Maximizing Recovery from Tables with Multiple Steps [0.157286095422595]
textitSemEval 2025 Task 8: Question-Answering over Tabular Data Challenge。
我々の戦略は、LLMを使ったPythonコード生成を利用してテーブルと対話し、質問に対する回答を得る。
論文 参考訳(メタデータ) (2025-05-28T11:50:22Z) - Program of Equations Thoughts to Solve Algebra Word Problems [0.0]
方程式のプログラム(Program of Equations Thoughts)は、解を推論するタスクを、方程式を予測し、コードを生成する2段階のタスクに変換する。
PENデータセットとALG514データセットの95.3%と98.0%の精度を実現し,SOTA(State-of-the-art)を新たに設定した。
ゼロショットPOETは、DRAW-1Kデータセットで95.5%のSOTA結果も達成している。
論文 参考訳(メタデータ) (2025-05-26T16:12:04Z) - Accurate and Regret-aware Numerical Problem Solver for Tabular Question Answering [29.384514074911955]
本研究では,大規模言語モデルを用いたTabLaPというモデルを提案する。
TabLaPは最先端のモデルよりもかなり正確であることを示し、2つのデータセットで解の精度を5.7%と5.8%改善した。
論文 参考訳(メタデータ) (2024-10-10T05:34:00Z) - TACT: Advancing Complex Aggregative Reasoning with Information Extraction Tools [51.576974932743596]
大規模言語モデル(LLM)は、テキスト間の情報の集約を必要とするクエリではよく機能しないことが多い。
TACTには、1つ以上のテキストに散らばる縫合情報を要求する難しい命令が含まれている。
既存のテキストと関連するテーブルのデータセットを活用することで、このデータセットを構築します。
現代のLLMはいずれも,このデータセットでは性能が悪く,精度が38%以下であることが実証された。
論文 参考訳(メタデータ) (2024-06-05T20:32:56Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - TABLET: Learning From Instructions For Tabular Data [46.62140500101618]
TABLETは、20の多様なデータセットのベンチマークで、その説明、粒度、技術的に異なる命令をアノテートする。
テキスト内命令はFlan-T5 11bのゼロショットF1性能を平均44%向上し,TABLETのChatGPTは13%向上した。
論文 参考訳(メタデータ) (2023-04-25T23:07:20Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。