論文の概要: SODBench: A Large Language Model Approach to Documenting Spreadsheet Operations
- arxiv url: http://arxiv.org/abs/2510.19864v1
- Date: Wed, 22 Oct 2025 01:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.420538
- Title: SODBench: A Large Language Model Approach to Documenting Spreadsheet Operations
- Title(参考訳): SODBench: スプレッドシート操作のドキュメント化のための大規模言語モデルアプローチ
- Authors: Amila Indika, Igor Molybog,
- Abstract要約: 本稿では,スプレッドシート操作から人間が読める説明を生成するAIタスクである,スプレッドシート操作文書(SOD)を紹介する。
本稿では,111のスプレッドシート操作コードスニペットのベンチマークを,対応する自然言語要約と組み合わせて提示する。
以上の結果から,LSMは正確なスプレッドシートドキュメンテーションを生成できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.3669571918482655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous knowledge workers utilize spreadsheets in business, accounting, and finance. However, a lack of systematic documentation methods for spreadsheets hinders automation, collaboration, and knowledge transfer, which risks the loss of crucial institutional knowledge. This paper introduces Spreadsheet Operations Documentation (SOD), an AI task that involves generating human-readable explanations from spreadsheet operations. Many previous studies have utilized Large Language Models (LLMs) for generating spreadsheet manipulation code; however, translating that code into natural language for SOD is a less-explored area. To address this, we present a benchmark of 111 spreadsheet manipulation code snippets, each paired with a corresponding natural language summary. We evaluate five LLMs, GPT-4o, GPT-4o-mini, LLaMA-3.3-70B, Mixtral-8x7B, and Gemma2-9B, using BLEU, GLEU, ROUGE-L, and METEOR metrics. Our findings suggest that LLMs can generate accurate spreadsheet documentation, making SOD a feasible prerequisite step toward enhancing reproducibility, maintainability, and collaborative workflows in spreadsheets, although there are challenges that need to be addressed.
- Abstract(参考訳): 多くの知識労働者がスプレッドシートをビジネス、会計、金融に利用している。
しかし、スプレッドシートの体系的なドキュメンテーション手法が欠如しているため、自動化、協調、知識伝達が妨げられ、重要な機関的知識の喪失を招きかねない。
本稿では,スプレッドシート操作から人間が読める説明を生成するAIタスクである,スプレッドシート操作文書(SOD)を紹介する。
これまでの多くの研究は、スプレッドシート操作コードを生成するためにLarge Language Models (LLMs) を使用してきたが、SODのための自然言語への翻訳は、あまり探索されていない分野である。
これを解決するために,111のスプレッドシート操作コードスニペットのベンチマークを示す。
GPT-4o, GPT-4o-mini, LLaMA-3.3-70B, Mixtral-8x7B, Gemma2-9Bの5つのLLMをBLEU, GLEU, ROUGE-L, METEOR測定値を用いて評価した。
LLMは正確なスプレッドシートのドキュメンテーションを作成でき、SODをスプレッドシートの再現性、保守性、協調的なワークフローを強化するための必要不可欠なステップとすることができるが、対処すべき課題がある。
関連論文リスト
- Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [28.47810405584841]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Extract Information from Hybrid Long Documents Leveraging LLMs: A Framework and Dataset [52.286323454512996]
大規模言語モデル(LLM)は、テキストと表のデータを含むハイブリッドテキストを理解し解析することができる。
本研究では,LLMがHLD(Hybrid Long Document)を処理できるようにするための自動情報抽出フレームワーク(AIE)を提案し,HLDからの情報抽出の4つの重要な側面を分析する実験を行った。
HLDにおけるデータセット不足の問題に対処し、今後の作業を支援するために、金融レポート数値抽出(FINE)データセットを提案する。
論文 参考訳(メタデータ) (2024-12-28T07:54:14Z) - SpreadsheetLLM: Encoding Spreadsheets for Large Language Models [44.08092362611575]
本研究では,スプレッドシート上での大規模言語モデル(LLM)の効率的な符号化手法であるSpreadsheetLLMを紹介する。
LLMのスプレッドシートを効果的に圧縮する革新的な符号化フレームワークである SheetCompressor を開発した。
シート圧縮機を用いた微調整LDMは平均圧縮比25倍であり、最先端の78.9%のF1スコアを達成し、既存の最高のモデルよりも12.3%上回っている。
論文 参考訳(メタデータ) (2024-07-12T06:34:21Z) - TableLLM: Enabling Tabular Data Manipulation by LLMs in Real Office Usage Scenarios [51.66718740300016]
TableLLMは80億のパラメータを持つ堅牢な大規模言語モデル(LLM)である。
TableLLMはデータ操作タスクを巧みに扱うために構築されている。
我々は、ユーザインタラクションのためのモデルチェックポイント、ソースコード、ベンチマーク、Webアプリケーションをリリースした。
論文 参考訳(メタデータ) (2024-03-28T11:21:12Z) - SheetAgent: Towards A Generalist Agent for Spreadsheet Reasoning and Manipulation via Large Language Models [45.930510174309845]
大規模言語モデル(LLM)は,最近,スプレッドシートの自動操作のために試みられている。
SheetAgentはPlanner、Informer、Retrieverの3つの共同モジュールで構成されている。
SheetAgentはベースラインよりも複数のベンチマークで20~40%のパスレート改善を実現している。
論文 参考訳(メタデータ) (2024-03-06T11:48:08Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。