論文の概要: FinAI Data Assistant: LLM-based Financial Database Query Processing with the OpenAI Function Calling API
- arxiv url: http://arxiv.org/abs/2510.14162v1
- Date: Wed, 15 Oct 2025 23:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.651513
- Title: FinAI Data Assistant: LLM-based Financial Database Query Processing with the OpenAI Function Calling API
- Title(参考訳): FinAI Data Assistant: OpenAI関数呼び出しAPIによるLLMベースの金融データベースクエリ処理
- Authors: Juhyeong Kim, Yejin Kim, Youngbin Lee, Hyunwoo Byun,
- Abstract要約: FinAI Data Assistantは、金融データベース上の自然言語クエリの実践的なアプローチである。
システムは、ユーザリクエストを、検証済みのパラメータ化されたクエリの小さなライブラリにルーティングする。
結果:NASDAQ-100はティッカーマッピングの精度がほぼ完璧であり、S&P500企業にとっては高い。
- 参考スコア(独自算出の注目度): 1.1985612872852671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present FinAI Data Assistant, a practical approach for natural-language querying over financial databases that combines large language models (LLMs) with the OpenAI Function Calling API. Rather than synthesizing complete SQL via text-to-SQL, our system routes user requests to a small library of vetted, parameterized queries, trading generative flexibility for reliability, low latency, and cost efficiency. We empirically study three questions: (RQ1) whether LLMs alone can reliably recall or extrapolate time-dependent financial data without external retrieval; (RQ2) how well LLMs map company names to stock ticker symbols; and (RQ3) whether function calling outperforms text-to-SQL for end-to-end database query processing. Across controlled experiments on prices and fundamentals, LLM-only predictions exhibit non-negligible error and show look-ahead bias primarily for stock prices relative to model knowledge cutoffs. Ticker-mapping accuracy is near-perfect for NASDAQ-100 constituents and high for S\&P~500 firms. Finally, FinAI Data Assistant achieves lower latency and cost and higher reliability than a text-to-SQL baseline on our task suite. We discuss design trade-offs, limitations, and avenues for deployment.
- Abstract(参考訳): We present FinAI Data Assistant, a practical approach for natural- language querying over financial database that which with large language model (LLMs) with the OpenAI Function Calling API。
当社のシステムは、テキストからSQLへの完全SQLの合成ではなく、ユーザリクエストを、検証済みでパラメータ化されたクエリの小さなライブラリにルーティングします。
LLMだけで外部検索なしで時間依存の財務データを確実にリコールまたはエクスポーティングできるかどうか、(RQ2)LLMが企業名をストックティッカーシンボルにどの程度うまくマッピングできるか、(RQ3)関数呼び出しがエンドツーエンドのデータベースクエリ処理においてテキストからSQLに優れるのか、という3つの質問を経験的に研究する。
価格と基本に関するコントロールされた実験全体において、LLMのみの予測は無視できない誤りを示し、主にモデル知識の削減に対する株価に対する先行きバイアスを示す。
ティッカーマッピング精度はNASDAQ-100の構成員にとってほぼ完全であり、S\&P~500企業にとっては高い。
最後に、FinAI Data Assistantは、タスクスイートのテキスト-SQLベースラインよりもレイテンシとコスト、信頼性を低くする。
設計上のトレードオフ、制限、デプロイメントの方法について議論します。
関連論文リスト
- FinAgentBench: A Benchmark Dataset for Agentic Retrieval in Financial Question Answering [57.18367828883773]
FinAgentBenchは、ファイナンスにおける多段階推論によるエージェント検索を評価するためのベンチマークである。
このベンチマークは、S&P-500上場企業に関する26Kのエキスパートアノテート例から成っている。
我々は,最先端モデルの集合を評価し,対象の微調整がエージェント検索性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T22:15:22Z) - Towards Optimizing SQL Generation via LLM Routing [10.586036551269935]
大規模言語モデル(LLM)は複雑なクエリに対して高い精度を達成するが、より単純なクエリでは不要なレイテンシとコストがかかる。
クエリ毎に最もコスト効率の良いLCMを動的に選択するText-to-sqlに対して,最初のLLMルーティング手法を提案する。
コスト削減を図りながら、最も有能なLCMに匹敵する精度を実現する2つのルーティング戦略を提案する。
論文 参考訳(メタデータ) (2024-11-06T23:47:54Z) - Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - CHESS: Contextual Harnessing for Efficient SQL Synthesis [1.9506402593665235]
効率的でスケーラブルなテキスト・ツー・クエリのためのフレームワークであるCHESSを紹介します。
特殊エージェントは4つあり、それぞれが上記の課題の1つをターゲットにしている。
私たちのフレームワークは、さまざまなデプロイメント制約に適応する機能を提供する。
論文 参考訳(メタデータ) (2024-05-27T01:54:16Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - FinSQL: Model-Agnostic LLMs-based Text-to-SQL Framework for Financial
Analysis [28.514754357658482]
財務分析のための実用的なText-to-ベンチマークデータセットはありません。
財務分析のためのモデルに依存しない大規模言語モデル(LLM)を提案する。
論文 参考訳(メタデータ) (2024-01-19T05:48:07Z) - Data-Centric Financial Large Language Models [27.464319154543173]
大規模言語モデル(LLM)は自然言語のタスクを約束するが、金融のような複雑なドメインに直接適用した場合に苦労する。
我々は、LLMが金融業務をよりうまく扱えるようにするために、データ中心のアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-07T04:53:31Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。