論文の概要: TransitGPT: A Generative AI-based framework for interacting with GTFS data using Large Language Models
- arxiv url: http://arxiv.org/abs/2412.06831v1
- Date: Sat, 07 Dec 2024 00:35:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:38:54.618952
- Title: TransitGPT: A Generative AI-based framework for interacting with GTFS data using Large Language Models
- Title(参考訳): TransitGPT: 大規模言語モデルを用いたGTFSデータとのインタラクションのためのジェネレーティブAIベースのフレームワーク
- Authors: Saipraneeth Devunuri, Lewis Lehe,
- Abstract要約: TransitGPTはLLMを誘導してPythonコードを生成し、クエリに関連するGTFSデータを抽出して操作する。
データ検索、計算、インタラクティブな視覚化を含む幅広いタスクを、ユーザがGTFSやプログラミングに関する広範な知識を必要とせずに実現できる。
- 参考スコア(独自算出の注目度): 2.3951780950929678
- License:
- Abstract: This paper introduces a framework that leverages Large Language Models (LLMs) to answer natural language queries about General Transit Feed Specification (GTFS) data. The framework is implemented in a chatbot called TransitGPT with open-source code. TransitGPT works by guiding LLMs to generate Python code that extracts and manipulates GTFS data relevant to a query, which is then executed on a server where the GTFS feed is stored. It can accomplish a wide range of tasks, including data retrieval, calculations, and interactive visualizations, without requiring users to have extensive knowledge of GTFS or programming. The LLMs that produce the code are guided entirely by prompts, without fine-tuning or access to the actual GTFS feeds. We evaluate TransitGPT using GPT-4o and Claude-3.5-Sonnet LLMs on a benchmark dataset of 100 tasks, to demonstrate its effectiveness and versatility. The results show that TransitGPT can significantly enhance the accessibility and usability of transit data.
- Abstract(参考訳): 本稿では,GTFS(General Transit Feed Specification)データに関する自然言語クエリに,LLM(Large Language Models)を利用したフレームワークを提案する。
このフレームワークは、TransitGPTと呼ばれるチャットボットにオープンソースコードで実装されている。
TransitGPTはLLMを誘導してPythonコードを生成し、クエリに関連するGTFSデータを抽出して操作する。
データ検索、計算、インタラクティブな視覚化を含む幅広いタスクを、ユーザがGTFSやプログラミングに関する広範な知識を必要とせずに実現できる。
コードを生成するLLMは、詳細なチューニングや実際のGTFSフィードへのアクセスなしに、プロンプトによって完全にガイドされる。
GPT-4oとClaude-3.5-Sonnet LLMを用いて100タスクのベンチマークデータセットを用いてTransitGPTを評価し,その有効性と汎用性を実証した。
その結果,TransitGPTはトランジットデータのアクセシビリティとユーザビリティを大幅に向上させることができることがわかった。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Demonstration of DB-GPT: Next Generation Data Interaction System Empowered by Large Language Models [15.694402144885702]
我々は,大規模な言語モデルを従来のデータインタラクションタスクに統合した,革新的で製品対応のPythonライブラリDB-GPTを提案する。
DB-GPTは、自然言語で記述されたデータインタラクションタスクを理解し、LLMを利用したコンテキスト認識応答を提供するように設計されている。
サービス指向マルチモデル管理フレームワーク(SMMF)は、データのプライバシとセキュリティを保証する。
論文 参考訳(メタデータ) (2024-04-16T01:38:34Z) - Can GNN be Good Adapter for LLMs? [7.18511200494162]
テキスト分散グラフ(TAG)は、ソーシャルメディアやレコメンデーションシステムなどに広く応用されている。
グラフニューラルネットワーク(GNN)を,大規模言語モデル(LLM)と協調してTAGに対処する上で,効率的なアダプタとして使用するGraphAdapterを提案する。
複数の実世界のTAGにわたる広範な実験を通じて、Llama 2に基づくGraphAdapterは、ノード分類の点で平均5%改善されている。
論文 参考訳(メタデータ) (2024-02-20T13:13:13Z) - GraphTranslator: Aligning Graph Model to Large Language Model for
Open-ended Tasks [44.02825843494608]
ChatGPTのような大規模言語モデル(LLM)は強力なゼロショットと命令追従機能を備えている。
GraphTranslatorは、事前に定義されたタスクを効果的に処理するためにGMを活用することを目的としている。
ノード表現をトークンに変換することで、GraphTranslatorはLLMに言語命令に基づいた予測を行う権限を与える。
論文 参考訳(メタデータ) (2024-02-11T13:24:13Z) - ChatGPT for GTFS: Benchmarking LLMs on GTFS Understanding and Retrieval [2.3951780950929678]
本研究の目的は,現在広く採用されているLLM(ChatGPT)が,自然言語命令を用いてGTFSから情報を取り出すことができるかどうかを,明示的に情報を提供することなく確かめることである。
ChatGPTは、59.7%(GPT-3.5-Turbo)と73.3%(GPT-4)のマルチチョイス質問(MCQ)を正しく答えることで、GTFSを合理的に理解している。
GPT-4 (GPT-3.5-Turbo) を用いて, 単純なクエリに対して最大93% (90%) の精度, 複雑なクエリに対して61% (41%) の精度を実現した。
論文 参考訳(メタデータ) (2023-08-04T14:50:37Z) - TableGPT: Towards Unifying Tables, Nature Language and Commands into One
GPT [19.57099486334867]
TableGPTは、大きな言語モデル(LLM)が外部機能コマンドを使用してテーブル上で理解し、操作できるようにするフレームワークである。
TableGPTは、ユーザに対して、テーブルデータを活用することによって、利便性とアクセシビリティを提供することを目的としている。
論文 参考訳(メタデータ) (2023-07-17T17:36:09Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Fine-Grained Scene Graph Generation with Data Transfer [127.17675443137064]
シーングラフ生成(SGG)は、画像中の三つ子(オブジェクト、述語、オブジェクト)を抽出することを目的としている。
最近の研究は、SGGを着実に進歩させ、高レベルの視覚と言語理解に有用なツールを提供している。
そこで本研究では,プレー・アンド・プラグ方式で適用可能で,約1,807の述語クラスを持つ大規模SGGに拡張可能な,内部・外部データ転送(IETrans)手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T12:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。