論文の概要: Open-Source LLM-Driven Federated Transformer for Predictive IoV Management
- arxiv url: http://arxiv.org/abs/2505.00651v1
- Date: Thu, 01 May 2025 16:54:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.376363
- Title: Open-Source LLM-Driven Federated Transformer for Predictive IoV Management
- Title(参考訳): 予測IoV管理のためのオープンソースのLCM駆動フェデレーショントランス
- Authors: Yazan Otoum, Arghavan Asad, Ishtiaq Ahmad,
- Abstract要約: Federated Prompt-d Traffic Transformer (FPoTT)は、オープンソースのLarge Language Modelsを利用して予測IoV管理を行う新しいフレームワークである。
FPoTTは動的プロンプト最適化機構を導入し、テキストプロンプトを反復的に洗練して軌道予測を強化する。
このアーキテクチャは、リアルタイム推論のための軽量エッジモデルと、グローバルインテリジェンスを維持するためのクラウドベースのLLMを組み合わせた、二重層フェデレーション学習パラダイムを採用している。
- 参考スコア(独自算出の注目度): 1.8024397171920885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of connected vehicles within the Internet of Vehicles (IoV) ecosystem presents critical challenges in ensuring scalable, real-time, and privacy-preserving traffic management. Existing centralized IoV solutions often suffer from high latency, limited scalability, and reliance on proprietary Artificial Intelligence (AI) models, creating significant barriers to widespread deployment, particularly in dynamic and privacy-sensitive environments. Meanwhile, integrating Large Language Models (LLMs) in vehicular systems remains underexplored, especially concerning prompt optimization and effective utilization in federated contexts. To address these challenges, we propose the Federated Prompt-Optimized Traffic Transformer (FPoTT), a novel framework that leverages open-source LLMs for predictive IoV management. FPoTT introduces a dynamic prompt optimization mechanism that iteratively refines textual prompts to enhance trajectory prediction. The architecture employs a dual-layer federated learning paradigm, combining lightweight edge models for real-time inference with cloud-based LLMs to retain global intelligence. A Transformer-driven synthetic data generator is incorporated to augment training with diverse, high-fidelity traffic scenarios in the Next Generation Simulation (NGSIM) format. Extensive evaluations demonstrate that FPoTT, utilizing EleutherAI Pythia-1B, achieves 99.86% prediction accuracy on real-world data while maintaining high performance on synthetic datasets. These results underscore the potential of open-source LLMs in enabling secure, adaptive, and scalable IoV management, offering a promising alternative to proprietary solutions in smart mobility ecosystems.
- Abstract(参考訳): Internet of Vehicles (IoV)エコシステム内でのコネクテッドカーの普及は、スケーラブルでリアルタイムで、プライバシ保護のトラフィック管理を保証する上で、重要な課題となっている。
既存の集中型IoVソリューションは、高レイテンシ、スケーラビリティの制限、プロプライエタリな人工知能(AI)モデルへの依存に悩まされることが多い。
一方、大規模言語モデル(LLM)を車載システムに組み込むことは、特にフェデレートされた文脈における迅速な最適化と効果的な利用について、未検討のままである。
これらの課題に対処するため,予測IoV管理にオープンソースのLCMを活用する新しいフレームワークであるFederated Prompt-Optimized Traffic Transformer (FPoTT)を提案する。
FPoTTは動的プロンプト最適化機構を導入し、テキストプロンプトを反復的に洗練して軌道予測を強化する。
このアーキテクチャは、リアルタイム推論のための軽量エッジモデルと、グローバルインテリジェンスを維持するためのクラウドベースのLLMを組み合わせた、二重層フェデレーション学習パラダイムを採用している。
次世代シミュレーション(NGSIM)フォーマットにおける多種多様な高忠実なトラフィックシナリオによる拡張トレーニングにトランスフォーマー駆動の合成データジェネレータが組み込まれている。
大規模な評価では、EleutherAI Pythia-1Bを使用して、合成データセットの性能を維持しながら、実世界のデータに対して99.86%の精度で予測できる。
これらの結果は、セキュアで適応的でスケーラブルなIoV管理を可能にするためのオープンソースのLLMの可能性を強調し、スマートモビリティエコシステムにおけるプロプライエタリなソリューションに代わる有望な代替手段を提供する。
関連論文リスト
- LLMs meet Federated Learning for Scalable and Secure IoT Management [6.649910168731417]
従来の集中型アーキテクチャは、レイテンシ、プライバシの懸念、リソースの過剰消費に悩まされている。
本稿では,IoTシステムインテリジェンスの向上を目的とした,FL-LLM(Federated Learning-driven Large Language Model)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:56:59Z) - Deploying Large AI Models on Resource-Limited Devices with Split Federated Learning [39.73152182572741]
本稿では、SFLAM(Quantized Split Federated Fine-Tuning Large AI Model)と呼ばれる新しいフレームワークを提案する。
エッジデバイスとサーバ間のトレーニング負荷を分割することで、SFLAMはデバイス上の大規模なモデルの操作を容易にすることができる。
SFLAMは、トレーニング効率を高めるために、量子化管理、電力制御、帯域幅割り当て戦略を取り入れている。
論文 参考訳(メタデータ) (2025-04-12T07:55:11Z) - Exploring the Roles of Large Language Models in Reshaping Transportation Systems: A Survey, Framework, and Roadmap [51.198001060683296]
大型言語モデル(LLM)は、輸送上の課題に対処するための変革的な可能性を提供する。
LLM4TRは,交通におけるLSMの役割を体系的に分類する概念的枠組みである。
それぞれの役割について,交通予測や自律運転,安全分析,都市移動最適化など,さまざまな応用について検討した。
論文 参考訳(メタデータ) (2025-03-27T11:56:27Z) - Smooth Handovers via Smoothed Online Learning [48.953313950521746]
まず、欧州の商用モバイルネットワークオペレータ(MNO)から4000万人以上のユーザを対象に、HOに対する重要な特徴とパフォーマンスへの影響を理解し、明らかにするために、広範なデータセットを分析した。
本研究は, HO故障/遅延と無線セルとエンドユーザーデバイスの特徴の相関関係を明らかにする。
本稿では,HO最適化にデバイスとセルの機能を組み込むことで,既存のアプローチを拡張したスムーズで高精度なHOのための現実的なシステムモデルを提案する。
論文 参考訳(メタデータ) (2025-01-14T13:16:33Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - INTELLECT: Adapting Cyber Threat Detection to Heterogeneous Computing Environments [0.055923945039144884]
本稿では,IDSのための事前学習MLモデルと構成の動的適応のための結合パイプラインに,特徴選択,モデルプルーニング,微調整技術を統合する新しいソリューションであるINTELLECTを紹介する。
我々は,知識蒸留技術を微調整中に組み込むことの利点を実証し,MLモデルが歴史的知識を維持しつつ,局所的なネットワークパターンに一貫して適応できることを示す。
論文 参考訳(メタデータ) (2024-07-17T22:34:29Z) - Optimizing Age of Information in Vehicular Edge Computing with Federated Graph Neural Network Multi-Agent Reinforcement Learning [44.17644657738893]
本稿では,データ更新の鍵となる情報時代(AoI)に着目し,RSU通信資源制約下での車両のタスクオフロード問題について検討する。
本稿では,Federated Graph Neural Network Multi-Agent Reinforcement Learning (FGNN-MADRL) と名付けたグラフニューラルネットワーク(GNN)を組み合わせた分散分散学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-01T15:37:38Z) - Automatic AI Model Selection for Wireless Systems: Online Learning via Digital Twinning [50.332027356848094]
AIベースのアプリケーションは、スケジューリングや電力制御などの機能を実行するために、インテリジェントコントローラにデプロイされる。
コンテキストとAIモデルのパラメータのマッピングは、ゼロショット方式で理想的に行われる。
本稿では,AMSマッピングのオンライン最適化のための一般的な手法を紹介する。
論文 参考訳(メタデータ) (2024-06-22T11:17:50Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。