論文の概要: Flash-Fusion: Enabling Expressive, Low-Latency Queries on IoT Sensor Streams with LLMs
- arxiv url: http://arxiv.org/abs/2511.11885v1
- Date: Fri, 14 Nov 2025 21:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.360561
- Title: Flash-Fusion: Enabling Expressive, Low-Latency Queries on IoT Sensor Streams with LLMs
- Title(参考訳): Flash-Fusion: LLMによるIoTセンサストリーム上での表現力のある低レイテンシクエリの実現
- Authors: Kausar Patherya, Ashutosh Dhekne, Francisco Romero,
- Abstract要約: Flash-Fusionは、IoTデータ収集と分析の負担を軽減する、エンドツーエンドのエッジクラウドシステムである。
高品質なレスポンスを維持しながら、95%のレイテンシ削減とトークン使用率とコストの98%の削減を実現している。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart cities and pervasive IoT deployments have generated interest in IoT data analysis across transportation and urban planning. At the same time, Large Language Models offer a new interface for exploring IoT data - particularly through natural language. Users today face two key challenges when working with IoT data using LLMs: (1) data collection infrastructure is expensive, producing terabytes of low-level sensor readings that are too granular for direct use, and (2) data analysis is slow, requiring iterative effort and technical expertise. Directly feeding all IoT telemetry to LLMs is impractical due to finite context windows, prohibitive token costs at scale, and non-interactive latencies. What is missing is a system that first parses a user's query to identify the analytical task, then selects the relevant data slices, and finally chooses the right representation before invoking an LLM. We present Flash-Fusion, an end-to-end edge-cloud system that reduces the IoT data collection and analysis burden on users. Two principles guide its design: (1) edge-based statistical summarization (achieving 73.5% data reduction) to address data volume, and (2) cloud-based query planning that clusters behavioral data and assembles context-rich prompts to address data interpretation. We deploy Flash-Fusion on a university bus fleet and evaluate it against a baseline that feeds raw data to a state-of-the-art LLM. Flash-Fusion achieves a 95% latency reduction and 98% decrease in token usage and cost while maintaining high-quality responses. It enables personas across disciplines - safety officers, urban planners, fleet managers, and data scientists - to efficiently iterate over IoT data without the burden of manual query authoring or preprocessing.
- Abstract(参考訳): スマートシティと広く普及しているIoTデプロイメントは、交通機関と都市計画をまたいだIoTデータ分析に関心を寄せている。
同時に、Large Language Modelsは、IoTデータ(特に自然言語)を探索する新しいインターフェースを提供する。
1) データ収集インフラストラクチャは高価で、直接使用するには粒度が大きすぎるテラバイトの低レベルのセンサ読み取りを生成します。
LLMにすべてのIoTテレメトリを直接供給することは、有限コンテキストウィンドウ、スケールにおける禁止トークンコスト、非インタラクティブレイテンシによる現実的ではない。
欠けているのは、まずユーザーのクエリを解析して分析タスクを特定し、次に関連するデータスライスを選択し、最後にLLMを呼び出す前に正しい表現を選択するシステムである。
エンド・ツー・エンドのエッジクラウドシステムであるFlash-Fusionは,IoTデータ収集とユーザ分析の負担を軽減する。
1)データボリュームに対処するためのエッジベースの統計的要約(73.5%のデータ削減)、2) 行動データをクラスタ化し、データ解釈に対処するためのコンテキストリッチなプロンプトを組み立てるクラウドベースのクエリ計画である。
我々は、Flash-Fusionを大学バスの車両に展開し、生データを最先端のLCMに供給するベースラインに対して評価する。
Flash-Fusionは95%のレイテンシ削減と98%のトークン使用量とコスト削減を実現し、高品質なレスポンスを維持している。
安全責任者、都市プランナー、フリートマネージャ、データサイエンティストなど、さまざまな分野のペルソナが、手動のクエリオーサリングや前処理の負担なしに、IoTデータを効率的に反復することができる。
関連論文リスト
- Long Grounded Thoughts: Distilling Compositional Visual Reasoning Chains at Scale [70.23466957404891]
多様なスキルと複雑さのレベルにまたがる新しい推論データ生成フレームワークを,100万以上の高品質な合成視覚中心の質問で紹介する。
データ上のQwen2.5-VL-7Bの微調整は、すべての評価されたビジョン中心のベンチマークにおいて、すべてのオープンデータベースラインを上回ります。
論文 参考訳(メタデータ) (2025-11-07T20:50:54Z) - TouchTTS: An Embarrassingly Simple TTS Framework that Everyone Can Touch [18.661974399115007]
最近のLSMベースのTSは、通常、高品質なトレーニングデータを得るために複雑なデータ処理パイプラインを使用する。
本研究では、ノイズローバストなオーディオ・トークンーザ(S3Tokenizer)を利用して、シンプルで効率的なTSデータ処理パイプラインを設計する。
このパイプラインはデータ品質を維持しながら、データ取得コストを大幅に削減し、データの保持率50%以上を達成する。
論文 参考訳(メタデータ) (2024-12-11T09:38:50Z) - Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - Leveraging Foundation Models for Zero-Shot IoT Sensing [5.319176383069102]
ディープラーニングモデルは、エッジIoT(Internet of Things)デバイスにますますデプロイされている。
ZSLは意味情報の助けを借りて、目に見えないクラスのデータを分類することを目的としている。
本研究では、ゼロショットIoTセンシングのためのFMテキストエンコーダによって生成されたセマンティック埋め込みと、IoTデータの埋め込みを一致させる。
論文 参考訳(メタデータ) (2024-07-29T11:16:48Z) - Energy-Efficient Edge Learning via Joint Data Deepening-and-Prefetching [9.468399367975984]
我々は、JD2P(Joint Data Deepening-and-Prefetching)と呼ばれる新しいオフロードアーキテクチャを提案する。
JD2Pは2つの主要な技術からなる機能ごとのオフロードである。
MNISTデータセットを用いてJD2Pの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-19T08:12:47Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Optimizing Resource-Efficiency for Federated Edge Intelligence in IoT
Networks [96.24723959137218]
We study a edge intelligence-based IoT network that a set of edge server learn a shared model using federated learning (FL)。
フェデレーションエッジインテリジェンス(FEI)と呼ばれる新しいフレームワークを提案し、エッジサーバがIoTネットワークのエネルギーコストに応じて必要なデータサンプル数を評価できるようにする。
提案アルゴリズムがIoTネットワークのトポロジ的情報を漏洩したり開示したりしないことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。