論文の概要: StreamingRAG: Real-time Contextual Retrieval and Generation Framework
- arxiv url: http://arxiv.org/abs/2501.14101v1
- Date: Thu, 23 Jan 2025 21:20:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:01.175985
- Title: StreamingRAG: Real-time Contextual Retrieval and Generation Framework
- Title(参考訳): StreamingRAG:リアルタイムコンテキスト検索と生成フレームワーク
- Authors: Murugan Sankaradas, Ravi K. Rajendran, Srimat T. Chakradhar,
- Abstract要約: StreamingRAGはストリーミングデータ分析用に設計された新しいフレームワークである。
リアルタイム分析(スループットが5~6倍)、文脈精度(時間知識グラフによる)、リソース消費(軽量モデルで2~3倍)の大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 0.8309949345495992
- License:
- Abstract: Extracting real-time insights from multi-modal data streams from various domains such as healthcare, intelligent transportation, and satellite remote sensing remains a challenge. High computational demands and limited knowledge scope restrict the applicability of Multi-Modal Large Language Models (MM-LLMs) on these data streams. Traditional Retrieval-Augmented Generation (RAG) systems address knowledge limitations of these models, but suffer from slow preprocessing, making them unsuitable for real-time analysis. We propose StreamingRAG, a novel RAG framework designed for streaming data. StreamingRAG constructs evolving knowledge graphs capturing scene-object-entity relationships in real-time. The knowledge graph achieves temporal-aware scene representations using MM-LLMs and enables timely responses for specific events or user queries. StreamingRAG addresses limitations in existing methods, achieving significant improvements in real-time analysis (5-6x faster throughput), contextual accuracy (through a temporal knowledge graph), and reduced resource consumption (using lightweight models by 2-3x).
- Abstract(参考訳): 医療、インテリジェントトランスポート、衛星リモートセンシングなど、さまざまな領域からのマルチモーダルデータストリームからのリアルタイム洞察の抽出は、依然として課題である。
高い計算要求と限られた知識範囲は、これらのデータストリームに対するMM-LLM(Multi-Modal Large Language Models)の適用性を制限する。
従来のRetrieval-Augmented Generation (RAG) システムはこれらのモデルの知識制限に対処するが、遅い前処理に悩まされ、リアルタイム解析には適さない。
本稿では,ストリーミングデータ用に設計された新しいRAGフレームワークStreamingRAGを提案する。
StreamingRAGは、リアルタイムでシーン-オブジェクト-エンティティ関係をキャプチャする進化的な知識グラフを構築する。
知識グラフは、MM-LLMを用いて時間認識シーン表現を実現し、特定のイベントやユーザクエリに対するタイムリーな応答を可能にする。
StreamingRAGは既存の手法の制限に対処し、リアルタイム分析(5~6倍高速スループット)、文脈的精度(時間的知識グラフによる)、リソース消費(軽量モデルで2~3倍)の大幅な改善を実現している。
関連論文リスト
- Reprogramming Foundational Large Language Models(LLMs) for Enterprise Adoption for Spatio-Temporal Forecasting Applications: Unveiling a New Era in Copilot-Guided Cross-Modal Time Series Representation Learning [0.0]
パティオ時間予測は、輸送システム、物流、サプライチェーン管理など、様々な分野において重要な役割を担っている。
本稿では,オープンソースの大規模・小規模言語モデル(LLM,LM)と従来の予測手法を組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T16:11:53Z) - Iterative Forgetting: Online Data Stream Regression Using Database-Inspired Adaptive Granulation [1.6874375111244329]
本稿では、R*木からインスピレーションを得て、入ってくるデータストリームからグラニュラーを生成するデータベースインスピレーション付きデータストリーム回帰モデルを提案する。
実験により、この手法がデータを破棄する能力は、レイテンシとトレーニング時間において大幅に改善されることが示された。
論文 参考訳(メタデータ) (2024-03-14T17:26:00Z) - GATGPT: A Pre-trained Large Language Model with Graph Attention Network
for Spatiotemporal Imputation [19.371155159744934]
実世界の環境では、センサーの故障やデータ転送エラーなどの問題により、そのようなデータには欠落する要素がしばしば含まれる。
時間的計算の目的は、観測された時系列における固有の空間的および時間的関係を理解することによって、これらの欠落値を推定することである。
伝統的に、複雑な時間的計算は特定のアーキテクチャに依存しており、適用可能性の制限と高い計算複雑性に悩まされている。
対照的に、我々のアプローチは、事前訓練された大規模言語モデル(LLM)を複雑な時間的インプットに統合し、画期的なフレームワークであるGATGPTを導入している。
論文 参考訳(メタデータ) (2023-11-24T08:15:11Z) - LLM4DyG: Can Large Language Models Solve Spatial-Temporal Problems on Dynamic Graphs? [56.85995048874959]
本稿では,大規模言語モデルの動的グラフ上での時空間理解能力を評価することを提案する。
我々は、異なるデータ生成装置、データ統計、プロンプト技術、LLMがモデル性能に与える影響を分析する実験を行う。
最後に, LLM の時空間理解能力を高めるために, 動的グラフ上の LLM に対する Disentangled Spatial-Temporal Thoughts (DST2) を提案する。
論文 参考訳(メタデータ) (2023-10-26T02:37:43Z) - GenTKG: Generative Forecasting on Temporal Knowledge Graph with Large Language Models [35.594662986581746]
大規模言語モデル (LLM) は、従来の埋め込みベースおよびルールベースの手法が支配する時間的知識グラフ (tKG) 領域に関心を抱いている。
本稿では、時間的論理ルールに基づく検索戦略と、パラメータ効率の少ない命令チューニングを組み合わせた、GenTKGという新しい検索拡張生成フレームワークを提案する。
実験により、GenTKGは計算資源の少ない時間的関係予測法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-11T18:27:12Z) - Zero-Shot Video Moment Retrieval from Frozen Vision-Language Models [58.17315970207874]
モーメント・テキストアライメントを容易にするため、任意のVLMから一般化可能なビジュアル・テクスチャの事前適応のためのゼロショット手法を提案する。
3つのVMRベンチマークデータセットで実施された実験は、ゼロショットアルゴリズムの顕著なパフォーマンス上の利点を示している。
論文 参考訳(メタデータ) (2023-09-01T13:06:50Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - MuRAG: Multimodal Retrieval-Augmented Generator for Open Question
Answering over Images and Text [58.655375327681774]
我々は,Multimodal Retrieval-Augmented Transformer (MuRAG)を提案する。
MuRAGは外部の非パラメトリックマルチモーダルメモリにアクセスして言語生成を増強する。
以上の結果から, MuRAGは最先端の精度を達成し, 既存のモデルよりも10~20%精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-10-06T13:58:03Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Deep Neural Networks for Approximating Stream Reasoning with C-SPARQL [0.8677532138573983]
C-SPARQLはRDFデータのストリーム上の連続的なクエリのための言語である。
本稿では,C-SPARQLを用いた推論を,リカレントニューラルネットワークと畳み込みニューラルネットワークを用いて近似できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-15T21:51:47Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。