論文の概要: Harnessing Scalable Transactional Stream Processing for Managing Large
Language Models [Vision]
- arxiv url: http://arxiv.org/abs/2307.08225v1
- Date: Mon, 17 Jul 2023 04:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:53:44.752871
- Title: Harnessing Scalable Transactional Stream Processing for Managing Large
Language Models [Vision]
- Title(参考訳): 大規模言語モデル管理のためのスケーラブルトランザクションストリーム処理のハーネス化 [Vision]
- Authors: Shuhao Zhang, Xianzhi Zeng, Yuhao Wu, Zhonghao Yang
- Abstract要約: 大規模言語モデル(LLM)は、広範囲のアプリケーションにまたがって素晴らしいパフォーマンスを示している。
本稿では,トランザクションストリーム処理(TSP)とLLM管理を統合する革命的フレームワークであるTStreamLLMを紹介する。
リアルタイムの患者モニタリングやインテリジェントなトラフィック管理といった実践的なユースケースを通じて、その可能性を示す。
- 参考スコア(独自算出の注目度): 4.553891255178496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated extraordinary performance
across a broad array of applications, from traditional language processing
tasks to interpreting structured sequences like time-series data. Yet, their
effectiveness in fast-paced, online decision-making environments requiring
swift, accurate, and concurrent responses poses a significant challenge. This
paper introduces TStreamLLM, a revolutionary framework integrating
Transactional Stream Processing (TSP) with LLM management to achieve remarkable
scalability and low latency. By harnessing the scalability, consistency, and
fault tolerance inherent in TSP, TStreamLLM aims to manage continuous &
concurrent LLM updates and usages efficiently. We showcase its potential
through practical use cases like real-time patient monitoring and intelligent
traffic management. The exploration of synergies between TSP and LLM management
can stimulate groundbreaking developments in AI and database research. This
paper provides a comprehensive overview of challenges and opportunities in this
emerging field, setting forth a roadmap for future exploration and development.
- Abstract(参考訳): 大規模言語モデル(LLM)は、従来の言語処理タスクから時系列データのような構造化シーケンスの解釈に至るまで、幅広いアプリケーションで素晴らしいパフォーマンスを示している。
しかし、迅速なペースでオンライン意思決定環境におけるそれらの効果は、迅速で正確で並行的な応答を必要とする。
本稿では,トランザクションストリーム処理(TSP)とLLM管理を統合し,スケーラビリティと低レイテンシを実現する革命的フレームワークであるTStreamLLMを紹介する。
TSP固有のスケーラビリティ、一貫性、フォールトトレランスを活用することで、TStreamLLMは、継続的かつ並列的なLLM更新と使用を効率的に管理することを目指している。
リアルタイム患者モニタリングやインテリジェントな交通管理といった実用的なユースケースを通じてその可能性を示す。
TSPとLLM管理のシナジーの探索は、AIとデータベース研究における画期的な発展を刺激することができる。
本稿では,この新興分野における課題と機会の包括的概観を提供し,今後の研究開発に向けたロードマップを提示する。
関連論文リスト
- Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - When Large Language Models Meet Optical Networks: Paving the Way for Automation [17.4503217818141]
物理層をインテリジェントに制御し,アプリケーション層との相互作用を効果的に行うことを目的として,LLMを利用した光ネットワークのフレームワークを提案する。
提案手法は,ネットワークアラーム解析とネットワーク性能最適化の2つの典型的なタスクで検証される。
良好な応答精度と2,400個のテスト状況のセマティックな類似性は、光ネットワークにおけるLLMの大きな可能性を示している。
論文 参考訳(メタデータ) (2024-05-14T10:46:33Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。