論文の概要: When Large Language Models Meet Vector Databases: A Survey
- arxiv url: http://arxiv.org/abs/2402.01763v2
- Date: Tue, 6 Feb 2024 01:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 18:50:16.253271
- Title: When Large Language Models Meet Vector Databases: A Survey
- Title(参考訳): 大規模言語モデルがベクトルデータベースを満たすとき:調査
- Authors: Zhi Jing, Yongye Su, Yikun Han, Bo Yuan, Haiyun Xu, Chunjiang Liu,
Kehai Chen, Min Zhang
- Abstract要約: VecDBは、LLM操作に固有の高次元ベクトル表現を保存、検索、管理するための効率的な手段を提供する。
VecDBは、LLM操作に固有の高次元ベクトル表現を保存、取得、管理する効率的な手段を提供することによって、これらの問題の魅力的な解決策として浮上する。
本調査は、高度なデータ処理と知識抽出機能のためのLLMとVecDBの合流点の最適化に関するさらなる研究を触媒することを目的としている。
- 参考スコア(独自算出の注目度): 21.489854749286607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This survey explores the synergistic potential of Large Language Models
(LLMs) and Vector Databases (VecDBs), a burgeoning but rapidly evolving
research area. With the proliferation of LLMs comes a host of challenges,
including hallucinations, outdated knowledge, prohibitive commercial
application costs, and memory issues. VecDBs emerge as a compelling solution to
these issues by offering an efficient means to store, retrieve, and manage the
high-dimensional vector representations intrinsic to LLM operations. Through
this nuanced review, we delineate the foundational principles of LLMs and
VecDBs and critically analyze their integration's impact on enhancing LLM
functionalities. This discourse extends into a discussion on the speculative
future developments in this domain, aiming to catalyze further research into
optimizing the confluence of LLMs and VecDBs for advanced data handling and
knowledge extraction capabilities.
- Abstract(参考訳): 本稿では,大規模言語モデル (LLMs) とベクトルデータベース (VecDBs) の相乗的ポテンシャルについて検討する。
LLMの普及に伴い、幻覚、時代遅れの知識、禁止的な商用アプリケーションコスト、メモリ問題など、多くの課題が伴う。
VecDBは、LLM操作に固有の高次元ベクトル表現を保存、取得、管理する効率的な手段を提供することによって、これらの問題の魅力的な解決策として浮上する。
本稿では,LLM と VecDB の基本原理を概説し,LLM の機能強化に対するそれらの統合の影響を批判的に分析する。
この議論は、先進的なデータ処理と知識抽出能力のためにLLMとVecDBの結合を最適化するためのさらなる研究を促進することを目的として、この領域における投機的将来の発展に関する議論へと展開する。
関連論文リスト
- A Survey on Efficient Inference for Large Language Models [25.572035747669275]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著なパフォーマンスのために、広く注目を集めている。
LLM推論のかなりの計算とメモリ要件は、リソース制約のあるシナリオへの展開に困難をもたらす。
本稿では,LLMの効率的な推論について,既存の文献を包括的に調査する。
論文 参考訳(メタデータ) (2024-04-22T15:53:08Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - Data Augmentation using LLMs: Data Perspectives, Learning Paradigms and
Challenges [49.039080454730566]
データ拡張(DA)は、モデルパフォーマンスを向上させるための重要なテクニックとして現れている。
本稿では,大規模言語モデル(LLM)がDAに与える影響について検討する。
論文 参考訳(メタデータ) (2024-03-05T14:11:54Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Breaking the Silence: the Threats of Using LLMs in Software Engineering [12.368546216271382]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)コミュニティ内で大きな注目を集めています。
本稿では,LSMに基づく研究の有効性に対する潜在的な脅威について,オープンな議論を開始する。
論文 参考訳(メタデータ) (2023-12-13T11:02:19Z) - Large Language Models as Data Preprocessors [10.914067455923847]
OpenAIのGPTシリーズとMetaのLLaMAに代表されるLarge Language Models (LLMs)は、人工知能において大きな進歩を遂げている。
この研究は、LLMの応用を拡大し、データ前処理におけるその可能性を探る。
我々は,最先端のプロンプト技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。