論文の概要: From Commands to Prompts: LLM-based Semantic File System for AIOS
- arxiv url: http://arxiv.org/abs/2410.11843v1
- Date: Mon, 23 Sep 2024 08:39:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 10:40:01.747252
- Title: From Commands to Prompts: LLM-based Semantic File System for AIOS
- Title(参考訳): コマンドからプロンプトへ:AIOSのためのLLMベースのセマンティックファイルシステム
- Authors: Zeru Shi, Kai Mei, Mingyu Jin, Yongye Su, Chaoji Zuo, Wenyue Hua, Wujiang Xu, Yujie Ren, Zirui Liu, Mengnan Du, Dong Deng, Yongfeng Zhang,
- Abstract要約: プロンプト駆動型ファイル管理のためのLSFS(LLM-based semantic file system)を提案する。
従来のアプローチとは異なり、LSFSはLLMを組み込んで、ユーザやエージェントが自然言語のプロンプトを通じてファイルと対話できるようにする。
実験の結果,LSFSはユーザ利便性,サポート対象関数の多様性,ファイル操作の正確性や効率性の観点から,従来のファイルシステムよりも大幅に改善されていることがわかった。
- 参考スコア(独自算出の注目度): 46.29019415676847
- License:
- Abstract: Large language models (LLMs) have demonstrated significant potential in the development of intelligent applications and systems such as LLM-based agents and agent operating systems (AIOS). However, when these applications and systems interact with the underlying file system, the file system still remains the traditional paradigm: reliant on manual navigation through precise commands. This paradigm poses a bottleneck to the usability of these systems as users are required to navigate complex folder hierarchies and remember cryptic file names. To address this limitation, we propose an LLM-based semantic file system ( LSFS ) for prompt-driven file management. Unlike conventional approaches, LSFS incorporates LLMs to enable users or agents to interact with files through natural language prompts, facilitating semantic file management. At the macro-level, we develop a comprehensive API set to achieve semantic file management functionalities, such as semantic file retrieval, file update monitoring and summarization, and semantic file rollback). At the micro-level, we store files by constructing semantic indexes for them, design and implement syscalls of different semantic operations (e.g., CRUD, group by, join) powered by vector database. Our experiments show that LSFS offers significant improvements over traditional file systems in terms of user convenience, the diversity of supported functions, and the accuracy and efficiency of file operations. Additionally, with the integration of LLM, our system enables more intelligent file management tasks, such as content summarization and version comparison, further enhancing its capabilities.
- Abstract(参考訳): 大規模言語モデル(LLM)は、LLMベースのエージェントやエージェントオペレーティングシステム(AIOS)のようなインテリジェントなアプリケーションやシステムの開発において大きな可能性を証明している。
しかしながら、これらのアプリケーションやシステムが基盤となるファイルシステムと相互作用する場合、ファイルシステムは依然として伝統的なパラダイムであり、正確なコマンドによる手動ナビゲーションに依存している。
このパラダイムは、複雑なフォルダ階層をナビゲートし、暗号ファイル名を記憶する必要があるため、これらのシステムのユーザビリティにボトルネックをもたらす。
この制限に対処するため,我々は,プロンプト駆動型ファイル管理のためのLSFS (LLM-based semantic file system) を提案する。
従来のアプローチとは異なり、LSFSはLLMを導入し、ユーザやエージェントが自然言語のプロンプトを通じてファイルと対話できるようにし、セマンティックファイル管理を容易にする。
マクロレベルでは、セマンティックファイル検索、ファイル更新監視、要約、セマンティックファイルロールバックなどのセマンティックファイル管理機能を実現するための包括的なAPIセットを開発する。
マイクロレベルでは、ベクトルデータベースを利用する異なるセマンティック操作(例えばCRUD、group by、join)のsyscallを設計し、実装することで、ファイルを保存する。
実験の結果,LSFSはユーザ利便性,サポート対象関数の多様性,ファイル操作の正確性や効率性の観点から,従来のファイルシステムよりも大幅に改善されていることがわかった。
さらに,LLMの統合により,コンテンツ要約やバージョン比較など,よりインテリジェントなファイル管理タスクが実現され,機能の向上が図られる。
関連論文リスト
- The Compressor-Retriever Architecture for Language Model OS [20.56093501980724]
オペレーティングシステム(OS)のコアコンポーネントとして言語モデルを用いるという概念について検討する。
このようなLM OSを実現する上で重要な課題は、寿命の長いコンテキストを管理し、セッション間のステートフルネスを確保することだ。
本稿では,生涯のコンテキスト管理のために設計されたモデル非依存アーキテクチャであるコンプレッサー・レトリバーを紹介する。
論文 参考訳(メタデータ) (2024-09-02T23:28:15Z) - DOCBENCH: A Benchmark for Evaluating LLM-based Document Reading Systems [99.17123445211115]
本稿では,大規模言語モデル(LLM)に基づく文書読解システムを評価するベンチマークであるDocBenchを紹介する。
我々のベンチマークには、人間のアノテーションの募集と、合成質問の生成が含まれる。
実際の文書は229件、質問は1,102件で、5つのドメインにまたがって4種類の質問がある。
論文 参考訳(メタデータ) (2024-07-15T13:17:42Z) - LLM-dCache: Improving Tool-Augmented LLMs with GPT-Driven Localized Data Caching [5.203031624781443]
ツール拡張エージェントに公開された呼び出し可能なAPI関数としてキャッシュ操作を扱い,データアクセスを最適化するLLM-dCacheを導入する。
LLMには、既存の関数呼び出し機構とシームレスに統合することで、キャッシュ決定を管理する自律性を提供します。
論文 参考訳(メタデータ) (2024-06-10T21:08:39Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,知識能力を向上させる新しい手法であるMemLLMを紹介する。
実験の結果,MemLLMは言語モデリング全般,特に言語モデルにおいて,性能と解釈可能性を向上させることが示唆された。
私たちは MemLLM を,メモリ拡張による LLM の基盤化と現実化に向けた重要なステップと捉えています。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - InfMLLM: A Unified Framework for Visual-Language Tasks [44.29407348046122]
マルチモーダルな大言語モデル (MLLM) が注目されている。
この作業は、LLMがより視覚的な言語に関連したタスクに取り組むことを可能にすることを目的としている。
InfMLLMは、最先端(SOTA)パフォーマンスまたは最近のMLLMに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-12T09:58:16Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - L2MAC: Large Language Model Automatic Computer for Extensive Code Generation [52.81694565226513]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACを提案する。L2MACは,LLMをベースとした汎用型自動計算機(von Neumann Architecture)フレームワークで,長期的かつ一貫した出力生成を実現する。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。