論文の概要: KIMAs: A Configurable Knowledge Integrated Multi-Agent System
- arxiv url: http://arxiv.org/abs/2502.09596v1
- Date: Thu, 13 Feb 2025 18:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:44:49.459579
- Title: KIMAs: A Configurable Knowledge Integrated Multi-Agent System
- Title(参考訳): KIMAs: 構成可能な知識統合型マルチエージェントシステム
- Authors: Zitao Li, Fei Wei, Yuexiang Xie, Dawei Gao, Weirui Kuang, Zhijian Ma, Bingchen Qian, Yaliang Li, Bolin Ding,
- Abstract要約: 本技術報告では,これらの課題に対処するための知識統合型マルチエージェントシステムKIMAについて述べる。
私たちの作業は、大規模言語モデルを現実世界の環境に展開するためのスケーラブルなフレームワークを提供します。
- 参考スコア(独自算出の注目度): 46.91903900679881
- License:
- Abstract: Knowledge-intensive conversations supported by large language models (LLMs) have become one of the most popular and helpful applications that can assist people in different aspects. Many current knowledge-intensive applications are centered on retrieval-augmented generation (RAG) techniques. While many open-source RAG frameworks facilitate the development of RAG-based applications, they often fall short in handling practical scenarios complicated by heterogeneous data in topics and formats, conversational context management, and the requirement of low-latency response times. This technical report presents a configurable knowledge integrated multi-agent system, KIMAs, to address these challenges. KIMAs features a flexible and configurable system for integrating diverse knowledge sources with 1) context management and query rewrite mechanisms to improve retrieval accuracy and multi-turn conversational coherency, 2) efficient knowledge routing and retrieval, 3) simple but effective filter and reference generation mechanisms, and 4) optimized parallelizable multi-agent pipeline execution. Our work provides a scalable framework for advancing the deployment of LLMs in real-world settings. To show how KIMAs can help developers build knowledge-intensive applications with different scales and emphases, we demonstrate how we configure the system to three applications already running in practice with reliable performance.
- Abstract(参考訳): 大規模言語モデル(LLM)がサポートする知識集約的な会話は、さまざまな側面の人々を支援する最も人気で有用なアプリケーションのひとつになっています。
現在の知識集約型アプリケーションの多くは、検索強化世代(RAG)技術に重点を置いている。
多くのオープンソースRAGフレームワークはRAGベースのアプリケーションの開発を促進するが、トピックやフォーマットの不均一なデータ、会話のコンテキスト管理、低レイテンシ応答時間の要求といった現実的なシナリオを扱うには不足することが多い。
本技術報告では,これらの課題に対処するため,構成可能な知識統合型マルチエージェントシステムKIMAを提案する。
KIMAは多様な知識ソースを統合化するためのフレキシブルで構成可能なシステムである
1)検索精度とマルチターン会話コヒーレンシーを改善するためのコンテキスト管理とクエリ書き換え機構
2)効率的な知識のルーティングと検索
3)単純だが効果的なフィルタ及び基準生成機構
4) 最適化された並列化可能なマルチエージェントパイプライン実行。
私たちの作業は、現実の環境でのLLMの展開を進めるためのスケーラブルなフレームワークを提供します。
KIMAは、開発者が異なるスケールとエミュフェーズで知識集約型アプリケーションを構築するのにどのように役立つかを示すために、信頼性のあるパフォーマンスで既に実行されている3つのアプリケーションにシステムをどのように構成するかを示す。
関連論文リスト
- Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Dynamic Multi-Agent Orchestration and Retrieval for Multi-Source Question-Answer Systems using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)検索におけるいくつかの高度な手法を組み合わせて,堅牢で多ソースな問合せシステムの開発を支援する手法を提案する。
この手法は、協調型マルチエージェントオーケストレーションと動的検索アプローチにより、多様なデータソースからの情報を統合するように設計されている。
提案手法は応答精度と妥当性を向上し,質問応答システムを開発するための汎用的でスケーラブルなフレームワークを提供する。
論文 参考訳(メタデータ) (2024-12-23T20:28:20Z) - Iris: Breaking GUI Complexity with Adaptive Focus and Self-Refining [67.87810796668981]
インフォメーション・インフォメーション・インフォメーション・クロッピング(ISC)と自己精製デュアルラーニング(SRDL)
Irisは850KのGUIアノテーションだけで、複数のベンチマークで最先端のパフォーマンスを実現している。
これらの改善は、WebとOSエージェントの両方の下流タスクで大幅に向上した。
論文 参考訳(メタデータ) (2024-12-13T18:40:10Z) - Adapting to Non-Stationary Environments: Multi-Armed Bandit Enhanced Retrieval-Augmented Generation on Knowledge Graphs [23.357843519762483]
近年の研究では、検索-拡張生成フレームワークと知識グラフを組み合わせることで、大規模言語モデルの推論能力を強力に向上することが示されている。
我々は多目的帯域拡張RAGフレームワークを導入し、多様な機能を持つ複数の検索手法をサポートする。
本手法は,定常環境下での最先端性能を達成しつつ,非定常環境でのベースライン手法を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-10T15:56:03Z) - A Layered Architecture for Developing and Enhancing Capabilities in Large Language Model-based Software Systems [18.615283725693494]
本稿では,Large Language Models (LLM) ソフトウェアシステムの開発を異なるレイヤにまとめる階層アーキテクチャを提案する。
これらのレイヤと機能を整合させることで、このフレームワークは、効果的かつ効率的な方法で機能の体系的な実装を奨励します。
論文 参考訳(メタデータ) (2024-11-19T09:18:20Z) - An Interactive Multi-modal Query Answering System with Retrieval-Augmented Large Language Models [21.892975397847316]
本稿では,新たに開発したマルチモーダル検索フレームワークとナビゲーショングラフインデックスを用いて,対話型マルチモーダルクエリ・アンサーリング(MQA)システムを提案する。
MQAの特筆すべき点は、異なるモダリティの重要性を評価するために、コントラスト学習を利用することである。
本システムは,計算プルーニング技術を用いて改良した,先進的なナビゲーショングラフインデックスによる効率的な検索を実現する。
論文 参考訳(メタデータ) (2024-07-05T02:01:49Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Efficient Retrieval Optimized Multi-task Learning [16.189136169520424]
本稿では,自己指導型タスク,知識検索,抽出質問応答を共同で訓練するための新しい検索最適化マルチタスク(ROM)フレームワークを提案する。
我々のROMアプローチは、複数のタスクに効率的にスケーリングできる統一的で一般化可能なフレームワークを提供する。
当社のフレームワークでは,近年のQAメソッドよりも同等あるいは優れたパフォーマンスを実現していますが,パラメータの数を大幅に削減しています。
論文 参考訳(メタデータ) (2021-04-20T17:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。