論文の概要: Adaptive Minds: Empowering Agents with LoRA-as-Tools
- arxiv url: http://arxiv.org/abs/2510.15416v1
- Date: Fri, 17 Oct 2025 08:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.531486
- Title: Adaptive Minds: Empowering Agents with LoRA-as-Tools
- Title(参考訳): Adaptive Minds: LoRA-as-Toolsによるエージェントの強化
- Authors: Pavan C Shekar, Ashwanth Krishnan,
- Abstract要約: Adaptive Mindsは、LoRAアダプタをドメイン固有のツールとして扱うエージェントシステムである。
Systemはワークフロー管理のためにLangGraphで構築され、APIとWebインターフェースの両方をサポートし、完全にオープンソースである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Adaptive Minds, an agentic system that treats LoRA adapters as domain-specific tools. Instead of relying on a single fine-tuned model or rigid rule-based routing, our approach empowers the base LLM itself to act as a semantic router analyzing each query and dynamically selecting the most relevant LoRA tool. This enables the agent to seamlessly switch between different domain experts on demand. By combining the flexibility of multi-agent orchestration with the efficiency of parameter-efficient fine-tuning, Adaptive Minds delivers accurate, specialized responses while preserving conversational ability. The system is built with LangGraph for workflow management, supports both API and web interfaces, and is fully open source, providing a scalable and extensible foundation for domain-adaptive AI assistance.
- Abstract(参考訳): 本稿では,LoRAアダプタをドメイン固有のツールとして扱うエージェントシステムであるAdaptive Mindsを提案する。
提案手法では,単一の微調整モデルや厳密なルールベースのルーティングに頼る代わりに,各クエリを解析し,最も関連性の高いLoRAツールを動的に選択するセマンティックルータとして,LLM自体を機能させる。
これにより、エージェントは必要に応じて異なるドメインエキスパートをシームレスに切り替えることができる。
マルチエージェントオーケストレーションの柔軟性とパラメータ効率の良い微調整の効率を組み合わせることで、Adaptive Mindsは会話能力を維持しながら、正確で特殊な応答を提供する。
このシステムはワークフロー管理のためにLangGraphで構築されており、APIとWebインターフェースの両方をサポートし、完全にオープンソースであり、ドメイン適応型AIアシストのためのスケーラブルで拡張可能な基盤を提供する。
関連論文リスト
- SEQR: Secure and Efficient QR-based LoRA Routing [53.52716967527183]
Low-Rank Adaptation (LoRA) は,大規模言語モデルのパラメータ効率向上のための標準手法となっている。
与えられた入力に対して適切なLoRAアダプタを効果的に選択することは依然として困難である。
厳密なルーティング保証を提供しながら効率を最大化するために設計された、教師なしのLoRAルーティングアルゴリズムであるSEQRを導入する。
論文 参考訳(メタデータ) (2025-09-22T17:59:38Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - Retrieval-Augmented Mixture of LoRA Experts for Uploadable Machine Learning [57.36978335727009]
Low-Rank Adaptation (LoRA)は、大規模言語モデル(LLM)を微調整する効率的な方法を提供する。
本稿では,入力プロンプトに基づいて複数のLoRAを適応的に検索・構成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T05:24:41Z) - Mixture-of-LoRAs: An Efficient Multitask Tuning for Large Language
Models [7.966452497550907]
大規模言語モデル(LLM)を用いたマルチタスク学習のためのMixture-of-LoRA(MoA)アーキテクチャを提案する。
複数のドメイン固有のLoRAモジュールは、Mixture-of-Experts(MoE)で観察される専門家設計原則と一致させることができる。
各LoRAモデルは、新しいドメインに反復的に適応することができ、素早くドメイン固有の適応を可能にする。
論文 参考訳(メタデータ) (2024-03-06T03:33:48Z) - A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning [34.85351481228439]
既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-03-10T05:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。