論文の概要: MIMIR: A Streamlined Platform for Personalized Agent Tuning in Domain Expertise
- arxiv url: http://arxiv.org/abs/2404.04285v1
- Date: Wed, 3 Apr 2024 23:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 23:46:55.320513
- Title: MIMIR: A Streamlined Platform for Personalized Agent Tuning in Domain Expertise
- Title(参考訳): MIMIR: ドメインエキスパートのためのパーソナライズされたエージェントチューニングプラットフォーム
- Authors: Chunyuan Deng, Xiangru Tang, Yilun Zhao, Hanming Wang, Haoran Wang, Wangchunshu Zhou, Arman Cohan, Mark Gerstein,
- Abstract要約: textscMimirは、パーソナライズされたエージェントチューニングのためのカスタマイズ可能なパイプラインを提供する、合理化されたプラットフォームである。
textscMimirは、同じ入力から一般的な命令チューニングデータセットの生成をサポートする。
textscMimirはこれらの機能を統合されたエンドツーエンドプラットフォームに統合し、パーソナライズされたファイルのアップロードからワンクリックエージェントの微調整まで、あらゆることを容易にする。
- 参考スコア(独自算出の注目度): 49.83486066403154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large language models (LLMs) have evolved into interactive agents, proficient in planning, tool use, and task execution across a wide variety of tasks. However, without specific agent tuning, open-source models like LLaMA currently struggle to match the efficiency of GPT- 4, particularly given the scarcity of agent-tuning datasets for fine-tuning. In response, we introduce \textsc{Mimir}: a streamlined platform offering a customizable pipeline that enables users to leverage both private knowledge and publicly available, legally compliant datasets at scale for \textbf{personalized agent tuning}. Additionally, \textsc{Mimir} supports the generation of general instruction-tuning datasets from the same input. This dual capability ensures that language agents developed through the platform possess both specific agent abilities and general competencies. \textsc{Mimir} integrates these features into a cohesive end-to-end platform, facilitating everything from the uploading of personalized files to one-click agent fine-tuning.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) は対話型エージェントに進化し,計画やツールの使用,タスク実行などさまざまなタスクに精通している。
しかし、特定のエージェントチューニングがなければ、LLaMAのようなオープンソースモデルは、特に微調整のためのエージェントチューニングデータセットが不足していることを考えると、GPT-4の効率に合わせるのに苦労している。
これに対応するために, ユーザがプライベート知識と公開可能な, 法的に準拠したデータセットの両方を, カスタマイズ可能なパイプラインを提供する合理化プラットフォームである \textbf{personalized agent tuning} を紹介した。
さらに \textsc{Mimir} は、同じ入力から一般的な命令チューニングデータセットの生成をサポートする。
このデュアル機能は、プラットフォームを通じて開発された言語エージェントが、特定のエージェント能力と一般的な能力の両方を持っていることを保証します。
この機能は、パーソナライズされたファイルのアップロードからワンクリックエージェントの微調整まで、あらゆることを容易にする。
関連論文リスト
- LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Personalized Federated Instruction Tuning via Neural Architecture Search [25.19100691411643]
Federated Instruction Tuning (FIT)は、プライベートデータを共有することなく、大規模データ所有者間で協調的なモデルチューニングを実現する能力を示している。
データ所有者間でのデータの分散や嗜好の変化により、FITは個々の所有者のパーソナライズされたデータに適応できない。
アーキテクチャ探索に基づくパーソナライズド・フェデレーション・インストラクション・チューニング(PerFIT)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T06:29:05Z) - AgentScope: A Flexible yet Robust Multi-Agent Platform [66.61478569048477]
AgentScopeは、メッセージ交換をコアコミュニケーションメカニズムとする、開発者中心のマルチエージェントプラットフォームである。
堅牢で柔軟なマルチエージェントアプリケーションを目指して、AgentScopeはビルトインとカスタマイズ可能なフォールトトレランスメカニズムを提供する。
論文 参考訳(メタデータ) (2024-02-21T04:11:28Z) - Communication-Efficient Personalized Federated Learning for
Speech-to-Text Tasks [66.78640306687227]
プライバシー保護と法的規制を満たすために、連邦学習(FL)は、音声テキスト(S2T)システムのトレーニングにおいて大きな注目を集めている。
S2Tタスクで一般的に使用されるFLアプローチ(textscFedAvg)は、通常、広範な通信オーバーヘッドに悩まされる。
我々は、クライアント側チューニングとサーバとのインタラクションのための軽量なLoRAモジュールであるtextscFedLoRA と、$k$-near を備えたグローバルモデルである textscFedMem を導入したパーソナライズされたS2Tフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T15:39:38Z) - PRODIGy: a PROfile-based DIalogue Generation dataset [14.123548564209068]
コミュニケーションスタイル, 伝記, パーソナリティなど, 各対話が可能なすべての話者表現と整合する新たなリソースを提案する。
このフレームワークは、複数のプロファイル構成を持つ生成言語モデルを使用して構築されたいくつかのベースラインをテストすることができる。
論文 参考訳(メタデータ) (2023-11-09T08:19:34Z) - Agents: An Open-source Framework for Autonomous Language Agents [98.91085725608917]
我々は、言語エージェントを人工知能への有望な方向と見なしている。
Agentsはオープンソースライブラリで、これらの進歩を広く非専門的な聴衆に開放することを目的としています。
論文 参考訳(メタデータ) (2023-09-14T17:18:25Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Gentopia: A Collaborative Platform for Tool-Augmented LLMs [21.09079715807735]
簡単な構成でエージェントを柔軟にカスタマイズできる拡張言語モデル(ALM)フレームワークであるgentopiaを提案する。
我々はまた、ユーザカスタマイズエージェントの登録と共有を可能にするパブリックプラットフォームであるgentpoolを構築した。
ジェントプールの不可欠なコンポーネントであるgentbenchは、安全性、堅牢性、効率性など、さまざまな面でユーザカスタマイズエージェントを徹底的に評価するように設計されている。
論文 参考訳(メタデータ) (2023-08-08T04:12:29Z) - ELIT: Emory Language and Information Toolkit [15.340540198612826]
ELITは、コアタスクのためのトランスフォーマーベースのエンドツーエンドモデルを提供する包括的なフレームワークである。
ELITは効率のよいマルチタスク学習(MTL)モデルを備えており、レムマティゼーション、部分音声タグ付け、名前付きエンティティ認識、依存性解析、候補解析、セマンティックロールラベリング、AMR解析など、多くの下流タスクがある。
論文 参考訳(メタデータ) (2021-09-08T19:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。