論文の概要: SkillFlow: Efficient Skill and Code Transfer Through Communication in Adapting AI Agents
- arxiv url: http://arxiv.org/abs/2504.06188v1
- Date: Tue, 08 Apr 2025 16:33:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:13.826331
- Title: SkillFlow: Efficient Skill and Code Transfer Through Communication in Adapting AI Agents
- Title(参考訳): SkillFlow:AIエージェントの適応におけるコミュニケーションによる効果的なスキルとコード転送
- Authors: Pagkratios Tagkopoulos, Fangzhou Li, Ilias Tagkopoulos,
- Abstract要約: SkillFlowは、エージェントがアドホックな方法で機能を拡張できる技術に依存しないフレームワークである。
我々は,SkillFlowがタスク完了を加速し,実際のアプリケーションにおける累積コストを低減できることを示す。
- 参考スコア(独自算出の注目度): 1.249418440326334
- License:
- Abstract: AI agents are autonomous systems that can execute specific tasks based on predefined programming. Here, we present SkillFlow, a modular, technology-agnostic framework that allows agents to expand their functionality in an ad-hoc fashion by acquiring new skills from their environment or other agents. We present a theoretical model that examines under which conditions this framework would be beneficial, and we then explore SkillFlow's ability to accelerate task completion and lead to lower cumulative costs in a real-world application, namely scheduling agents for calendar events. We demonstrate that within a few iterations, SkillFlow leads to considerable (24.8%, p-value = $6.4\times10^{-3}$) gains in time and cost, especially when the communication cost is high. Finally, we draw analogies from well-studied biological systems and compare this framework to that of lateral gene transfer, a significant process of adaptation and evolution in novel environments.
- Abstract(参考訳): AIエージェントは、事前に定義されたプログラミングに基づいて特定のタスクを実行することができる自律システムである。
ここでは、エージェントが環境や他のエージェントから新しいスキルを取得することで、アドホックな方法で機能を拡張できるモジュラーで技術に依存しないフレームワークであるSkillFlowを紹介します。
そこで我々は,このフレームワークがどのような条件で役に立つかを検証し,SkillFlowのタスク完了を加速し,実際のアプリケーション,すなわちカレンダーイベントのスケジューリングエージェントにおいて累積コストを低減させる能力について検討する。
数回の反復で、SkillFlowは(24.8%、p-value = 6.4\times10^{-3}$)通信コストが高くなると、時間とコストが大幅に向上することを示した。
最後に、よく研究された生物学的システムの類似を描き、この枠組みを、新しい環境における適応と進化の重要な過程である側方遺伝子導入の枠組みと比較する。
関連論文リスト
- TheAgentCompany: Benchmarking LLM Agents on Consequential Real World Tasks [52.46737975742287]
私たちは小さなソフトウェア企業環境を模倣したデータによる自己完結型環境を構築します。
最も競争力のあるエージェントでは、タスクの24%が自律的に完了できます。
これは、LMエージェントによるタスク自動化に関するニュアンスな絵を描く。
論文 参考訳(メタデータ) (2024-12-18T18:55:40Z) - To Train or Not to Train: Balancing Efficiency and Training Cost in Deep Reinforcement Learning for Mobile Edge Computing [15.079887992932692]
資源を割り当てるDeep Reinforcement Learning (DRL)エージェントをいつトレーニングするかを動的に選択するアルゴリズムを提案する。
トレーニングのオーバーヘッドを伴うシナリオに対して直接適用することができるので,本手法は極めて一般的である。
論文 参考訳(メタデータ) (2024-11-11T16:02:12Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - SHIRE: Enhancing Sample Efficiency using Human Intuition in REinforcement Learning [11.304750795377657]
確率的図形モデル(PGM)を用いた人間の直観を符号化するフレームワークShireを提案する。
ShiREは、評価対象環境の25~78%のサンプル効率を、無視可能なオーバーヘッドコストで達成します。
論文 参考訳(メタデータ) (2024-09-16T04:46:22Z) - Game On: Towards Language Models as RL Experimenters [8.131696370980379]
本稿では,一般的な強化学習実験ワークフローの一部を自動化するエージェントアーキテクチャを提案する。
我々は、言語条件のアクター・クリティカルアルゴリズムにスキルのカリキュラムを提供するために、追加の微調整をせずに、標準のジェミニモデルを使用する。
成長するスキルのライブラリを構築し、それらのスキルの訓練の進捗を判断するシステムの能力のさらなる検証も、有望な結果を示している。
論文 参考訳(メタデータ) (2024-09-05T10:38:16Z) - Skill-Based Reinforcement Learning with Intrinsic Reward Matching [77.34726150561087]
Intrinsic Reward Matching (IRM) を提案する。
IRMにより、従来のスキル選択方法よりもはるかに効果的に事前訓練されたスキルを活用できる。
論文 参考訳(メタデータ) (2022-10-14T00:04:49Z) - Multi-Agent Reinforcement Learning for Long-Term Network Resource
Allocation through Auction: a V2X Application [7.326507804995567]
我々は,自律エージェント間の分散意思決定として,移動エージェントの動的グループ(自動車など)からの計算タスクのオフロードを定式化する。
我々は、競争と協力のバランスをとることで、そのようなエージェントにプライベートとシステム目標の整合を動機付けるインタラクションメカニズムを設計する。
本稿では,部分的,遅延,ノイズの多い状態情報を用いて学習する,新しいマルチエージェントオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T10:29:06Z) - Online Learning of Competitive Equilibria in Exchange Economies [94.24357018178867]
経済学では、複数の有理エージェント間の資源不足の共有は古典的な問題である。
エージェントの好みを学習するためのオンライン学習機構を提案する。
数値シミュレーションにより,本機構の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-11T21:32:17Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Latent Skill Planning for Exploration and Transfer [49.25525932162891]
本稿では,この2つの手法を1つの強化学習エージェントに統合する方法について検討する。
テスト時の高速適応に部分的償却の考え方を活用する。
私たちは、困難なロコモーションタスクのスイートでデザイン決定のメリットを実演しています。
論文 参考訳(メタデータ) (2020-11-27T18:40:03Z) - Deep active inference agents using Monte-Carlo methods [3.8233569758620054]
モンテカルロサンプリングを用いた連続状態空間における深部能動推論エージェント構築のためのニューラルアーキテクチャを提案する。
提案手法は,タスク性能を維持しつつ,環境動態を効率的に学習することを可能にする。
その結果、深層能動推論は生物学的にインスパイアされた知的エージェントを開発するための柔軟な枠組みを提供することが示された。
論文 参考訳(メタデータ) (2020-06-07T15:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。