論文の概要: Experiential Co-Learning of Software-Developing Agents
- arxiv url: http://arxiv.org/abs/2312.17025v2
- Date: Fri, 29 Dec 2023 12:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 19:06:09.458939
- Title: Experiential Co-Learning of Software-Developing Agents
- Title(参考訳): ソフトウェア開発エージェントの体験的共同学習
- Authors: Chen Qian and Yufan Dang and Jiahao Li and Wei Liu and Weize Chen and
Cheng Yang and Zhiyuan Liu and Maosong Sun
- Abstract要約: 本稿では,実践的コラーニング(Experiential Co-Learning)について紹介する。
このパラダイムは、以前の経験に富んだもので、エージェントに見えないタスクをより効果的に対処させる。
- 参考スコア(独自算出の注目度): 83.85923945385305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in large language models (LLMs) have brought significant
changes to various domains, especially through LLM-driven autonomous agents.
These agents are now capable of collaborating seamlessly, splitting tasks and
enhancing accuracy, thus minimizing the need for human involvement. However,
these agents often approach a diverse range of tasks in isolation, without
benefiting from past experiences. This isolation can lead to repeated mistakes
and inefficient trials in task solving. To this end, this paper introduces
Experiential Co-Learning, a novel framework in which instructor and assistant
agents gather shortcut-oriented experiences from their historical trajectories
and use these past experiences for mutual reasoning. This paradigm, enriched
with previous experiences, equips agents to more effectively address unseen
tasks.
- Abstract(参考訳): 近年の大規模言語モデル(llm)の発展は、特にllm駆動の自律エージェントを通じて、様々なドメインに大きな変化をもたらした。
これらのエージェントは、シームレスに協調し、タスクを分割し、精度を高め、人間の関与の必要性を最小限に抑えることができる。
しかし、これらのエージェントはしばしば、過去の経験から利益を得ることなく、独立した様々なタスクにアプローチする。
この分離は、タスク解決における繰り返しのミスや非効率な試行につながる可能性がある。
そこで,本稿では,教師とアシスタントエージェントが過去の軌跡からショートカット指向の体験を収集し,過去の経験を相互推論に利用するための新しい枠組みであるExperiential Co-Learningを紹介する。
このパラダイムは、以前の経験に富んだもので、エージェントに見えないタスクをより効果的に対処させる。
関連論文リスト
- Learning to Use Tools via Cooperative and Interactive Agents [61.662788490607475]
ツール学習は、大きな言語モデル(LLM)をエージェントとして、その能力を拡張するために外部ツールを使用する権限を与える。
既存の手法では、1つのLCMベースのエージェントを使用してツールを反復的に選択し実行し、その結果を次のアクション予測に組み込む。
本研究では,協調型対話型エージェントフレームワークであるConAgentsを提案し,ツール学習のワークフローをグラウンディング,実行,監視エージェントにモジュール化する。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Empowering Large Language Model Agents through Action Learning [89.07382951897941]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z) - Enabling Multi-Agent Transfer Reinforcement Learning via Scenario
Independent Representation [0.7366405857677227]
マルチエージェント強化学習(MARL)アルゴリズムは、エージェント間の協調や競合を必要とする複雑なタスクに広く採用されている。
本稿では,様々な状態空間を固定サイズの入力に統一することで,MARLの伝達学習を可能にする新しいフレームワークを提案する。
スクラッチから学習するエージェントと比較して,他のシナリオから学んだ操作スキルを用いたマルチエージェント学習性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-02-13T02:48:18Z) - Credit-cognisant reinforcement learning for multi-agent cooperation [0.0]
エージェントは,その行動が環境および共同エージェントに与える影響を知覚することができる。
これらの経験を操り、それらに含まれる報酬を構成することで、すべてのエージェントが受け取る報酬を同一のアクションシーケンスに含めることで、独立した深層Q-ラーニングの性能を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-11-18T09:00:25Z) - Generalizing to New Tasks via One-Shot Compositional Subgoals [23.15624959305799]
以前は見つからなかったタスクをほとんど、あるいはまったく監督せずに一般化する能力は、現代の機械学習研究において重要な課題である。
適応型「近未来」サブゴールを用いて、模倣学習エージェントを訓練することにより、これらの問題に対処しようとするCASEを導入する。
実験の結果,提案手法は従来よりも30%向上していることがわかった。
論文 参考訳(メタデータ) (2022-05-16T14:30:11Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z) - Co-Imitation Learning without Expert Demonstration [39.988945772085465]
我々は,エージェントの過去の優れた経験を専門家のデモンストレーションなしで活用するための,CoIL(Co-Imitation Learning)と呼ばれる新しい学習フレームワークを提案する。
経験は有用か誤解を招く可能性があるが、期待される値関数の利得によって各経験の潜在的有用性を評価することを提案する。
各種課題に対する実験結果から,提案したコイミテーション学習フレームワークの有意な優位性を示した。
論文 参考訳(メタデータ) (2021-03-27T06:58:40Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。