論文の概要: AgentRec: Agent Recommendation Using Sentence Embeddings Aligned to Human Feedback
- arxiv url: http://arxiv.org/abs/2501.13333v1
- Date: Thu, 23 Jan 2025 02:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:50.939871
- Title: AgentRec: Agent Recommendation Using Sentence Embeddings Aligned to Human Feedback
- Title(参考訳): AgentRec:人間のフィードバックに応じた文埋め込みを用いたエージェント勧告
- Authors: Joshua Park, Yongfeng Zhang,
- Abstract要約: 本稿では,自然言語のプロンプトを与えられたタスクを実行するエージェントを,多種多様なエージェントに推奨する新しいアーキテクチャを提案する。
テストデータでは、各分類が300ミリ秒未満で、トップ1の精度92.2%を達成することができる。
- 参考スコア(独自算出の注目度): 33.45304935470874
- License:
- Abstract: Multi-agent systems must decide which agent is the most appropriate for a given task. We propose a novel architecture for recommending which LLM agent out of many should perform a task given a natural language prompt by extending the Sentence-BERT (SBERT) encoder model. On test data, we are able to achieve a top-1 accuracy of 92.2% with each classification taking less than 300 milliseconds. In contrast to traditional classification methods, our architecture is computationally cheap, adaptive to new classes, interpretable, and controllable with arbitrary metrics through reinforcement learning. By encoding natural language prompts into sentence embeddings, our model captures the semantic content relevant to recommending an agent. The distance between sentence embeddings that belong to the same agent is then minimized through fine-tuning and aligned to human values through reinforcement learning from human feedback. This allows the classification of natural language prompts based on their nearest neighbors by measuring the cosine similarity between embeddings. This work is made possible through the generation of a synthetic dataset for agent recommendation, which we have open-sourced to the public along with the code for AgentRec recommendation system at https://github.com/joshprk/agentrec.
- Abstract(参考訳): マルチエージェントシステムは、与えられたタスクに最も適したエージェントを決定する必要がある。
本稿では,SBERT(Sentence-BERT)エンコーダモデルを拡張することで,自然言語のプロンプトを与えられたタスクを実行することを,多くのLLMエージェントに推奨する新しいアーキテクチャを提案する。
テストデータでは、各分類が300ミリ秒未満で、トップ1の精度92.2%を達成することができる。
従来の分類法とは対照的に、我々のアーキテクチャは計算的に安価で、新しいクラスに適応し、解釈可能で、強化学習を通じて任意のメトリクスで制御可能である。
自然言語のプロンプトを文の埋め込みにエンコードすることで、エージェントの推薦に関連するセマンティックコンテンツをキャプチャする。
同じエージェントに属する文の埋め込み間の距離は、微調整によって最小化され、人間のフィードバックからの強化学習によって人間の価値に合わせる。
これにより、埋め込み間のコサイン類似度を測定することにより、近隣の言語プロンプトの分類が可能となる。
我々はAgentRecレコメンデーションシステムのコードをhttps://github.com/joshprk/agentrec.comで公開しています。
関連論文リスト
- AgentRE: An Agent-Based Framework for Navigating Complex Information Landscapes in Relation Extraction [10.65417796726349]
複雑なシナリオにおける関係抽出(RE)は、多種多様な関係型や単一の文内のエンティティ間のあいまいな関係のような課題に直面します。
本稿では,複雑なシナリオにおいてREを実現するために,大規模言語モデルの可能性を完全に活用するエージェントベースのREフレームワークであるAgentREを提案する。
論文 参考訳(メタデータ) (2024-09-03T12:53:05Z) - Multitask Fine-Tuning and Generative Adversarial Learning for Improved Auxiliary Classification [0.0]
3つの下流タスクをマルチタスクで微調整するための新しいBERTアーキテクチャを実装した。
我々のモデルであるMultitask BERTは、レイヤ共有とトリプルトアーキテクチャ、カスタム文ペアトークン化、損失ペアリング、勾配手術を取り入れています。
また、BERTに生成逆学習を適用し、潜在空間から写像して偽の埋め込みを生成する条件付きジェネレータモデルを構築した。
論文 参考訳(メタデータ) (2024-08-11T20:05:54Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Learning Generative Models with Goal-conditioned Reinforcement Learning [0.0]
目標条件付き強化学習を用いた生成モデル学習のための新しいフレームワークを提案する。
画像合成のタスクにおいて,本手法が多種多様な高品質なサンプルを生成可能であることを実証的に実証した。
論文 参考訳(メタデータ) (2023-03-26T20:33:44Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。