論文の概要: Agents Are Not Enough
- arxiv url: http://arxiv.org/abs/2412.16241v1
- Date: Thu, 19 Dec 2024 16:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:14.828810
- Title: Agents Are Not Enough
- Title(参考訳): エージェントは十分ではない
- Authors: Chirag Shah, Ryen W. White,
- Abstract要約: 人間のために行動する自律プログラムは、メインストリームのAIムーブメントに新しくも排他的でもない。
現在のエージェントの波を効果的かつ持続可能なものにするために,ユーザの好みや行動を表すSimsや,直接ユーザと対話し,エージェントの助けを借りてユーザタスクの実行をコーディネートするAssistantsを含むエコシステムを構想する。
- 参考スコア(独自算出の注目度): 16.142735071162765
- License:
- Abstract: In the midst of the growing integration of Artificial Intelligence (AI) into various aspects of our lives, agents are experiencing a resurgence. These autonomous programs that act on behalf of humans are neither new nor exclusive to the mainstream AI movement. By exploring past incarnations of agents, we can understand what has been done previously, what worked, and more importantly, what did not pan out and why. This understanding lets us to examine what distinguishes the current focus on agents. While generative AI is appealing, this technology alone is insufficient to make new generations of agents more successful. To make the current wave of agents effective and sustainable, we envision an ecosystem that includes not only agents but also Sims, which represent user preferences and behaviors, as well as Assistants, which directly interact with the user and coordinate the execution of user tasks with the help of the agents.
- Abstract(参考訳): 人工知能(AI)が私たちの生活の様々な側面に統合される中、エージェントは復活を遂げている。
人間のために行動するこれらの自律プログラムは、メインストリームのAIムーブメントに新しくも排他的でもない。
エージェントの過去の化身を探ることで、これまで何をしてきたのか、何がうまくいったのか、さらに重要なのは、何がうまくいかなかったのか、なぜなのかを理解することができます。
この理解により、エージェントに対する現在のフォーカスを何に区別するかを調べることができます。
生成AIは魅力的だが、この技術だけでは、新しい世代のエージェントをより成功させるには不十分だ。
現在のエージェントの波を効果的かつ持続可能なものにするために、エージェントだけでなく、ユーザの好みや振る舞いを表すSimsや、ユーザと直接対話し、エージェントの助けを借りてユーザタスクの実行を調整するAssistantsを含むエコシステムを構想する。
関連論文リスト
- Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization [56.674356045200696]
本稿では,複雑なメモシステムや事前の高品質な実演データを必要としない,複数のタスクに対する知識とスキルを取り入れたAIエージェントの訓練手法を提案する。
このアプローチでは,エージェントが新たな経験を収集し,ヒントの形で人間から補正フィードバックを受け取り,このフィードバックを重みに組み込む,反復的なプロセスを採用している。
Llama-3 をベースとしたエージェントに実装することで,提案手法の有効性を実証し,数ラウンドのフィードバックの後,高度なモデル GPT-4o と DeepSeek-V3 をタスクセットで向上させる。
論文 参考訳(メタデータ) (2025-02-03T17:45:46Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - AI Autonomy : Self-Initiated Open-World Continual Learning and
Adaptation [16.96197233523911]
本稿では,自律的かつ連続的な学習が可能なAIエージェントを構築するためのフレームワークを提案する。
重要な課題は、エージェント自身のイニシアチブで継続的に実行されるように、プロセスを自動化する方法である。
論文 参考訳(メタデータ) (2022-03-17T00:07:02Z) - Self-Initiated Open World Learning for Autonomous AI Agents [16.41396764793912]
実際にAIエージェントが使われるようになるにつれて、エージェントを完全に自律的にする方法を考える時が来た。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための,この学習パラダイムの理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-21T18:11:02Z) - Thinking Fast and Slow in AI: the Role of Metacognition [35.114607887343105]
最先端のAIには、(人間)インテリジェンスの概念に自然に含まれる多くの能力がない。
私たちは、人間がこれらの能力を持つことができるメカニズムをよりよく研究することで、これらの能力でAIシステムを構築する方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-05T06:05:38Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。