論文の概要: Social Cooperation in Conversational AI Agents
- arxiv url: http://arxiv.org/abs/2506.01624v1
- Date: Mon, 02 Jun 2025 13:02:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.390844
- Title: Social Cooperation in Conversational AI Agents
- Title(参考訳): 会話型AIエージェントにおける社会協力
- Authors: Mustafa Mert Çelikok, Saptarashmi Bandyopadhyay, Robert Loftin,
- Abstract要約: これらの課題は、人間の社会的知性を明示的にモデル化することで克服できると我々は主張する。
人間がコミュニケーションするために使用する戦略を数学的にモデル化し、長期間にわたって互いに推論することで、我々は新しいゲーム理論の目的を導き出すことができるかもしれない。
- 参考スコア(独自算出の注目度): 17.015143707851358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of AI agents based on large, open-domain language models (LLMs) has paved the way for the development of general-purpose AI assistants that can support human in tasks such as writing, coding, graphic design, and scientific research. A major challenge with such agents is that, by necessity, they are trained by observing relatively short-term interactions with humans. Such models can fail to generalize to long-term interactions, for example, interactions where a user has repeatedly corrected mistakes on the part of the agent. In this work, we argue that these challenges can be overcome by explicitly modeling humans' social intelligence, that is, their ability to build and maintain long-term relationships with other agents whose behavior cannot always be predicted. By mathematically modeling the strategies humans use to communicate and reason about one another over long periods of time, we may be able to derive new game theoretic objectives against which LLMs and future AI agents may be optimized.
- Abstract(参考訳): 大規模でオープンなドメイン言語モデル(LLM)に基づくAIエージェントの開発は、文章、コーディング、グラフィックデザイン、科学研究などのタスクで人間をサポートする汎用AIアシスタントの開発の道を開いた。
このようなエージェントの最大の課題は、必要により、それらは人間との比較的短期的な相互作用を観察することによって訓練されることである。
このようなモデルは、例えば、ユーザーがエージェントの部分で繰り返し間違いを訂正した相互作用のように、長期的な相互作用に一般化できない可能性がある。
本研究では、人間の社会的知性、すなわち、常に予測できない他のエージェントとの長期的な関係を構築し維持する能力を明確にモデル化することで、これらの課題を克服することができると論じる。
人間のコミュニケーションに使用する戦略を数学的にモデル化し、長期にわたって推論することで、LSMと将来のAIエージェントが最適化されるような、新たなゲーム理論の目的を導き出すことができるかもしれない。
関連論文リスト
- Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - ChatCollab: Exploring Collaboration Between Humans and AI Agents in Software Teams [1.3967206132709542]
ChatCollabの斬新なアーキテクチャは、エージェント(人間またはAI)が任意の役割でコラボレーションに参加することを可能にする。
ソフトウェアエンジニアリングをケーススタディとして使用することで、私たちのAIエージェントが彼らの役割と責任をうまく特定できることが分かりました。
ソフトウェア開発のための従来の3つのマルチエージェントAIシステムに関連して、ChatCollab AIエージェントはインタラクティブなゲーム開発タスクにおいて、同等またはより良いソフトウェアを生成する。
論文 参考訳(メタデータ) (2024-12-02T21:56:46Z) - Two Heads Are Better Than One: Collaborative LLM Embodied Agents for Human-Robot Interaction [1.6574413179773757]
大規模言語モデル(LLM)は、自然言語コマンドを解釈するために、その膨大な理解を活用できなければならない。
しかし、これらのモデルは幻覚に悩まされ、安全上の問題やタスクからの逸脱を引き起こす可能性がある。
本研究では、一つの独立したAIエージェントに対して複数のコラボレーティブAIシステムがテストされ、他のドメインの成功が人間とロボットのインタラクション性能の改善につながるかどうかを判定した。
論文 参考訳(メタデータ) (2024-11-23T02:47:12Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - A Mental-Model Centric Landscape of Human-AI Symbiosis [31.14516396625931]
我々は、GHAI(Generalized Human-Aware Interaction)と呼ばれる、ヒューマン・アウェア・AIインタラクション・スキームの極めて一般的なバージョンを導入する。
この新しいフレームワークによって、人間とAIのインタラクションの空間で達成されたさまざまな作業が捕捉され、これらの作業によって支えられる基本的な行動パターンが特定できるかどうかを確認します。
論文 参考訳(メタデータ) (2022-02-18T22:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。