論文の概要: Is There Any Social Principle for LLM-Based Agents?
- arxiv url: http://arxiv.org/abs/2308.11136v2
- Date: Sun, 26 Nov 2023 14:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 15:12:27.539805
- Title: Is There Any Social Principle for LLM-Based Agents?
- Title(参考訳): LLMエージェントに社会原理はあるか?
- Authors: Jitao Bai, Simiao Zhang, Zhonghao Chen
- Abstract要約: 大規模言語モデルに基づくエージェントは、人間中心のアライメントやアプリケーション以上のものを含むべきである。
エージェント自体により多くの注意を払うべきであり、エージェントに適した社会科学を確立する可能性について議論すべきである。
- 参考スコア(独自算出の注目度): 1.9950682531209158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Focus on Large Language Model based agents should involve more than
"human-centered" alignment or application. We argue that more attention should
be paid to the agent itself and discuss the potential of establishing tailored
social sciences for agents.
- Abstract(参考訳): 大規模言語モデルに基づくエージェントは、人間中心のアライメントやアプリケーション以上のものを含むべきである。
エージェント自体により多くの注意を払うべきであり、エージェントに適した社会科学を確立する可能性について議論すべきである。
関連論文リスト
- PersonaGym: Evaluating Persona Agents and LLMs [47.75926334294358]
我々は、ペルソナエージェントを評価するための最初の動的評価フレームワークであるPersonaGymと、意思決定理論に基礎を置く最初の自動化ヒトアライメントメトリックであるPersonaScoreを紹介する。
200のペルソナと10,000の質問を含むベンチマークを用いて、6つのオープンでクローズドなLCMの評価を行ったところ、ペルソナエージェントの能力向上の可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-25T22:24:45Z) - Artificial Leviathan: Exploring Social Evolution of LLM Agents Through the Lens of Hobbesian Social Contract Theory [8.80864059602965]
大規模言語モデル(LLM)と人工知能(AI)の進歩は、大規模に計算社会科学研究の機会を提供する。
我々の研究は、複雑な社会的関係が動的に形成され、時間とともに進化するシミュレーションエージェント・ソサイエティを導入している。
我々は、この理論が仮定しているように、エージェントが秩序と安全保障と引き換えに絶対的な主権を放棄することで、残酷な「自然の状態」から逃れようとするかどうかを分析する。
論文 参考訳(メタデータ) (2024-06-20T14:42:58Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Mediated Multi-Agent Reinforcement Learning [3.8581550679584473]
社会福祉を最大化するために、政策グラデーションを持つエージェントとともに仲介者を訓練する方法を示す。
行列ゲームと反復ゲームにおける実験は,マルチエージェント強化学習におけるメディエータの適用の可能性を強調した。
論文 参考訳(メタデータ) (2023-06-14T10:31:37Z) - Investigating Agency of LLMs in Human-AI Collaboration Tasks [24.562034082480608]
我々は社会認知理論に基づいて、エージェントが対話で表現される特徴の枠組みを構築する。
我々は、83人の人間と人間の協力的なインテリアデザインの会話のデータセットを収集する。
論文 参考訳(メタデータ) (2023-05-22T08:17:14Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Subjective Knowledge and Reasoning about Agents in Multi-Agent Systems [5.983405936883194]
多エージェントシステムでは、エージェントは他のエージェントの精神状態に影響を与える可能性がある。
本稿では,エージェントの主観的知識に基づいて,Kripke構造に基づくてんかんモデルを拡張して,上記の概念を表現する方法について検討する。
論文 参考訳(メタデータ) (2020-01-22T13:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。