論文の概要: Multi-Agents are Social Groups: Investigating Social Influence of Multiple Agents in Human-Agent Interactions
- arxiv url: http://arxiv.org/abs/2411.04578v1
- Date: Thu, 07 Nov 2024 10:00:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:37:45.710505
- Title: Multi-Agents are Social Groups: Investigating Social Influence of Multiple Agents in Human-Agent Interactions
- Title(参考訳): マルチエージェントは社会集団である:人間とエージェントの相互作用における複数のエージェントの社会的影響を調査する
- Authors: Tianqi Song, Yugin Tan, Zicheng Zhu, Yibin Feng, Yi-Chieh Lee,
- Abstract要約: 我々は,AIエージェントの集団が,ユーザに対して同意を求める社会的プレッシャーを生じさせるかどうかを検討する。
その結果、複数のエージェントと会話することで、参加者が感じた社会的プレッシャーが増すことがわかった。
本研究は, 単一エージェントプラットフォームに対するマルチエージェントシステムの潜在的利点が, 意見変化を引き起こす可能性を示唆している。
- 参考スコア(独自算出の注目度): 7.421573539569854
- License:
- Abstract: Multi-agent systems - systems with multiple independent AI agents working together to achieve a common goal - are becoming increasingly prevalent in daily life. Drawing inspiration from the phenomenon of human group social influence, we investigate whether a group of AI agents can create social pressure on users to agree with them, potentially changing their stance on a topic. We conducted a study in which participants discussed social issues with either a single or multiple AI agents, and where the agents either agreed or disagreed with the user's stance on the topic. We found that conversing with multiple agents (holding conversation content constant) increased the social pressure felt by participants, and caused a greater shift in opinion towards the agents' stances on each topic. Our study shows the potential advantages of multi-agent systems over single-agent platforms in causing opinion change. We discuss design implications for possible multi-agent systems that promote social good, as well as the potential for malicious actors to use these systems to manipulate public opinion.
- Abstract(参考訳): マルチエージェントシステム — 複数の独立したAIエージェントが共通の目標を達成するために協力するシステム — は、日々の生活でますます普及しつつある。
人間集団の社会的影響の現象からインスピレーションを得て,AIエージェントの集団がユーザに対して同意を求める社会的プレッシャーを生じさせるかどうかを調査し,トピックに対するスタンスを変える可能性がある。
我々は、参加者が1人または複数人のAIエージェントと社会的問題について議論し、エージェントがトピックに対するユーザのスタンスに同意するか、同意しないかを調査した。
その結果、複数のエージェント(会話内容の一定保持)と会話することで、参加者の社会的プレッシャーが増加し、各トピックに対するエージェントのスタンスに対する意見がより大きく変化することがわかった。
本研究は, 単一エージェントプラットフォームに対するマルチエージェントシステムの潜在的利点が, 意見変化を引き起こす可能性を示唆している。
社会的利益を促進するマルチエージェントシステムの設計と、悪質なアクターがこれらのシステムを使って世論を操る可能性について論じる。
関連論文リスト
- I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Dynamics of Moral Behavior in Heterogeneous Populations of Learning Agents [3.7414804164475983]
本研究では、道徳的に異質な集団が社会的ジレンマ環境で相互作用する学習力学について研究する。
我々は、親社会と反社会的エージェント間のいくつかの非自明な相互作用を観察する。
ある種の道徳的エージェントは、より協調的な行動に向けて利己的なエージェントを操ることができる。
論文 参考訳(メタデータ) (2024-03-07T04:12:24Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。