論文の概要: The Basic B*** Effect: The Use of LLM-based Agents Reduces the Distinctiveness and Diversity of People's Choices
- arxiv url: http://arxiv.org/abs/2509.02910v1
- Date: Wed, 03 Sep 2025 00:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.372652
- Title: The Basic B*** Effect: The Use of LLM-based Agents Reduces the Distinctiveness and Diversity of People's Choices
- Title(参考訳): 基本的B***効果: LLMをベースとしたエージェントの使用は、人々の選択の識別性と多様性を低下させる
- Authors: Sandra C. Matz, C. Blaine Horton, Sofie Goethals,
- Abstract要約: エージェントLDMが2つのアイデンティティ関連結果に与える影響について検討した。
我々は、汎用的でパーソナライズされたエージェントを人間のベースラインと比較する。
どちらのエージェントも、人々の選択をより人気のある選択肢にシフトさせ、彼らの行動や好みの独特さを減らします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) increasingly act on people's behalf: they write emails, buy groceries, and book restaurants. While the outsourcing of human decision-making to AI can be both efficient and effective, it raises a fundamental question: how does delegating identity-defining choices to AI reshape who people become? We study the impact of agentic LLMs on two identity-relevant outcomes: interpersonal distinctiveness - how unique a person's choices are relative to others - and intrapersonal diversity - the breadth of a single person's choices over time. Using real choices drawn from social-media behavior of 1,000 U.S. users (110,000 choices in total), we compare a generic and personalized agent to a human baseline. Both agents shift people's choices toward more popular options, reducing the distinctiveness of their behaviors and preferences. While the use of personalized agents tempers this homogenization (compared to the generic AI), it also more strongly compresses the diversity of people's preference portfolios by narrowing what they explore across topics and psychological affinities. Understanding how AI agents might flatten human experience, and how using generic versus personalized agents involves distinctiveness-diversity trade-offs, is critical for designing systems that augment rather than constrain human agency, and for safeguarding diversity in thought, taste, and expression.
- Abstract(参考訳): 大規模言語モデル(LLM)は、メールを書いたり、食料品を購入したり、レストランを予約したり、人々の代理として機能するようになっている。
人間の意思決定をAIにアウトソーシングすることは、効率的かつ効果的に行うことができるが、基本的な疑問を提起する。
エージェント的LLMが、個人間の識別性 - 個人の選択が他とどのように相対的であるか - と、個人間の多様性 - 時間とともに個人の選択の広さ - の2つのアイデンティティ関連結果に与える影響について検討する。
1000人の米国ユーザーのソーシャルメディア行動から引き出されたリアルな選択(合計11万の選択肢)を用いて、ジェネリックでパーソナライズされたエージェントと人間のベースラインを比較した。
どちらのエージェントも、人々の選択をより人気のある選択肢にシフトさせ、彼らの行動や好みの独特さを減らします。
パーソナライズされたエージェントの使用は、この均質化(ジェネリックAIと比較)を誘惑する一方で、トピックや心理的親和性を越えて探究するものを絞り込むことによって、人々の好みのポートフォリオの多様性を強く圧縮する。
AIエージェントが人間の経験をフラットにし、汎用的なエージェントとパーソナライズされたエージェントをどのように使うかを理解することは、人間エージェントを制約するのではなく、拡張するシステムを設計し、思考、味、表現の多様性を保護するために重要である。
関連論文リスト
- Persona Dynamics: Unveiling the Impact of Personality Traits on Agents in Text-Based Games [14.443840118369176]
PANDA: Personality Adapted Neural Decision Agentsは,人格特性をエージェントに投影する新しい手法である。
我々は、25のテキストベースのゲームに16の異なるパーソナリティタイプを配置し、それらのトラジェクトリを分析する。
これらの知見は、対話型環境におけるより整合性があり、効果的で、人間中心の意思決定を促進するためのパーソナリティ適応エージェントの約束を裏付けるものである。
論文 参考訳(メタデータ) (2025-04-09T13:17:00Z) - Deterministic AI Agent Personality Expression through Standard Psychological Diagnostics [0.0]
確立された心理学的枠組みを用いて、AIモデルは決定論的かつ一貫した個性を表現することができることを示す。
GPT-4oやo1のようなより高度なモデルは、特定の個性を表現する上で最も正確であることを示している。
これらの発見は、多様で一貫した個性を持つAIエージェントを作成する基盤を確立する。
論文 参考訳(メタデータ) (2025-03-21T12:12:05Z) - A theory of appropriateness with applications to generative artificial intelligence [56.23261221948216]
我々は、AIによる意思決定を適切に評価し、改善するために、人間の意思決定がいかに適切かを理解する必要がある。
本稿では,人間の社会でどのように機能するか,脳でどのように実装されるのか,生成AI技術の展開に責任があるのか,という,適切性の理論について述べる。
論文 参考訳(メタデータ) (2024-12-26T00:54:03Z) - Promptable Behaviors: Personalizing Multi-Objective Rewards from Human
Preferences [53.353022588751585]
本稿では,ロボットエージェントの多種多様な嗜好に対する効率的なパーソナライズを促進する新しいフレームワークであるPromptable Behaviorsを紹介する。
我々は、異なるタイプの相互作用を活用することによって、人間の嗜好を推測する3つの異なる方法を紹介した。
本稿では,ProcTHOR と Robothor のナビゲーションタスクをパーソナライズしたオブジェクトゴールナビゲーションおよびエスケープナビゲーションタスクにおいて,提案手法の評価を行う。
論文 参考訳(メタデータ) (2023-12-14T21:00:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。