論文の概要: Polarization of Autonomous Generative AI Agents Under Echo Chambers
- arxiv url: http://arxiv.org/abs/2402.12212v1
- Date: Mon, 19 Feb 2024 15:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:59:21.044741
- Title: Polarization of Autonomous Generative AI Agents Under Echo Chambers
- Title(参考訳): エコーチャンバー下での自律生成AIエージェントの分極
- Authors: Masaya Ohagi
- Abstract要約: エコーチャンバーはしばしば分極を発生させ、急進的な意見を持つ人々によって引き起こされる紛争に繋がる。
生成言語モデルに基づく自律型AIエージェント群における分極の可能性について検討した。
エコー室環境下では,ChatGPTをベースとしたエージェント群が分極する傾向にあった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online social networks often create echo chambers where people only hear
opinions reinforcing their beliefs. An echo chamber often generates
polarization, leading to conflicts caused by people with radical opinions, such
as the January 6, 2021, attack on the US Capitol. The echo chamber has been
viewed as a human-specific problem, but this implicit assumption is becoming
less reasonable as large language models, such as ChatGPT, acquire social
abilities. In response to this situation, we investigated the potential for
polarization to occur among a group of autonomous AI agents based on generative
language models in an echo chamber environment. We had AI agents discuss
specific topics and analyzed how the group's opinions changed as the discussion
progressed. As a result, we found that the group of agents based on ChatGPT
tended to become polarized in echo chamber environments. The analysis of
opinion transitions shows that this result is caused by ChatGPT's high prompt
understanding ability to update its opinion by considering its own and
surrounding agents' opinions. We conducted additional experiments to
investigate under what specific conditions AI agents tended to polarize. As a
result, we identified factors that strongly influence polarization, such as the
agent's persona. These factors should be monitored to prevent the polarization
of AI agents.
- Abstract(参考訳): オンラインソーシャルネットワークは、人々が自分の信念を補強する意見のみを聞くエコーチャンバーを作ることが多い。
エコー室はしばしば分極を発生させ、2021年1月6日のアメリカ議会議事堂攻撃のような急進的な意見を持つ人々による紛争を引き起こした。
echo chamberは人間特有の問題と見なされているが、この暗黙の仮定は、chatgptのような大きな言語モデルが社会的能力を取得するほど合理的ではない。
そこで我々は, エコーチャンバー環境における生成言語モデルに基づく自律型AIエージェント群において, 偏極が発生する可能性について検討した。
AIエージェントが特定のトピックについて議論し、議論が進むにつれてグループの意見がどのように変わったかを分析しました。
その結果, エコー室環境下では, ChatGPTをベースとしたエージェント群が分極する傾向が認められた。
意見遷移の分析は、この結果がChatGPTの自己および周辺エージェントの意見を考慮し、その意見を更新する素早い理解能力によって引き起こされたことを示している。
我々は,aiエージェントが偏光しやすい特定の条件下でのさらなる実験を行った。
その結果, エージェントのペルソナなど, 偏光に強い影響を及ぼす因子が同定された。
これらの要因は、AIエージェントの分極を防ぐために監視されるべきである。
関連論文リスト
- Decoding Echo Chambers: LLM-Powered Simulations Revealing Polarization in Social Networks [12.812531689189065]
ソーシャルメディアがエコーチャンバーなどの重要な問題に与える影響に対処する必要がある。
伝統的な研究はしばしば感情的な傾向や意見の進化を数字や公式に単純化する。
偏光現象の評価と対策を行うために, LLM を用いた社会意見ネットワークのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-09-28T12:49:02Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Reducing Opinion Echo-Chambers by Intelligent Placement of
Moderate-Minded Agents [24.712838547388895]
我々は、オープンなエージェントと密接なエージェントが、自由にインターミキシングとコミュニケーションを許すときの、ある問題に対する異なる行動を示す。
我々は、エコーチャンバーを操作・縮小する能力を有する特定の「モデレート」志向のエージェントを同定する。
本稿では,意見エコーチャンバーを最大に削減できる,意見時間スペクトルにおける中等感性エージェントのインテリジェント配置アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-21T05:12:08Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - A Survey on Echo Chambers on Social Media: Description, Detection and
Mitigation [13.299893581687702]
ソーシャルメディア上のエコーチャンバーは、多くのネガティブな結果をもたらす重要な問題である。
我々は、エコーチャンバーの形成に繋がるアルゴリズムと心理学の両方のメカニズムを示す。
論文 参考訳(メタデータ) (2021-12-09T18:20:25Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Towards control of opinion diversity by introducing zealots into a
polarised social group [7.9603223299524535]
偏極社会集団における意見の多様性に影響を与えるか、制御する方法を探究する。
我々は、ユーザーが二項意見を持ち、接続する他のものに基づいて信条を何度も更新する投票モデルを活用する。
平均的な意見を任意の目標値にシフトするために、Zealotを偏極ネットワークに注入する。
論文 参考訳(メタデータ) (2020-06-12T15:27:30Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。