論文の概要: Synthetic Socratic Debates: Examining Persona Effects on Moral Decision and Persuasion Dynamics
- arxiv url: http://arxiv.org/abs/2506.12657v1
- Date: Sat, 14 Jun 2025 23:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.611031
- Title: Synthetic Socratic Debates: Examining Persona Effects on Moral Decision and Persuasion Dynamics
- Title(参考訳): synthetic Socratic Debates: Exspecting Persona Effects on Moral Decision and Persuasion Dynamics
- Authors: Jiarui Liu, Yueqi Song, Yunze Xiao, Mingqian Zheng, Lindia Tjuatja, Jana Schaich Borg, Mona Diab, Maarten Sap,
- Abstract要約: 実世界の道徳ジレンマに関するAI-AI討論会において,多次元ペルソナ効果の大規模研究を行った。
以上の結果から,ペルソナは政治的イデオロギーや人格特性に強く影響していることが示唆された。
説得力のある成功は特徴によって異なり、リベラルでオープンな個性はより高いコンセンサスと勝利率に達する。
- 参考スコア(独自算出の注目度): 22.87895625823716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) are increasingly used in morally sensitive domains, it is crucial to understand how persona traits affect their moral reasoning and persuasive behavior. We present the first large-scale study of multi-dimensional persona effects in AI-AI debates over real-world moral dilemmas. Using a 6-dimensional persona space (age, gender, country, class, ideology, and personality), we simulate structured debates between AI agents over 131 relationship-based cases. Our results show that personas affect initial moral stances and debate outcomes, with political ideology and personality traits exerting the strongest influence. Persuasive success varies across traits, with liberal and open personalities reaching higher consensus and win rates. While logit-based confidence grows during debates, emotional and credibility-based appeals diminish, indicating more tempered argumentation over time. These trends mirror findings from psychology and cultural studies, reinforcing the need for persona-aware evaluation frameworks for AI moral reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、道徳に敏感なドメインでますます使われるようになっているため、ペルソナの特徴が道徳的推論や説得行動にどのように影響するかを理解することが不可欠である。
実世界の道徳ジレンマに関するAI-AI討論会において,多次元ペルソナ効果の大規模研究を行った。
6次元のペルソナ空間(年齢、性別、国、階級、イデオロギー、性格)を用いて、関係に基づく131件以上のAIエージェント間の構造化された議論をシミュレートする。
以上の結果から,ペルソナは政治的イデオロギーや人格特性に強く影響していることが示唆された。
説得力のある成功は特徴によって異なり、リベラルでオープンな個性はより高いコンセンサスと勝利率に達する。
論議の間、ロジットに基づく自信は増大するが、感情的および信頼性に基づくアピールは減少し、時間が経つにつれてより誘惑的な議論が引き起こされる。
これらの傾向は、心理学や文化研究からの知見を反映し、AI道徳的推論のためのペルソナ認識評価フレームワークの必要性を強化している。
関連論文リスト
- AI Debate Aids Assessment of Controversial Claims [86.47978525513236]
AIの議論が、新型コロナウイルス(COVID-19)の事実性主張に反対する2つのAIシステムを議論することで、偏見のある裁判官を真実に導くことができるかどうかを調査する。
人間の研究では、2つのAIアドバイザシステムが対立するエビデンスに基づく議論を提示し、判定精度と信頼性の校正を改善していることがわかった。
我々のAIジャッジスタディでは、人間のようなペルソナを持つAIジャッジが、人間のジャッジ(70.1%)とデフォルトのAIジャッジ(69.8%)よりさらに高い精度(78.5%)を達成することが分かりました。
論文 参考訳(メタデータ) (2025-06-02T19:01:53Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - Can ChatGPT Read Who You Are? [10.577227353680994]
チェコ語で書かれたテキストを代表とする総合的なユーザスタディの結果を155人のサンプルで報告した。
本研究は,ChatGPTによる性格特性推定と人間による評価とを比較し,テキストから人格特性を推定する際のChatGPTの競争性能を報告する。
論文 参考訳(メタデータ) (2023-12-26T14:43:04Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Moral Debater: A Study on the Computational Generation of Morally
Framed Arguments [19.741685596196454]
聴衆の以前の信念と道徳は、それらが与えられた議論によってどの程度影響を受けるかを示す強い指標である。
異なる道徳に着目した議論を効果的に生成するシステムを提案する。
以上の結果から,特に事前の信念に異議を唱える場合,観衆は道徳的に枠づけされた議論の影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-03-28T08:07:13Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。