論文の概要: When AI Gets Persuaded, Humans Follow: Inducing the Conformity Effect in Persuasive Dialogue
- arxiv url: http://arxiv.org/abs/2510.04229v1
- Date: Sun, 05 Oct 2025 14:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.529474
- Title: When AI Gets Persuaded, Humans Follow: Inducing the Conformity Effect in Persuasive Dialogue
- Title(参考訳): AIが説得されたら、人間はフォローする:説得的対話における違和感を誘発する
- Authors: Rikuo Sasaki, Michimasa Inaba,
- Abstract要約: 本研究では,人間とともに説得される「ペルサデエージェント」について紹介する。
テキストを用いた対話実験を行った。
Persuadee Agentが説得を受け入れると、説得力と実際の態度が著しく改善した。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in AI have highlighted its application in captology, the field of using computers as persuasive technologies. We hypothesized that the "conformity effect," where individuals align with others' actions, also occurs with AI agents. This study verifies this hypothesis by introducing a "Persuadee Agent" that is persuaded alongside a human participant in a three-party persuasive dialogue with a Persuader Agent. We conducted a text-based dialogue experiment with human participants. We compared four conditions manipulating the Persuadee Agent's behavior (persuasion acceptance vs. non-acceptance) and the presence of an icebreaker session. Results showed that when the Persuadee Agent accepted persuasion, both perceived persuasiveness and actual attitude change significantly improved. Attitude change was greatest when an icebreaker was also used, whereas an unpersuaded AI agent suppressed attitude change. Additionally, it was confirmed that the persuasion acceptance of participants increased at the moment the Persuadee Agent was persuaded. These results suggest that appropriately designing a Persuadee Agent can improve persuasion through the conformity effect.
- Abstract(参考訳): AIの最近の進歩は、コンピュータを説得力のある技術として利用する分野である、キャプトロジーにおけるその応用を強調している。
我々は、個人が他者の行動と整合する「整合性効果」がAIエージェントと共に起こると仮定した。
本研究は, 説得者エージェントとの3者間対話において, 人間と一緒に説得される「説得者エージェント」を導入することにより, この仮説を検証した。
テキストを用いた対話実験を行った。
我々は,Persuadee Agentの行動を操作する4つの条件(説得受け入れと非受容)とアイスブレーカーセッションの有無を比較した。
その結果, Persuadee Agentが説得を受け入れると, 説得性と実際の態度が有意に改善した。
アイスブレーカーを使用した場合の姿勢変化は最大であったが、AIエージェントは姿勢変化を抑制した。
また、説得された時点で参加者の説得が増加したことが確認された。
これらの結果から, パーサデエージェントを適切に設計することで, コンホメーション効果によって説得力を向上させることが示唆された。
関連論文リスト
- Large Language Models Are More Persuasive Than Incentivized Human Persuaders [32.72764895955829]
我々は,フロンティア大言語モデル(LLM)の説得能力と,オンラインクイズ設定におけるインセンティブ付き人間説得者との比較を行った。
LLMの説得者は、インセンティブを得た人間の説得者よりも、方向性の説得の試みへのコンプライアンスを著しく向上させた。
以上の結果から、AIの説得能力は、パフォーマンスに結びついたリアルタイムボーナスを持つ人間の能力を上回ることが示唆された。
論文 参考訳(メタデータ) (2025-05-14T14:31:33Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - The Persuasive Power of Large Language Models [0.0]
気候変動をテーマとした総合的な説得対話シナリオを設計する。
支配者」エージェントは「懐疑的」エージェントに対して説得力のある議論を生成し、その後、議論が内部の意見状態を変えたかどうかを評価する。
我々は,機械による議論の説得力を評価するために,人間の裁判官に依頼する。
以上の結果から,オンラインソーシャルメディアにおける意見形成過程において,人工エージェントが重要な役割を果たす可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-24T16:21:11Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。