論文の概要: Must Read: A Systematic Survey of Computational Persuasion
- arxiv url: http://arxiv.org/abs/2505.07775v1
- Date: Mon, 12 May 2025 17:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.517131
- Title: Must Read: A Systematic Survey of Computational Persuasion
- Title(参考訳): Must Read: Systematic Survey of Computational Persuasion
- Authors: Nimet Beyza Bozdag, Shuhaib Mehri, Xiaocheng Yang, Hyeonjeong Ha, Zirui Cheng, Esin Durmus, Jiaxuan You, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür,
- Abstract要約: AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
- 参考スコア(独自算出の注目度): 60.83151988635103
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Persuasion is a fundamental aspect of communication, influencing decision-making across diverse contexts, from everyday conversations to high-stakes scenarios such as politics, marketing, and law. The rise of conversational AI systems has significantly expanded the scope of persuasion, introducing both opportunities and risks. AI-driven persuasion can be leveraged for beneficial applications, but also poses threats through manipulation and unethical influence. Moreover, AI systems are not only persuaders, but also susceptible to persuasion, making them vulnerable to adversarial attacks and bias reinforcement. Despite rapid advancements in AI-generated persuasive content, our understanding of what makes persuasion effective remains limited due to its inherently subjective and context-dependent nature. In this survey, we provide a comprehensive overview of computational persuasion, structured around three key perspectives: (1) AI as a Persuader, which explores AI-generated persuasive content and its applications; (2) AI as a Persuadee, which examines AI's susceptibility to influence and manipulation; and (3) AI as a Persuasion Judge, which analyzes AI's role in evaluating persuasive strategies, detecting manipulation, and ensuring ethical persuasion. We introduce a taxonomy for computational persuasion research and discuss key challenges, including evaluating persuasiveness, mitigating manipulative persuasion, and developing responsible AI-driven persuasive systems. Our survey outlines future research directions to enhance the safety, fairness, and effectiveness of AI-powered persuasion while addressing the risks posed by increasingly capable language models.
- Abstract(参考訳): 説得はコミュニケーションの基本的な側面であり、日々の会話から政治、マーケティング、法律といった高度なシナリオまで、さまざまな文脈で意思決定に影響を与える。
会話型AIシステムの台頭は、説得範囲を大きく拡大し、機会とリスクの両方を導入している。
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
さらに、AIシステムは説得者だけではなく、説得にも影響し、敵の攻撃やバイアス強化にも脆弱である。
AIが生成する説得コンテンツが急速に進歩しているにもかかわらず、本質的な主観的かつ文脈に依存した性質のため、説得を効果的にするための理解は限定的のままである。
本稿では,(1)AI生成した説得的コンテンツとその応用を探求するパースアイダーとしてのAI,(2)AIの影響力と操作性を調べるパースアイドとしてのAI,(3)AIが説得的戦略の評価,操作の検出,倫理的説得性を保証するためのパースアイションジャッジの3つの重要な視点を中心に構成された,計算的説得の包括的概要を紹介する。
計算的説得研究のための分類法を導入し、説得力の評価、マニピュレイティブな説得の軽減、AI駆動型説得システムの開発など、主要な課題について議論する。
我々の調査は、AIによる説得の安全性、公平性、有効性を高めるための将来の研究の方向性を概説し、ますます有能な言語モデルによって引き起こされるリスクに対処する。
関連論文リスト
- Aspirational Affordances of AI [0.0]
人工知能システムが、個人やグループを静的または制限された物語に閉じ込める方法について、懸念が高まっている。
文化的に共有された解釈資源が個人の認知をいかに形作るかを説明するため、実証的余裕の概念を導入する。
この概念は,AIによる表現や物語のリスクを生産的に評価する上で,どのように有効かを示す。
論文 参考訳(メタデータ) (2025-04-21T22:37:49Z) - Persuasion Should be Double-Blind: A Multi-Domain Dialogue Dataset With Faithfulness Based on Causal Theory of Mind [21.022976907694265]
最近の説得的対話データセットは、実世界の対人インタラクションと一致しないことが多い。
ToMMAは、心の因果理論によって導かれる対話生成のための新しいマルチエージェントフレームワークである。
マルチドメイン・マルチターン・パーサッシブ・ダイアログ・データセットであるCTOMPersuを提案する。
論文 参考訳(メタデータ) (2025-02-28T18:28:16Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - A Mechanism-Based Approach to Mitigating Harms from Persuasive Generative AI [19.675489660806942]
生成AIは、相互交換と長時間の相互作用による説得の新たなリスクプロファイルを示す。
これにより、AIの説得による損害と、それらを緩和する方法についての懸念が高まっている。
既存の害軽減のアプローチは、説得のプロセスによる害に対する説得の結果から害を受ける。
論文 参考訳(メタデータ) (2024-04-23T14:07:20Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Strategic Argumentation Dialogues for Persuasion: Framework and
Experiments Based on Modelling the Beliefs and Concerns of the Persuadee [6.091096843566857]
特定の対話において議論が良いかどうかを決定するための2つの重要な次元は、意図する観衆が議論と反論を信じる程度であり、議論が意図する観衆の関心に与える影響である。
本稿では,これらのモデルを用いて,説得的対話における移動の選択を最適化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-28T08:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。