論文の概要: Persuasion and Safety in the Era of Generative AI
- arxiv url: http://arxiv.org/abs/2505.12248v1
- Date: Sun, 18 May 2025 06:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.118513
- Title: Persuasion and Safety in the Era of Generative AI
- Title(参考訳): 生成AI時代の説得と安全
- Authors: Haein Kong,
- Abstract要約: EU AI法(EU AI Act)は、情報的意思決定を弱めるためにマニピュティブまたは偽装技術を使用するAIシステムを禁止している。
私の論文は、この領域における実証研究の欠如に対処し、説得的手法の分類学を開発しました。
説得型AIのリスクを軽減するためのリソースを提供し、生成型AIの時代における倫理的説得に関する議論を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) achieve advanced persuasive capabilities, concerns about their potential risks have grown. The EU AI Act prohibits AI systems that use manipulative or deceptive techniques to undermine informed decision-making, highlighting the need to distinguish between rational persuasion, which engages reason, and manipulation, which exploits cognitive biases. My dissertation addresses the lack of empirical studies in this area by developing a taxonomy of persuasive techniques, creating a human-annotated dataset, and evaluating LLMs' ability to distinguish between these methods. This work contributes to AI safety by providing resources to mitigate the risks of persuasive AI and fostering discussions on ethical persuasion in the age of generative AI.
- Abstract(参考訳): 大規模言語モデル(LLM)が高度な説得能力を達成するにつれ、その潜在的なリスクに対する懸念が高まっている。
EU AI Act(英語版)は、操作的または詐欺的手法を使用して情報的意思決定を損なうAIシステムを禁止し、理性にかかわる合理的な説得と、認知バイアスを利用する操作を区別する必要性を強調している。
私の論文は、この領域における実証研究の欠如に対処するため、説得的手法の分類法を開発し、人間による注釈付きデータセットを作成し、これらの手法を区別するLLMの能力を評価する。
この研究は、説得型AIのリスクを軽減し、生成型AIの時代における倫理的説得に関する議論を促進するリソースを提供することで、AIの安全性に貢献している。
関連論文リスト
- Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - A Mechanism-Based Approach to Mitigating Harms from Persuasive Generative AI [19.675489660806942]
生成AIは、相互交換と長時間の相互作用による説得の新たなリスクプロファイルを示す。
これにより、AIの説得による損害と、それらを緩和する方法についての懸念が高まっている。
既存の害軽減のアプローチは、説得のプロセスによる害に対する説得の結果から害を受ける。
論文 参考訳(メタデータ) (2024-04-23T14:07:20Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Expose Uncertainty, Instill Distrust, Avoid Explanations: Towards
Ethical Guidelines for AI [3.0534660670547864]
AI技術を使う人間を助ける最良の方法は、AIアルゴリズムの本質的な限界と問題を認識することだ、と私は主張する。
結果の提示に使用する倫理ガイドラインを3つ提案する。
論文 参考訳(メタデータ) (2021-11-29T14:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。