論文の概要: The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency
- arxiv url: http://arxiv.org/abs/2306.11748v1
- Date: Mon, 19 Jun 2023 04:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 16:34:51.604177
- Title: The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency
- Title(参考訳): マニピュレーション問題:疫病の脅威としての会話型AI
- Authors: Louis Rosenberg
- Abstract要約: 会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
会話エージェントは 近い将来 配備される可能性が高い 標的となる影響目標を 追求するように設計されている
AI操作問題(AI Manipulation Problem)と呼ばれることもあるが、消費者が捕食的AIエージェントとのリアルタイム対話を無意識に行うというリスクが表面化している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The technology of Conversational AI has made significant advancements over
the last eighteen months. As a consequence, conversational agents are likely to
be deployed in the near future that are designed to pursue targeted influence
objectives. Sometimes referred to as the "AI Manipulation Problem," the
emerging risk is that consumers will unwittingly engage in real-time dialog
with predatory AI agents that can skillfully persuade them to buy particular
products, believe particular pieces of misinformation, or fool them into
revealing sensitive personal data. For many users, current systems like ChatGPT
and LaMDA feel safe because they are primarily text-based, but the industry is
already shifting towards real-time voice and photorealistic digital personas
that look, move, and express like real people. This will enable the deployment
of agenda-driven Virtual Spokespeople (VSPs) that will be highly persuasive
through real-time adaptive influence. This paper explores the manipulative
tactics that are likely to be deployed through conversational AI agents, the
unique threats such agents pose to the epistemic agency of human users, and the
emerging need for policymakers to protect against the most likely predatory
practices.
- Abstract(参考訳): 会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
その結果、会話エージェントは近い将来デプロイされ、ターゲットとなる影響対象を追求するように設計されている。
時に「ai操作問題」と呼ばれるリスクは、消費者が不意に、特定の製品を購入するよう巧みに説得したり、特定の情報を信じたり、センシティブな個人情報を明かすように騙したりできる捕食的なaiエージェントとリアルタイムの対話を行うことである。
多くのユーザーにとって、chatgptやlamdaのような現在のシステムは、主にテキストベースなので安全だが、業界はすでにリアルタイム音声やフォトリアリスティックなデジタルペルソナにシフトしている。
これにより、アジェンダ駆動の仮想スポークスパーソン(vsps)が、リアルタイムの適応的な影響によって、非常に説得力のある配置が可能になる。
本稿では、会話型AIエージェントを通じて展開される可能性が高い操作的戦術、そのようなエージェントがヒトのてんかんに作用するユニークな脅威、そして最も起こりそうな捕食行為から保護する政策立案者の必要性について検討する。
関連論文リスト
- Deception and Manipulation in Generative AI [0.0]
AI生成コンテンツは、騙しや操作に対してより厳格な基準に従うべきだと私は主張する。
AIの騙しや操作を防ぐための2つの対策を提案する。
論文 参考訳(メタデータ) (2024-01-20T21:54:37Z) - Towards more Practical Threat Models in Artificial Intelligence Security [71.53333444240076]
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
我々の論文は、人工知能のセキュリティにおけるより実用的な脅威モデルを研究するための行動である。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Divide-and-Conquer Dynamics in AI-Driven Disempowerment [9.204894568267013]
我々は、現在の害と将来の害を優先する者との内紛の原因と結果を研究するために、紛争のゲーム理論モデルを構築した。
私たちのモデルは、歴史を通じて、共通の脅威を共有するステークホルダーが、それに対して団結することが有利である理由を説明するのにも役立ちます。
論文 参考訳(メタデータ) (2023-10-09T17:59:26Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Public Perception of Generative AI on Twitter: An Empirical Study Based
on Occupation and Usage [7.18819534653348]
本稿は,2019年1月から2023年3月までのTwitter上での3Mポストを用いた生成AIに対するユーザの認識について検討する。
私たちは、IT関連だけでなく、様々な職種にまたがる人々が、生成AIに強い関心を示していることに気付きました。
ChatGPTのリリース後、AI全般に対する人々の関心は劇的に高まった。
論文 参考訳(メタデータ) (2023-05-16T15:30:12Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。