論文の概要: Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation
- arxiv url: http://arxiv.org/abs/2408.00024v1
- Date: Wed, 31 Jul 2024 05:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 00:36:46.231564
- Title: Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation
- Title(参考訳): 説明を与える知覚AIシステムは、正直なAIシステムよりも説得力があり、誤情報に対する信念を増幅することができる
- Authors: Valdemar Danry, Pat Pataranutaporn, Matthew Groh, Ziv Epstein, Pattie Maes,
- Abstract要約: 本研究は,疑似AIによる説明が個人の信念に及ぼす影響について検討した。
以上の結果から,認知的リフレクションやAIに対する信頼といった個人的要因が,必ずしも個人をこれらの影響から保護するとは限らないことが示唆された。
このことは論理的推論と批判的思考スキルを教え、論理的に無効な議論を特定することの重要性を浮き彫りにする。
- 参考スコア(独自算出の注目度): 29.022316418575866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced Artificial Intelligence (AI) systems, specifically large language models (LLMs), have the capability to generate not just misinformation, but also deceptive explanations that can justify and propagate false information and erode trust in the truth. We examined the impact of deceptive AI generated explanations on individuals' beliefs in a pre-registered online experiment with 23,840 observations from 1,192 participants. We found that in addition to being more persuasive than accurate and honest explanations, AI-generated deceptive explanations can significantly amplify belief in false news headlines and undermine true ones as compared to AI systems that simply classify the headline incorrectly as being true/false. Moreover, our results show that personal factors such as cognitive reflection and trust in AI do not necessarily protect individuals from these effects caused by deceptive AI generated explanations. Instead, our results show that the logical validity of AI generated deceptive explanations, that is whether the explanation has a causal effect on the truthfulness of the AI's classification, plays a critical role in countering their persuasiveness - with logically invalid explanations being deemed less credible. This underscores the importance of teaching logical reasoning and critical thinking skills to identify logically invalid arguments, fostering greater resilience against advanced AI-driven misinformation.
- Abstract(参考訳): 高度な人工知能(AI)システム、特に大きな言語モデル(LLM)は、誤情報を生成できるだけでなく、偽情報を正当化し伝播し、真実への信頼を損なうような偽りの説明もできる。
我々は,1,192人の参加者から23,840人の観察を行ったオンライン実験において,騙しAI生成の説明が個人の信念に及ぼす影響を検討した。
正確で率直な説明よりも説得力が高いことに加えて、AIが生成した偽ニュースの見出しに対する信条は、偽ニュースの見出しに対する信条を著しく増幅し、真偽の見出しを誤って分類するAIシステムと比較すると、真偽のニュースの見出しに対する信条を弱めてしまうことがわかりました。
さらに,認知的リフレクションやAIに対する信頼などの個人的要因は,必ずしも,偽りのAIが生成した説明によって引き起こされるこれらの影響から個人を保護しているとは限らないことを示した。
その代わり、私たちの結果は、AIの論理的妥当性が、AIの分類の真理性に因果的な影響があるかどうかを判断し、論理的に無効な説明は信頼性の低いものとみなす上で重要な役割を担っていることを示しています。
このことは、論理的推論と批判的思考スキルを教え、論理的に無効な議論を識別し、先進的なAI駆動の誤情報に対するより大きなレジリエンスを育むことの重要性を浮き彫りにする。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making [38.71592583606443]
真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
論文 参考訳(メタデータ) (2022-09-23T20:09:03Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Can counterfactual explanations of AI systems' predictions skew lay
users' causal intuitions about the world? If so, can we correct for that? [0.0]
説明可能なAIにおける説明可能性のモードの1つとして、対実的(CF)説明が採用されている。
そこで本研究では,CFの説明が現実世界に対する人々の因果的信念に及ぼす影響を調査する2つの実験について述べる。
論文 参考訳(メタデータ) (2022-05-12T17:39:54Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。