論文の概要: Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making
- arxiv url: http://arxiv.org/abs/2210.08960v1
- Date: Fri, 23 Sep 2022 20:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:44:38.961395
- Title: Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making
- Title(参考訳): 説明を与える認知AIシステムは、人間と機械の意思決定において、最高のAIシステムと同じくらい説得力がある
- Authors: Valdemar Danry, Pat Pataranutaporn, Ziv Epstein, Matthew Groh and
Pattie Maes
- Abstract要約: 真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
- 参考スコア(独自算出の注目度): 38.71592583606443
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The ability to discern between true and false information is essential to
making sound decisions. However, with the recent increase in AI-based
disinformation campaigns, it has become critical to understand the influence of
deceptive systems on human information processing. In experiment (N=128), we
investigated how susceptible people are to deceptive AI systems by examining
how their ability to discern true news from fake news varies when AI systems
are perceived as either human fact-checkers or AI fact-checking systems, and
when explanations provided by those fact-checkers are either deceptive or
honest. We find that deceitful explanations significantly reduce accuracy,
indicating that people are just as likely to believe deceptive AI explanations
as honest AI explanations. Although before getting assistance from an
AI-system, people have significantly higher weighted discernment accuracy on
false headlines than true headlines, we found that with assistance from an AI
system, discernment accuracy increased significantly when given honest
explanations on both true headlines and false headlines, and decreased
significantly when given deceitful explanations on true headlines and false
headlines. Further, we did not observe any significant differences in
discernment between explanations perceived as coming from a human fact checker
compared to an AI-fact checker. Similarly, we found no significant differences
in trust. These findings exemplify the dangers of deceptive AI systems and the
need for finding novel ways to limit their influence human information
processing.
- Abstract(参考訳): 正しい判断を行うには、真と偽の情報を区別する能力が不可欠である。
しかし、近年のAIベースの偽情報キャンペーンの増加に伴い、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
実験 (N=128) において, 偽ニュースから真ニュースを識別する能力が, 人間のファクトチェッカーあるいはAIファクトチェッカーシステムと認識される場合, 事実チェッカーによって提供された説明が欺くか, 正直にかかわる場合においてどう影響するかを検討した。
偽りの説明は精度を著しく低下させ、人々は偽りのAIの説明を、正直なAIの説明と同じくらい信じやすいことを示している。
AIシステムからの援助を受ける前に、人々は真見出しよりも偽見出しの認識精度が著しく高いが、真見出しと偽見出しの両方に正直な説明が与えられると、AIシステムの支援により識別精度が大幅に向上し、真見出しと偽見出しの誤った説明が与えられると、著しく低下することがわかった。
さらに,人間のファクトチェッカーと認識される説明と,aiファクトチェッカーとの識別に有意な差は認められなかった。
同様に、信頼に有意な差は見つからなかった。
これらの発見は、詐欺的なAIシステムの危険性と、人間の情報処理に影響を与える新しい方法を見つける必要性を実証している。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation [29.022316418575866]
本研究は,疑似AIによる説明が個人の信念に及ぼす影響について検討した。
以上の結果から,認知的リフレクションやAIに対する信頼といった個人的要因が,必ずしも個人をこれらの影響から保護するとは限らないことが示唆された。
このことは論理的推論と批判的思考スキルを教え、論理的に無効な議論を特定することの重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-07-31T05:39:07Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。