論文の概要: Explainable AI for Natural Adversarial Images
- arxiv url: http://arxiv.org/abs/2106.09106v1
- Date: Wed, 16 Jun 2021 20:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 10:52:17.722942
- Title: Explainable AI for Natural Adversarial Images
- Title(参考訳): 自然逆画像のための説明可能なAI
- Authors: Tomas Folke, ZhaoBin Li, Ravi B. Sojitra, Scott Cheng-Hsin Yang, and
Patrick Shafto
- Abstract要約: 人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
- 参考スコア(独自算出の注目度): 4.387699521196243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial images highlight how vulnerable modern image classifiers are to
perturbations outside of their training set. Human oversight might mitigate
this weakness, but depends on humans understanding the AI well enough to
predict when it is likely to make a mistake. In previous work we have found
that humans tend to assume that the AI's decision process mirrors their own.
Here we evaluate if methods from explainable AI can disrupt this assumption to
help participants predict AI classifications for adversarial and standard
images. We find that both saliency maps and examples facilitate catching AI
errors, but their effects are not additive, and saliency maps are more
effective than examples.
- Abstract(参考訳): 逆画像は、現代の画像分類器がトレーニングセット外の摂動に対して脆弱であることを示す。
人間による監視は、この弱点を軽減するかもしれないが、人間がAIを理解することで、それがいつ間違いを犯すかを予測する。
以前の研究で、AIの決定プロセスが自分自身を反映していると仮定する傾向があることがわかりました。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
サリエンシーマップとサンプルの両方がaiエラーのキャッチを容易にするが、その効果は付加的ではなく、サリエンシーマップは例よりも効果的である。
関連論文リスト
- Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching [4.864819846886143]
説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
ベイジアン・インストラクション(ベイジアン・インストラクション)を通したヒューマン・インストラクタのモデル化について提案する。
論文 参考訳(メタデータ) (2021-02-07T21:23:24Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images [0.0]
人間は認知人類同型(英: Cognitive anthropomorphism)、つまりAIが人間の知性と同じ性質を持つことを期待する。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
私は、人間とAIの分類のミスマッチに対処できるシステム設計に3つの戦略を提供します。
論文 参考訳(メタデータ) (2020-02-07T21:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。