論文の概要: Sell Me the Blackbox! Why eXplainable Artificial Intelligence (XAI) May
Hurt Customers
- arxiv url: http://arxiv.org/abs/2209.03499v1
- Date: Wed, 7 Sep 2022 23:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:01:48.423799
- Title: Sell Me the Blackbox! Why eXplainable Artificial Intelligence (XAI) May
Hurt Customers
- Title(参考訳): ブラックボックスを売ってくれ!
説明可能な人工知能(xai)が顧客を傷つける理由
- Authors: Behnam Mohammadi, Nikhil Malik, Tim Derdenger, Kannan Srinivasan
- Abstract要約: 一般的な知恵として、完全に透明なXAIを強制することによってAIの規制が社会福祉を増大させる。
本稿では,政策立案者のゲーム理論モデルを通じて,この概念に挑戦する。
完全に透明なXAIを強制することは、企業や顧客を悪化させる可能性がある。
- 参考スコア(独自算出の注目度): 3.228824966115464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent AI algorithms are blackbox models whose decisions are difficult to
interpret. eXplainable AI (XAI) seeks to address lack of AI interpretability
and trust by explaining to customers their AI decision, e.g., decision to
reject a loan application. The common wisdom is that regulating AI by mandating
fully transparent XAI leads to greater social welfare. This paper challenges
this notion through a game theoretic model for a policy-maker who maximizes
social welfare, firms in a duopoly competition that maximize profits, and
heterogenous consumers. The results show that XAI regulation may be redundant.
In fact, mandating fully transparent XAI may make firms and customers worse
off. This reveals a trade-off between maximizing welfare and receiving
explainable AI outputs. We also discuss managerial implications for
policy-maker and firms.
- Abstract(参考訳): 最近のAIアルゴリズムは、解釈が難しいブラックボックスモデルである。
eXplainable AI (XAI)は、顧客のAI決定を説明することで、AIの解釈可能性と信頼の欠如に対処しようとしている。
一般的な知恵は、完全に透明なXAIを強制することによってAIの規制が社会福祉を増大させるということである。
本稿では、社会福祉を最大化する政策立案者、利益を最大化するデュオポリ・コンペティションの企業、および異種消費者のためのゲーム理論モデルを通じて、この概念に挑戦する。
その結果,XAI規制は冗長である可能性が示唆された。
実際、完全に透明なxaiは、企業や顧客を悪化させる可能性がある。
これは、福祉の最大化と説明可能なAI出力の受け入れのトレードオフを明らかにする。
また、政策立案者や企業に対する管理上の意味についても論じる。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Why is plausibility surprisingly problematic as an XAI criterion? [38.0428570713717]
われわれは,XAIの共通基準である妥当性を初めて批判的に検討する。
それは、AIの説明がいかに人間に納得させるかを測定する。
XAIアルゴリズムの評価や最適化の基準として可視性を使うことは推奨しません。
論文 参考訳(メタデータ) (2023-03-30T20:59:44Z) - Monetizing Explainable AI: A Double-edged Sword [0.0]
説明可能な人工知能(XAI)は、アルゴリズムによる意思決定のロジックに関する洞察を提供することを目的としている。
このトピックに関する多くの研究にもかかわらず、XAIの消費者向け応用は依然として稀である。
本稿では,説明プラットフォームを通じてプログラム広告とアルゴリズムによる説明を融合させる新たな収益化戦略について紹介する。
論文 参考訳(メタデータ) (2023-03-27T15:50:41Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。