論文の概要: Cultural Bias in Explainable AI Research: A Systematic Analysis
- arxiv url: http://arxiv.org/abs/2403.05579v1
- Date: Wed, 28 Feb 2024 19:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 06:10:13.843628
- Title: Cultural Bias in Explainable AI Research: A Systematic Analysis
- Title(参考訳): 説明可能なAI研究における文化的バイアス:システム分析
- Authors: Uwe Peters, Mary Carman,
- Abstract要約: 我々は、西洋、一般的に個人主義の国の人々と非西洋、しばしば集団主義の国の人々の間に、人間の説明に有意な違いがあるという心理学的な研究を強調した。
我々は200以上のXAIユーザスタディを体系的にレビューし、ほとんどの研究が関連する文化的バリエーションを考慮していないことを発見した。
ほとんどのレビューでは、説明的ニーズの文化的相違やXAIユーザ調査結果の広範囲にわたる異文化間外挿のフラグについて言及していない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For synergistic interactions between humans and artificial intelligence (AI) systems, AI outputs often need to be explainable to people. Explainable AI (XAI) systems are commonly tested in human user studies. However, whether XAI researchers consider potential cultural differences in human explanatory needs remains unexplored. We highlight psychological research that found significant differences in human explanations between many people from Western, commonly individualist countries and people from non-Western, often collectivist countries. We argue that XAI research currently overlooks these variations and that many popular XAI designs implicitly and problematically assume that Western explanatory needs are shared cross-culturally. Additionally, we systematically reviewed over 200 XAI user studies and found that most studies did not consider relevant cultural variations, sampled only Western populations, but drew conclusions about human-XAI interactions more generally. We also analyzed over 30 literature reviews of XAI studies. Most reviews did not mention cultural differences in explanatory needs or flag overly broad cross-cultural extrapolations of XAI user study results. Combined, our analyses provide evidence of a cultural bias toward Western populations in XAI research, highlighting an important knowledge gap regarding how culturally diverse users may respond to widely used XAI systems that future work can and should address.
- Abstract(参考訳): 人間と人工知能(AI)システム間のシナジスティックな相互作用には、AIの出力を人々に説明する必要があることが多い。
説明可能なAI(XAI)システムは、人間のユーザー研究で一般的にテストされている。
しかし、XAI研究者が人間の説明的ニーズの潜在的な文化的相違を考察するかどうかは未解明のままである。
我々は、西洋、一般的に個人主義諸国の多くの人々と非西洋、しばしば集団主義諸国の人々の間に、人間の説明に有意な違いがあるという心理学的な研究を強調した。
我々は、現在、XAI研究はこれらのバリエーションを見落としており、多くのポピュラーなXAIデザインは、西洋の解説的ニーズが文化的に共有されていることを暗黙的に、問題的に仮定していると論じている。
さらに,200以上のXAIユーザスタディを体系的に検討し,多くの研究が関連する文化的変動を考慮せず,西洋の人口のみをサンプルとした結果,人間とXAIの相互作用に関する結論をより一般的に導いた。
また、XAI研究の30以上の文献レビューも分析した。
ほとんどのレビューでは、説明的ニーズの文化的相違やXAIユーザ調査結果の広範囲にわたる異文化間外挿のフラグについて言及していない。
この分析は、XAI研究における西洋の人口に対する文化的偏見の証拠であり、今後の作業で可能かつ対応すべき広く利用されているXAIシステムに対して、文化的に多様なユーザがどのように対応できるかに関する重要な知識ギャップを浮き彫りにしている。
関連論文リスト
- Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Unjustified Sample Sizes and Generalizations in Explainable AI Research:
Principles for More Inclusive User Studies [0.0]
XAI研究者がどの程度のサンプルサイズを反映し、正当化しているかは不明だ。
ほとんどの研究では、サンプルサイズについて合理的な説明は得られなかった。
定量的研究においてより広範な結論がより大きなサンプルと相関していたという証拠は存在しなかった。
論文 参考訳(メタデータ) (2023-05-08T15:02:21Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations [18.971689499890363]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - eXtended Artificial Intelligence: New Prospects of Human-AI Interaction
Research [8.315174426992087]
本稿では,XR-AI連続体に基づく人間-AI相互作用の理論的治療とモデルを提供する。
このことは、XRとAIの組み合わせが、人間とAIの相互作用とインターフェースの有効かつ体系的な研究に有益に貢献する理由を示している。
最初の実験は人間とロボットの相互作用において興味深いジェンダー効果を示し、第2の実験はレコメンデーターシステムのエリザ効果を明らかにした。
論文 参考訳(メタデータ) (2021-03-27T22:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。