論文の概要: Qualitative Investigation in Explainable Artificial Intelligence: A Bit
More Insight from Social Science
- arxiv url: http://arxiv.org/abs/2011.07130v2
- Date: Fri, 18 Dec 2020 22:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:29:11.049103
- Title: Qualitative Investigation in Explainable Artificial Intelligence: A Bit
More Insight from Social Science
- Title(参考訳): 説明可能な人工知能における質的研究--社会科学からの洞察
- Authors: Adam J. Johs, Denise E. Agosto, Rosina O. Weber
- Abstract要約: 説明可能な人工知能(XAI)におけるユーザ研究の焦点分析について述べる。
我々は、XAI研究者が観察、インタビュー、フォーカスグループ、および/またはアンケートを用いて質的なデータを収集する研究の厳密さを改善する方法を提案するために、社会科学コーパスを描いている。
分析の結果は,XAIコミュニティの他者から,社会規律の専門家とのコラボレーションを提唱し,ユーザスタディにおける厳格さと有効性を高めている。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a focused analysis of user studies in explainable artificial
intelligence (XAI) entailing qualitative investigation. We draw on social
science corpora to suggest ways for improving the rigor of studies where XAI
researchers use observations, interviews, focus groups, and/or questionnaires
to capture qualitative data. We contextualize the presentation of the XAI
papers included in our analysis according to the components of rigor described
in the qualitative research literature: 1) underlying theories or frameworks,
2) methodological approaches, 3) data collection methods, and 4) data analysis
processes. The results of our analysis support calls from others in the XAI
community advocating for collaboration with experts from social disciplines to
bolster rigor and effectiveness in user studies.
- Abstract(参考訳): 本稿では,定性的調査を伴う説明可能な人工知能(XAI)におけるユーザ研究の焦点を絞った分析を行う。
我々は、XAI研究者が観察、インタビュー、フォーカスグループ、および/またはアンケートを用いて質的なデータを収集する研究の厳密さを改善する方法を提案する。
我々は, 質的研究文献に記載された厳密な構成要素に従って, 分析に含まれるxai論文の提示を文脈化する。
1)基礎となる理論または枠組み
2)方法論的アプローチ
3)データ収集方法、及び
4) データ分析プロセス。
分析の結果は,XAIコミュニティの他者から,社会規律の専門家とのコラボレーションを提唱し,ユーザスタディにおける厳格さと有効性を高めている。
関連論文リスト
- User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - XAI-FUNGI: Dataset resulting from the user study on comprehensibility of explainable AI algorithms [5.775094401949666]
本稿では、説明可能な人工知能(XAI)アルゴリズムの理解度に関するユーザ研究の結果であるデータセットを紹介する。
研究参加者は149人の候補者から募集され, 菌学領域の専門家を代表する3つのグループを結成した。
データセットの主な部分には39のインタビュー書が含まれており、参加者は、食べられるキノコと食べられないキノコを区別するために訓練された機械学習モデルの意思決定の解釈に関する一連のタスクと質問を完了するよう求められた。
論文 参考訳(メタデータ) (2024-10-21T11:37:58Z) - Generative AI Tools in Academic Research: Applications and Implications for Qualitative and Quantitative Research Methodologies [0.0]
本研究では,生成人工知能(GenAI)が学術研究に与える影響について検討し,質的・定量的データ分析への応用に焦点をあてる。
GenAIツールは急速に進化し、研究の生産性を高め、複雑な分析プロセスを民主化するための新たな可能性を提供する。
学術的実践への統合は、研究の完全性、セキュリティ、著作家精神、そして学術作品の変化する性質に関する重要な疑問を提起する。
論文 参考訳(メタデータ) (2024-08-13T13:10:03Z) - Harnessing AI for efficient analysis of complex policy documents: a case study of Executive Order 14110 [44.99833362998488]
法律、規制、執行命令などの政策文書は、社会の形成に不可欠である。
本研究の目的は、政策分析の合理化におけるAIの可能性を評価し、現在のAIアプローチの強みと限界を特定することである。
論文 参考訳(メタデータ) (2024-06-10T11:19:28Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - DeSIQ: Towards an Unbiased, Challenging Benchmark for Social
Intelligence Understanding [60.84356161106069]
複雑な社会的相互作用のビデオ上での複数選択質問のデータセットであるSocial-IQの健全性について検討する。
分析の結果,Social-IQにはある程度のバイアスがあり,適度に強い言語モデルによって活用できることがわかった。
ソーシャルIQに単純な摂動を適用して構築した,新たな挑戦的データセットであるDeSIQを紹介する。
論文 参考訳(メタデータ) (2023-10-24T06:21:34Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations [18.971689499890363]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - MAIR: Framework for mining relationships between research articles,
strategies, and regulations in the field of explainable artificial
intelligence [2.280298858971133]
研究論文やAI関連の政策に対する規制の影響のダイナミクスを理解することが不可欠である。
本稿では,AI関連政策文書とXAI研究論文の共同分析のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-29T20:41:17Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。