論文の概要: The Thousand Faces of Explainable AI Along the Machine Learning Life
Cycle: Industrial Reality and Current State of Research
- arxiv url: http://arxiv.org/abs/2310.07882v1
- Date: Wed, 11 Oct 2023 20:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 13:42:47.214880
- Title: The Thousand Faces of Explainable AI Along the Machine Learning Life
Cycle: Industrial Reality and Current State of Research
- Title(参考訳): 機械学習のライフサイクルに沿った説明可能なAIの数千の顔:産業的現実と研究の現状
- Authors: Thomas Decker, Ralf Gross, Alexander Koebler, Michael Lebacher, Ronald
Schnitzer, and Stefan H. Weber
- Abstract要約: この知見は機械学習ライフサイクルにおけるXAIの役割と適用性に関する広範なインタビューに基づいている。
また,不透明なAIモデルの非専門家の解釈と理解を可能にするためには,さらなる努力が必要であることも確認した。
- 参考スコア(独自算出の注目度): 37.69303106863453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the practical relevance of explainable
artificial intelligence (XAI) with a special focus on the producing industries
and relate them to the current state of academic XAI research. Our findings are
based on an extensive series of interviews regarding the role and applicability
of XAI along the Machine Learning (ML) lifecycle in current industrial practice
and its expected relevance in the future. The interviews were conducted among a
great variety of roles and key stakeholders from different industry sectors. On
top of that, we outline the state of XAI research by providing a concise review
of the relevant literature. This enables us to provide an encompassing overview
covering the opinions of the surveyed persons as well as the current state of
academic research. By comparing our interview results with the current research
approaches we reveal several discrepancies. While a multitude of different XAI
approaches exists, most of them are centered around the model evaluation phase
and data scientists. Their versatile capabilities for other stages are
currently either not sufficiently explored or not popular among practitioners.
In line with existing work, our findings also confirm that more efforts are
needed to enable also non-expert users' interpretation and understanding of
opaque AI models with existing methods and frameworks.
- Abstract(参考訳): 本稿では、産業界に焦点をあてた説明可能な人工知能(XAI)の実践的妥当性について検討し、学術的なXAI研究の現状に関連付ける。
本研究は,現在の産業実践における機械学習(ml)ライフサイクルにおけるxaiの役割と適用可能性,今後の展望に関する広範囲にわたるインタビューに基づいている。
インタビューは、さまざまな産業分野の様々な役割と主要なステークホルダーの間で行われた。
その上で、関連文献の簡潔なレビューを提供することで、XAI研究の現状を概観する。
これにより,調査対象者の意見と学術研究の現状を包括的に概観することができる。
インタビュー結果と現在の研究アプローチを比較することで,いくつかの相違点が明らかになった。
多くの異なるXAIアプローチが存在するが、そのほとんどはモデル評価フェーズとデータサイエンティストを中心にしている。
その他の段階の多目的能力は現在十分に探索されていないか、実践者の間では人気がない。
また,既存の手法やフレームワークを用いた不透明なaiモデルの非熟練ユーザによる解釈と理解を可能にするために,さらなる努力が必要であることも確認した。
関連論文リスト
- XAI meets LLMs: A Survey of the Relation between Explainable AI and Large Language Models [33.04648289133944]
LLM(Large Language Models)研究の主な課題は、解釈可能性の重要性である。
AIやビジネスセクターからの関心が増すことで、私たちはLLMにおける透明性の必要性を強調します。
本稿では,機能的進歩と同等に解釈可能性を評価するバランスの取れたアプローチを提唱する。
論文 参考訳(メタデータ) (2024-07-21T19:23:45Z) - Explainable Artificial Intelligence and Multicollinearity : A Mini Review of Current Approaches [0.0]
説明可能な人工知能(XAI)手法は、機械学習モデルの内部メカニズムを理解するのに役立つ。
情報的特徴のリストは、XAIメソッドの最も一般的な出力の1つである。
マルチコリニアリティは、XAIが説明を生成するときに考慮すべき大きな問題の1つです。
論文 参考訳(メタデータ) (2024-06-17T13:26:53Z) - A Systematic Literature Review on Explainability for Machine/Deep
Learning-based Software Engineering Research [23.966640472958105]
本稿では,ソフトウェア工学の文脈におけるAIモデルの説明可能性の向上を目的とした,体系的な文献レビューを行う。
我々は,XAI技術がこれまで成功してきたSEタスク,(2)異なるXAI手法の分類と分析,(3)既存の評価手法を考察することを目的としている。
論文 参考訳(メタデータ) (2024-01-26T03:20:40Z) - A Survey on Large Language Model based Autonomous Agents [105.2509166861984]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - A Survey of Knowledge Tracing: Models, Variants, and Applications [70.69281873057619]
知識追跡は、学生の行動データ分析の基本的なタスクの1つである。
我々は、異なる技術経路を持つ3種類の基本KTモデルを示す。
この急速に成長する分野における今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-05-06T13:05:55Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。