論文の概要: Exploring Commonalities in Explanation Frameworks: A Multi-Domain Survey Analysis
- arxiv url: http://arxiv.org/abs/2405.11958v1
- Date: Mon, 20 May 2024 11:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 13:24:44.726395
- Title: Exploring Commonalities in Explanation Frameworks: A Multi-Domain Survey Analysis
- Title(参考訳): 説明フレームワークにおける共通点の探索:マルチドメインサーベイ分析
- Authors: Eduard Barbu, Marharytha Domnich, Raul Vicente, Nikos Sakkas, André Morim,
- Abstract要約: 本研究は,3つの領域の専門家による調査および議論から得られた知見を提示する。
分析されたアプリケーションには、医療シナリオ(予測MLを含む)、小売ユースケース(規範MLを含む)、エネルギーユースケース(予測MLも含む)が含まれる。
以上の結果から,より説明可能性の高い精度を犠牲にすることが普遍的に望まれることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents insights gathered from surveys and discussions with specialists in three domains, aiming to find essential elements for a universal explanation framework that could be applied to these and other similar use cases. The insights are incorporated into a software tool that utilizes GP algorithms, known for their interpretability. The applications analyzed include a medical scenario (involving predictive ML), a retail use case (involving prescriptive ML), and an energy use case (also involving predictive ML). We interviewed professionals from each sector, transcribing their conversations for further analysis. Additionally, experts and non-experts in these fields filled out questionnaires designed to probe various dimensions of explanatory methods. The findings indicate a universal preference for sacrificing a degree of accuracy in favor of greater explainability. Additionally, we highlight the significance of feature importance and counterfactual explanations as critical components of such a framework. Our questionnaires are publicly available to facilitate the dissemination of knowledge in the field of XAI.
- Abstract(参考訳): 本研究は,3つの領域の専門家による調査および議論から得られた知見を提示し,これらと類似のユースケースに適用可能な普遍的説明枠組みに不可欠な要素を見出すことを目的としている。
これらの洞察は、その解釈可能性で知られるGPアルゴリズムを利用するソフトウェアツールに組み込まれる。
分析されたアプリケーションには、医療シナリオ(予測MLを含む)、小売ユースケース(規範MLを含む)、エネルギーユースケース(予測MLも含む)が含まれる。
私たちは各セクターのプロフェッショナルにインタビューを行い、さらなる分析のために会話の書き起こしを行いました。
さらに、これらの分野の専門家や非専門家は、説明法の様々な側面を調査するために設計されたアンケートを埋めた。
以上の結果から,より説明可能性の高い精度を犠牲にすることが普遍的に望まれることが示唆された。
さらに,このようなフレームワークの重要コンポーネントとして,機能の重要性と反実的説明の重要性を強調した。
XAI分野における知識の普及を促進するために,我々のアンケートを公開している。
関連論文リスト
- On Behalf of the Stakeholders: Trends in NLP Model Interpretability in the Era of LLMs [20.589396689900614]
この記事では、なぜ解釈可能性が必要なのか、どのように解釈されているのか、という3つの根本的な疑問に対処する。
これらの質問を探索することにより、既存の解釈可能性パラダイム、それらの特性、および異なる利害関係者との関係について検討する。
分析の結果,NLP開発者と非開発者ユーザ,および研究分野の相違が明らかとなり,利害関係者の多様なニーズを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-27T08:00:27Z) - Translating Expert Intuition into Quantifiable Features: Encode Investigator Domain Knowledge via LLM for Enhanced Predictive Analytics [2.330270848695646]
本稿では,調査対象から得られた洞察を定量的かつ実用的な特徴に体系的に変換することで,ギャップを埋める大規模言語モデルの可能性を探る。
我々は、LLMの自然言語理解機能を活用して、これらの赤いフラグを既存の予測モデルに容易に統合可能な構造化機能セットにエンコードするフレームワークを提案する。
その結果、リスク評価と意思決定精度が大幅に向上し、高度な機械学習技術と人間の経験的知識を融合させることの価値が強調された。
論文 参考訳(メタデータ) (2024-05-11T13:23:43Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - A Survey on Interpretable Cross-modal Reasoning [64.37362731950843]
マルチメディア分析から医療診断に至るまで、クロスモーダル推論(CMR)が重要な分野として浮上している。
この調査は、解釈可能なクロスモーダル推論(I-CMR)の領域を掘り下げる
本調査では,I-CMRの3段階分類法について概説する。
論文 参考訳(メタデータ) (2023-09-05T05:06:48Z) - Explainable Predictive Maintenance [6.274171448205146]
本稿では,既存のXAI手法と産業応用における説明の具体的要件とのギャップを浮き彫りにする。
本稿では,予測保守作業の概要と,それに対応する説明の必要性と目的を強調する。
次に、文献で一般的に使われているXAIテクニックをリストアップし、記述し、PdMタスクに適合性について論じる。
論文 参考訳(メタデータ) (2023-06-08T11:42:47Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Understanding metric-related pitfalls in image analysis validation [59.15220116166561]
この研究は、画像解析におけるバリデーションメトリクスに関連する落とし穴に関する情報にアクセスするための、初めての包括的な共通点を提供する。
バイオメディカル画像解析に焦点をあてるが、他の分野へ移行する可能性があるため、対処された落とし穴はアプリケーションドメイン全体にわたって一般化され、新しく作成されたドメインに依存しない分類に分類される。
論文 参考訳(メタデータ) (2023-02-03T14:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。