論文の概要: Towards a Shapley Value Graph Framework for Medical peer-influence
- arxiv url: http://arxiv.org/abs/2112.14624v1
- Date: Wed, 29 Dec 2021 16:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 17:37:32.860099
- Title: Towards a Shapley Value Graph Framework for Medical peer-influence
- Title(参考訳): 医療用ピアインフルエンスのためのshapley値グラフフレームワークに向けて
- Authors: Jamie Duell, Monika Seisenberger, Gert Aarts, Shangming Zhou and Xiuyi
Fan
- Abstract要約: 本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
- 参考スコア(独自算出の注目度): 0.9449650062296824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: eXplainable Artificial Intelligence (XAI) is a sub-field of Artificial
Intelligence (AI) that is at the forefront of AI research. In XAI feature
attribution methods produce explanations in the form of feature importance. A
limitation of existing feature attribution methods is that there is a lack of
explanation towards the consequence of intervention. Although contribution
towards a certain prediction is highlighted, the influence between features and
the consequence of intervention is not addressed. The aim of this paper is to
introduce a new framework to look deeper into explanations using graph
representation for feature-to-feature interactions to improve the
interpretability of black-box Machine Learning (ML) models and inform
intervention.
- Abstract(参考訳): eXplainable Artificial Intelligence (XAI)は、AI研究の最前線にある人工知能(AI)のサブフィールドである。
XAIの特徴帰属法では、特徴の重要性という形で説明ができる。
既存の特徴帰属法の制限は、介入の結果に対する説明の欠如である。
特定の予測への貢献は強調されるが、特徴と介入の結果が与える影響については触れられていない。
本稿では,ブラックボックス機械学習(ml)モデルの解釈性向上とインフォメーション介入の改善を目的として,特徴間インタラクションにグラフ表現を用いた説明を深く掘り下げる新たなフレームワークを提案する。
関連論文リスト
- Explainable Artificial Intelligence for Dependent Features: Additive Effects of Collinearity [0.0]
本稿では,コリナリティ問題を考慮した新しいXAI手法として,コリナリティの付加効果(AEC)を提案する。
提案手法はシミュレーションデータと実データを用いて,芸術的XAI法と比較し,その効率性を検証した。
論文 参考訳(メタデータ) (2024-10-30T07:00:30Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images [0.0]
本稿では,画像中の雑音および非情報的変数をスクリーニングするための相互作用に基づく手法であるI-Score(I-Score)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
論文 参考訳(メタデータ) (2021-04-19T23:02:43Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - How does this interaction affect me? Interpretable attribution for
feature interactions [19.979889568380464]
我々はArchipelagoと呼ばれる相互作用属性と検出フレームワークを提案する。
標準アノテーションラベルを用いた実験により,本手法は同等の手法よりもはるかに解釈可能な説明を提供することが示された。
また、ディープニューラルネットワークに新たな洞察を与えるアプローチの視覚化も提供しています。
論文 参考訳(メタデータ) (2020-06-19T05:14:24Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。