論文の概要: Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective
- arxiv url: http://arxiv.org/abs/2401.04374v1
- Date: Tue, 9 Jan 2024 06:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 16:41:42.435225
- Title: Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective
- Title(参考訳): 説明可能な人工知能(XAI):データマイニングの展望
- Authors: Haoyi Xiong and Xuhong L and Xiaofei Zhang and Jiamin Chen and Xinhao
Sun and Yuchen Li and Zeyi Sun and Mengnan Du
- Abstract要約: この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
我々は,既存の研究を,深層モデルの解釈,トレーニングデータの影響,ドメイン知識の洞察の3つのカテゴリに分類する。
具体的には、XAIの方法論を、モダリティをまたいだデータのトレーニングおよびテストに関するデータマイニング操作に蒸留する。
- 参考スコア(独自算出の注目度): 34.456840879660476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the complexity and lack of transparency in deep neural networks (DNNs),
extensive efforts have been made to make these systems more interpretable or
explain their behaviors in accessible terms. Unlike most reviews, which focus
on algorithmic and model-centric perspectives, this work takes a "data-centric"
view, examining how data collection, processing, and analysis contribute to
explainable AI (XAI). We categorize existing work into three categories subject
to their purposes: interpretations of deep models, referring to feature
attributions and reasoning processes that correlate data points with model
outputs; influences of training data, examining the impact of training data
nuances, such as data valuation and sample anomalies, on decision-making
processes; and insights of domain knowledge, discovering latent patterns and
fostering new knowledge from data and models to advance social values and
scientific discovery. Specifically, we distill XAI methodologies into data
mining operations on training and testing data across modalities, such as
images, text, and tabular data, as well as on training logs, checkpoints,
models and other DNN behavior descriptors. In this way, our study offers a
comprehensive, data-centric examination of XAI from a lens of data mining
methods and applications.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の複雑さと透明性の欠如を考えると、これらのシステムをより解釈しやすくしたり、アクセス可能な言葉でそれらの振る舞いを説明するために、広範囲な努力がなされている。
アルゴリズムとモデル中心の視点に焦点を当てたほとんどのレビューとは異なり、この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
We categorize existing work into three categories subject to their purposes: interpretations of deep models, referring to feature attributions and reasoning processes that correlate data points with model outputs; influences of training data, examining the impact of training data nuances, such as data valuation and sample anomalies, on decision-making processes; and insights of domain knowledge, discovering latent patterns and fostering new knowledge from data and models to advance social values and scientific discovery.
具体的には、トレーニングログ、チェックポイント、モデル、その他のdnn行動記述子だけでなく、画像、テキスト、表データなどのモダリティをまたいだデータのトレーニングとテストに関するデータマイニング操作にxai方法論を蒸留します。
このようにして,本研究では,データマイニング手法と応用の観点から,xaiを包括的かつデータ中心に検討する。
関連論文リスト
- User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - Interactive dense pixel visualizations for time series and model attribution explanations [8.24039921933289]
DAVOTSは、生の時系列データ、ニューラルネットワークのアクティベーション、高密度ピクセル可視化における属性を探索する、インタラクティブなビジュアル分析アプローチである。
可視化されたデータドメインにクラスタリングアプローチを適用し、グループをハイライトし、個々のデータ探索と組み合わせたデータ探索のための順序付け戦略を示す。
論文 参考訳(メタデータ) (2024-08-27T14:02:21Z) - Understanding Generative AI Content with Embedding Models [4.662332573448995]
この研究は、現代のディープニューラルネットワーク(DNN)の内部表現を、従来の機能エンジニアリングの自動化形式として捉えている。
これらの埋め込みは、非構造化サンプルデータに解釈可能で高レベルな概念を明らかにすることができることを示す。
実データとAIモデルから生成されたデータの間には、本質的に分離性が存在するという実証的な証拠が見つかる。
論文 参考訳(メタデータ) (2024-08-19T22:07:05Z) - iNNspector: Visual, Interactive Deep Model Debugging [8.997568393450768]
本研究では,ディープラーニング実験のデータ空間を構造化する概念的枠組みを提案する。
我々のフレームワークは設計の次元を捉え、このデータを探索可能かつ抽出可能にするためのメカニズムを提案する。
我々は、ディープラーニング実験の追跡を可能にし、データのインタラクティブな可視化を提供するiNNspectorシステムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:41Z) - Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - An Information-theoretic Approach to Distribution Shifts [9.475039534437332]
機械学習モデルを現実世界に安全にデプロイすることは、しばしば難しいプロセスである。
特定の地理的位置から得られたデータで訓練されたモデルは、他の場所で得られたデータでクエリされたときに失敗する傾向がある。
集団のサブセットに適合するニューラルネットワークは 選択バイアスを 与えるかもしれない
論文 参考訳(メタデータ) (2021-06-07T16:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。