論文の概要: An Explainable Pipeline for Machine Learning with Functional Data
- arxiv url: http://arxiv.org/abs/2501.07602v1
- Date: Fri, 10 Jan 2025 23:33:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:27:03.538384
- Title: An Explainable Pipeline for Machine Learning with Functional Data
- Title(参考訳): 関数型データによる機械学習のための説明可能なパイプライン
- Authors: Katherine Goode, J. Derek Tucker, Daniel Ries, Heike Hofmann,
- Abstract要約: 関数型データ入力を用いた予測を目的とし,高連続空間からの2つの応用を考察する。
1つの応用は、材料のハイパースペクトルCTスキャンにより爆発物を特定するために、材料タイプを分類することである。
もう1つの応用は、ラマン分光法で抽出したカラーシグネチャを用いてインクジェット印刷された文書をソースプリンタに接続する法医学的なタスクを考えることである。
- 参考スコア(独自算出の注目度): 0.1874930567916036
- License:
- Abstract: Machine learning (ML) models have shown success in applications with an objective of prediction, but the algorithmic complexity of some models makes them difficult to interpret. Methods have been proposed to provide insight into these "black-box" models, but there is little research that focuses on supervised ML when the model inputs are functional data. In this work, we consider two applications from high-consequence spaces with objectives of making predictions using functional data inputs. One application aims to classify material types to identify explosive materials given hyperspectral computed tomography scans of the materials. The other application considers the forensics science task of connecting an inkjet printed document to the source printer using color signatures extracted by Raman spectroscopy. An instinctive route to consider for analyzing these data is a data driven ML model for classification, but due to the high consequence nature of the applications, we argue it is important to appropriately account for the nature of the data in the analysis to not obscure or misrepresent patterns. As such, we propose the Variable importance Explainable Elastic Shape Analysis (VEESA) pipeline for training ML models with functional data that (1) accounts for the vertical and horizontal variability in the functional data and (2) provides an explanation in the original data space of how the model uses variability in the functional data for prediction. The pipeline makes use of elastic functional principal components analysis (efPCA) to generate uncorrelated model inputs and permutation feature importance (PFI) to identify the principal components important for prediction. The variability captured by the important principal components in visualized the original data space. We ultimately discuss ideas for natural extensions of the VEESA pipeline and challenges for future research.
- Abstract(参考訳): 機械学習(ML)モデルは、予測の目的を持ったアプリケーションで成功したが、いくつかのモデルのアルゴリズム的な複雑さは、解釈を困難にしている。
これらの「ブラックボックス」モデルについての洞察を提供する手法が提案されているが、モデル入力が関数データである場合に教師付きMLに焦点を当てた研究はほとんどない。
本研究では,関数型データ入力を用いた予測を行う目的で,高連続空間からの2つのアプリケーションについて検討する。
1つの応用は、材料のハイパースペクトルCTスキャンにより爆発物を特定するために、材料タイプを分類することである。
もう1つの応用は、ラマン分光法で抽出したカラーシグネチャを用いてインクジェット印刷された文書をソースプリンタに接続する法医学的なタスクを考えることである。
これらのデータを解析するために考慮すべき本能的なルートは、分類のためのデータ駆動MLモデルであるが、アプリケーションの高い帰結特性のため、分析におけるデータの性質を不明瞭または誤表現しないよう適切に考慮することが重要であると我々は主張する。
そこで本稿では,(1)機能データにおける垂直および水平の変動を考慮に入れた機能データを用いたMLモデルのトレーニングのための可変重要性記述型弾性形状解析(VEESA)パイプラインを提案する。
このパイプラインは、非相関モデル入力を生成するための弾性機能主成分分析(efPCA)と、予測に重要な主成分を特定するための置換特徴重要度(PFI)を利用する。
重要なプリンシパルコンポーネントによってキャプチャされた可変性は、元のデータ空間を視覚化した。
VEESAパイプラインの自然拡張に関するアイデアと今後の研究課題について論じる。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Notes on Applicability of Explainable AI Methods to Machine Learning
Models Using Features Extracted by Persistent Homology [0.0]
永続ホモロジー(PH)は機械学習に広く応用されている。
比較的単純なダウンストリーム機械学習モデルで十分なレベルの精度を達成する能力は、これらの抽出された特徴を処理する際に、パイプラインの優れた解釈可能性の基盤となる。
本稿では,このPH-MLパイプラインへの説明可能なAI手法の適用の可能性について検討する。
論文 参考訳(メタデータ) (2023-10-15T08:56:15Z) - Metric Tools for Sensitivity Analysis with Applications to Neural
Networks [0.0]
説明可能な人工知能(XAI)は、機械学習モデルによる予測の解釈を提供することを目的としている。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
$alpha$-curvesと呼ばれる新しいメトリクスの完全なファミリーが抽出される。
論文 参考訳(メタデータ) (2023-05-03T18:10:21Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Probabilistic Tracking with Deep Factors [8.030212474745879]
因子グラフに基づく確率的追跡フレームワークにおける特徴量に対する生成密度と組み合わせたディープ・フィーチャー・エンコーディングの使い方を示す。
本稿では,学習した特徴エンコーダと生成密度を組み合わせる可能性モデルを提案する。
論文 参考訳(メタデータ) (2021-12-02T21:31:51Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Explaining Neural Network Predictions for Functional Data Using
Principal Component Analysis and Feature Importance [0.0]
本稿では,関数型データを用いた機械学習モデルの記述手法を提案する。
我々は、光スペクトル時間シグネチャを爆発させるのに適したニューラルネットワークを説明することによって、この手法を実証する。
論文 参考訳(メタデータ) (2020-10-15T22:33:21Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。