論文の概要: A Performance-Explainability Framework to Benchmark Machine Learning
Methods: Application to Multivariate Time Series Classifiers
- arxiv url: http://arxiv.org/abs/2005.14501v6
- Date: Fri, 19 Nov 2021 15:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 22:37:37.088993
- Title: A Performance-Explainability Framework to Benchmark Machine Learning
Methods: Application to Multivariate Time Series Classifiers
- Title(参考訳): 機械学習手法ベンチマークのための性能説明可能性フレームワーク:多変量時系列分類への応用
- Authors: Kevin Fauvel, V\'eronique Masson, \'Elisa Fromont
- Abstract要約: 本稿では,機械学習手法の評価とベンチマークを行うための,新しい性能説明可能性分析フレームワークを提案する。
このフレームワークは、既存の機械学習手法のパフォーマンス-説明可能性評価を体系化する一連の特徴について詳述する。
- 参考スコア(独自算出の注目度): 1.0015478733418846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our research aims to propose a new performance-explainability analytical
framework to assess and benchmark machine learning methods. The framework
details a set of characteristics that systematize the
performance-explainability assessment of existing machine learning methods. In
order to illustrate the use of the framework, we apply it to benchmark the
current state-of-the-art multivariate time series classifiers.
- Abstract(参考訳): 本研究では,機械学習手法の評価とベンチマークを行うための新しい性能説明可能性分析フレームワークを提案する。
このフレームワークは、既存の機械学習手法のパフォーマンス説明可能性評価を体系化する特徴のセットを詳述している。
このフレームワークの使用を説明するために,現在最先端の多変量時系列分類器のベンチマークを行う。
関連論文リスト
- Improving the Evaluation and Actionability of Explanation Methods for Multivariate Time Series Classification [4.588028371034407]
MTSCに適用された属性手法の評価手法であるInterpretTimeの分析に焦点をあてる。
提案手法のいくつかの重大な弱点を示し,その精度と効率を改善するためのアイデアを提案する。
SHAPやFeature Ablationのような摂動に基づく手法は、データセットの集合でうまく機能する。
論文 参考訳(メタデータ) (2024-06-18T11:18:46Z) - Supervised Time Series Classification for Anomaly Detection in Subsea
Engineering [0.0]
IntactとBrokenの2つの状態を持つ物理システムに基づくシミュレーションデータに対する教師付き機械学習分類アルゴリズムの使用について検討する。
本稿では,時間データの事前処理について,統計的分散と次元縮小の手法を用いて包括的な議論を行う。
本稿では,さまざまなパフォーマンス指標に基づく各種手法の比較を行い,機械学習を意思決定のツールとして活用することの利点を示す。
論文 参考訳(メタデータ) (2024-03-12T18:25:10Z) - Shapelet-based Model-agnostic Counterfactual Local Explanations for Time
Series Classification [5.866975269666861]
時系列分類のためのモデルに依存しないインスタンスベースのポストホック説明可能性法を提案する。
提案したアルゴリズム、すなわちTime-CFはシェープレットとTimeGANを利用して任意の時系列分類器に反実的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-02T11:57:53Z) - Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - Accounting for multiplicity in machine learning benchmark performance [0.0]
最先端のパフォーマンスをSOTA(State-of-the-art)のパフォーマンスの見積として使うのはバイアスのある推定器であり、過度に楽観的な結果をもたらす。
本稿では、複数の分類器の場合の確率分布について、既知の解析手法を適用できるようにし、より優れたSOTA推定値を提供する。
論文 参考訳(メタデータ) (2023-03-10T10:32:18Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Temporal Dependencies in Feature Importance for Time Series Predictions [4.082348823209183]
時系列予測設定における特徴重要度を評価するためのフレームワークであるWinITを提案する。
我々は、ソリューションが時間ステップ内の機能の適切な属性をどのように改善するかを示す。
WinIT は FIT の2.47倍の性能を達成しており、実際のMIMIC の致命的課題における他の特徴的重要な手法である。
論文 参考訳(メタデータ) (2021-07-29T20:31:03Z) - The Benchmark Lottery [114.43978017484893]
ベンチマーク宝くじ」は、機械学習ベンチマークプロセスの全体的な脆弱さを記述している。
アルゴリズムの相対的性能は、異なるベンチマークタスクを選択するだけで大幅に変化する可能性がある。
論文 参考訳(メタデータ) (2021-07-14T21:08:30Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。