論文の概要: Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning
- arxiv url: http://arxiv.org/abs/2302.04386v1
- Date: Thu, 9 Feb 2023 00:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 17:05:45.101873
- Title: Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning
- Title(参考訳): 機械学習能力:教師付き機械学習の個別配置への応用によるケース難易度を用いた標準化メトリクス
- Authors: Adrienne Kline and Joon Lee
- Abstract要約: モデル評価は教師付き機械学習分類解析において重要な要素である。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
- 参考スコア(独自算出の注目度): 2.2060666847121864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model evaluation is a critical component in supervised machine learning
classification analyses. Traditional metrics do not currently incorporate case
difficulty. This renders the classification results unbenchmarked for
generalization. Item Response Theory (IRT) and Computer Adaptive Testing (CAT)
with machine learning can benchmark datasets independent of the
end-classification results. This provides high levels of case-level information
regarding evaluation utility. To showcase, two datasets were used: 1)
health-related and 2) physical science. For the health dataset a two-parameter
IRT model, and for the physical science dataset a polytonomous IRT model, was
used to analyze predictive features and place each case on a difficulty
continuum. A CAT approach was used to ascertain the algorithms' performance and
applicability to new data. This method provides an efficient way to benchmark
data, using only a fraction of the dataset (less than 1%) and 22-60x more
computationally efficient than traditional metrics. This novel metric, termed
Machine Learning Capability (MLC) has additional benefits as it is unbiased to
outcome classification and a standardized way to make model comparisons within
and across datasets. MLC provides a metric on the limitation of supervised
machine learning algorithms. In situations where the algorithm falls short,
other input(s) are required for decision-making.
- Abstract(参考訳): モデル評価は教師付き機械学習分類解析において重要な要素である。
従来のメトリクスは、現在ケースの難易度を含まない。
これにより、分類結果は一般化のために目立たない。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
これにより、評価ユーティリティに関する高レベルのケースレベル情報が得られる。
披露するために、2つのデータセットが使われた。
1)健康関連および
2)物理科学。
健康データセットでは,2パラメータIRTモデル,物理科学データセットでは多トンIRTモデルを用いて予測的特徴を分析し,各ケースを困難連続体に配置した。
CATアプローチは、アルゴリズムのパフォーマンスと新しいデータの適用性を確認するために使用された。
この方法は、データセットのごく一部(1%未満)と22-60倍の計算効率でデータをベンチマークする効率的な方法を提供する。
機械学習能力(MLC)と呼ばれるこの新しいメトリクスは、結果の分類に偏りがなく、データセット内およびデータセット間のモデル比較を標準化する方法として、さらなるメリットがある。
MLCは、教師付き機械学習アルゴリズムの制限に関するメトリクスを提供する。
アルゴリズムが不足している状況では、他の入力が意思決定に必要となる。
関連論文リスト
- Stabilizing Subject Transfer in EEG Classification with Divergence
Estimation [17.924276728038304]
脳波分類タスクを記述するためのグラフィカルモデルをいくつか提案する。
理想的な訓練シナリオにおいて真であるべき統計的関係を同定する。
我々は、これらの関係を2段階で強制する正規化罰則を設計する。
論文 参考訳(メタデータ) (2023-10-12T23:06:52Z) - Benchmarking Learning Efficiency in Deep Reservoir Computing [23.753943709362794]
我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
論文 参考訳(メタデータ) (2022-09-29T08:16:52Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Classifier Data Quality: A Geometric Complexity Based Method for
Automated Baseline And Insights Generation [4.722075132982135]
主な課題は、モデルの精度や分類器のF1スコアなどの誤りのレベルが受け入れられるかどうかを決定することである。
我々は、与えられた観測が真のクラスラベルに割り当てるのがいかに困難であるかを定量化する複雑性測定法を開発した。
これらの尺度は、線形計算コストに対して、各観測の分類複雑性を説明可能な形で定量化するという点において、ベストプラクティスのベースラインよりも優れている。
論文 参考訳(メタデータ) (2021-12-22T12:17:08Z) - Data vs classifiers, who wins? [0.0]
機械学習(ML)によってカバーされる分類実験は、データとアルゴリズムの2つの重要な部分で構成されている。
データ複雑性は、一般的に、パフォーマンス評価中にモデルに沿って考慮されない。
最近の研究は、データセットとアルゴリズムを評価するための新しいアプローチとして、IRT(Item Response Theory)を採用している。
論文 参考訳(メタデータ) (2021-07-15T16:55:15Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Does imputation matter? Benchmark for predictive models [5.802346990263708]
本稿では,予測モデルに対するデータ計算アルゴリズムの実証的効果を体系的に評価する。
主な貢献は,(1)実生活の分類タスクに基づく経験的ベンチマークのための一般的な手法の推薦である。
論文 参考訳(メタデータ) (2020-07-06T15:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。