論文の概要: Comprehensive Comparative Study of Multi-Label Classification Methods
- arxiv url: http://arxiv.org/abs/2102.07113v1
- Date: Sun, 14 Feb 2021 09:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:01:07.710554
- Title: Comprehensive Comparative Study of Multi-Label Classification Methods
- Title(参考訳): マルチラベル分類法の包括的比較研究
- Authors: Jasmin Bogatinovski, Ljup\v{c}o Todorovski, Sa\v{s}o D\v{z}eroski,
Dragi Kocev
- Abstract要約: マルチラベル分類(MLC)は最近、機械学習コミュニティから関心が高まっています。
この研究は、さまざまなドメインのデータセットの多さに関する幅広いMLCメソッドの包括的な実証的研究を提供する。
- 参考スコア(独自算出の注目度): 1.1278903078792917
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-label classification (MLC) has recently received increasing interest
from the machine learning community. Several studies provide reviews of methods
and datasets for MLC and a few provide empirical comparisons of MLC methods.
However, they are limited in the number of methods and datasets considered.
This work provides a comprehensive empirical study of a wide range of MLC
methods on a plethora of datasets from various domains. More specifically, our
study evaluates 26 methods on 42 benchmark datasets using 20 evaluation
measures. The adopted evaluation methodology adheres to the highest literature
standards for designing and executing large scale, time-budgeted experimental
studies. First, the methods are selected based on their usage by the community,
assuring representation of methods across the MLC taxonomy of methods and
different base learners. Second, the datasets cover a wide range of complexity
and domains of application. The selected evaluation measures assess the
predictive performance and the efficiency of the methods. The results of the
analysis identify RFPCT, RFDTBR, ECCJ48, EBRJ48 and AdaBoost.MH as best
performing methods across the spectrum of performance measures. Whenever a new
method is introduced, it should be compared to different subsets of MLC
methods, determined on the basis of the different evaluation criteria.
- Abstract(参考訳): マルチラベル分類(MLC)は最近、機械学習コミュニティから関心が高まっています。
いくつかの研究はMLCの方法とデータセットのレビューを提供し、いくつかの研究はMLCメソッドの実証的な比較を提供する。
ただし、考慮されるメソッドとデータセットの数に制限があります。
この研究は、さまざまなドメインのデータセットの多さに関する幅広いMLCメソッドの包括的な実証的研究を提供する。
より具体的には、42のベンチマークデータセットの26の手法を20の評価尺度を用いて評価する。
評価手法は、大規模で予算のかかる実験研究を設計・実行するための最も高い文献基準に準拠している。
まず、メソッドはコミュニティが使用する方法に基づいて選択され、メソッドのMLC分類と異なる基礎学習者のメソッドの表現を保証します。
第二に、データセットはアプリケーションの幅広い複雑さとドメインをカバーする。
選択した評価尺度は, 予測性能と手法の効率を評価する。
分析の結果は、RFPCT、RFDTBR、ECCJ48、EBRJ48およびAdaBoost.MHを、パフォーマンス対策のスペクトルにわたって最良の実行方法として識別する。
新しいメソッドが導入されるたびに、異なる評価基準に基づいて決定されるMLCメソッドの異なるサブセットと比較する必要があります。
関連論文リスト
- Generating Synthetic Electronic Health Record (EHR) Data: A Review with Benchmarking [16.827140823757603]
方法はオープンソースのEHRデータセットMIMIC-III/IVでベンチマークされる。
ベンチマーク手法の選択をガイドする決定木を提供する。
GANに基づく手法は、訓練群と試験群の間に分布シフトが存在する場合に優れる。
論文 参考訳(メタデータ) (2024-11-06T21:59:19Z) - POGEMA: A Benchmark Platform for Cooperative Multi-Agent Navigation [76.67608003501479]
主評価指標の基礎に基づいて計算された領域関連メトリクスの範囲を定義する評価プロトコルを導入・指定する。
このような比較の結果は、様々な最先端のMARL、検索ベース、ハイブリッド手法を含むものである。
論文 参考訳(メタデータ) (2024-07-20T16:37:21Z) - Improving the Evaluation and Actionability of Explanation Methods for Multivariate Time Series Classification [4.588028371034407]
MTSCに適用された属性手法の評価手法であるInterpretTimeの分析に焦点をあてる。
提案手法のいくつかの重大な弱点を示し,その精度と効率を改善するためのアイデアを提案する。
SHAPやFeature Ablationのような摂動に基づく手法は、データセットの集合でうまく機能する。
論文 参考訳(メタデータ) (2024-06-18T11:18:46Z) - Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - Current Methods for Drug Property Prediction in the Real World [9.061842820405486]
薬物特性の予測は、高価な臨床試験の前に資産の破壊を可能にするために、薬物発見の鍵となる。
異なる論文が異なるデータセットやメソッドをベンチマークしているため、どの方法やアプローチが最も適しているかは、実践者にとって依然として不明である。
私たちの大規模な経験的研究は、さまざまなデータセットや手法に関する多くの初期の研究を結び付けています。
最良の方法はデータセットに依存しており、古典的なMLメソッドで構築された機能は、ディープラーニングよりも優れていることが分かりました。
論文 参考訳(メタデータ) (2023-07-25T17:50:05Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - On the role of benchmarking data sets and simulations in method
comparison studies [0.0]
本稿では,シミュレーション研究とベンチマーク研究の相違点と類似点について検討する。
混合手法研究や臨床シナリオ評価など,さまざまな文脈からアイデアを借りる。
論文 参考訳(メタデータ) (2022-08-02T13:47:53Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Multivariate feature ranking of gene expression data [62.997667081978825]
ペアワイズ相関とペアワイズ整合性に基づく2つの新しい多変量特徴ランキング手法を提案する。
提案手法は, クラスタリング変動, チ・スクエアド, 相関, 情報ゲイン, ReliefF および Significance の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-03T17:19:53Z) - A Comparative Evaluation of Quantification Methods [3.1499058381005227]
量子化は、データセット内のクラス分布を予測する問題を表す。
近年,様々なアルゴリズムが提案されている。
40以上のデータセットで24の異なるメソッドを比較します。
論文 参考訳(メタデータ) (2021-03-04T18:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。