論文の概要: Sparse Robust Classification via the Kernel Mean
- arxiv url: http://arxiv.org/abs/1506.01520v4
- Date: Mon, 13 Oct 2025 11:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-19 15:11:19.275145
- Title: Sparse Robust Classification via the Kernel Mean
- Title(参考訳): カーネル平均によるスパースロバスト分類
- Authors: Brendan van Rooyen, Aditya Krishna Menon, Robert C. Williamson,
- Abstract要約: すべての重みを等しくすると、概念的に単純な分類規則が導かれる。
ここでは、この単純な分類規則の一貫性、堅牢性、およびスパーシフィケーションについて考察する。
- 参考スコア(独自算出の注目度): 19.970805864993373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many leading classification algorithms output a classifier that is a weighted average of kernel evaluations. Optimizing these weights is a nontrivial problem that still attracts much research effort. Furthermore, explaining these methods to the uninitiated is a difficult task. Letting all the weights be equal leads to a conceptually simpler classification rule, one that requires little effort to motivate or explain, the mean. Here we explore the consistency, robustness and sparsification of this simple classification rule.
- Abstract(参考訳): 多くの主要な分類アルゴリズムはカーネル評価の重み付き平均である分類器を出力する。
これらの重量を最適化することは、いまだに多くの研究努力を惹きつける非自明な問題である。
さらに、これらの手法を初期化されていないものに説明することは難しい課題である。
すべての重みを等しいものにすることは、概念的により単純な分類規則につながる。
ここでは、この単純な分類規則の一貫性、堅牢性、およびスパーシフィケーションについて考察する。
関連論文リスト
- Studying Classifier(-Free) Guidance From a Classifier-Centric Perspective [100.54185280153753]
分類器なし誘導と分類器なし誘導の両方が,微分拡散軌道を決定境界から遠ざけることによって条件付き生成を実現することがわかった。
本研究では,フローマッチングをベースとした汎用的な後処理ステップを提案し,事前学習した復調拡散モデルに対する学習分布と実データ分布とのギャップを小さくする。
論文 参考訳(メタデータ) (2025-03-13T17:59:59Z) - The Art of Misclassification: Too Many Classes, Not Enough Points [0.46873264197900916]
本稿では,分類問題の本質的難易度を定量化する,形式的エントロピーに基づく分類可能性尺度を提案する。
この尺度は、クラスオーバーラップの度合いを捉え、人間の直感と整合し、分類性能の上限として機能する。
論文 参考訳(メタデータ) (2025-02-12T00:57:53Z) - Bidirectional Logits Tree: Pursuing Granularity Reconcilement in Fine-Grained Classification [89.20477310885731]
本稿では,粒度分類タスクにおけるグラニュラリティコンペティションの課題について述べる。
既存のアプローチは通常、共通のベースエンコーダから抽出された共有特徴に基づいて、独立した階層認識モデルを開発する。
グラニュラリティ再構成のための双方向ロジットツリー(BiLT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T10:42:19Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - A Voting Approach for Explainable Classification with Rule Learning [0.0]
両世界を組み合わせた投票方式を導入し,その成果を(説明不能な)最先端手法として実現することを目的とする。
我々は,本手法が通常のルール学習法より明らかに優れているだけでなく,最先端の結果と同等の結果が得られることを証明した。
論文 参考訳(メタデータ) (2023-11-13T13:22:21Z) - Latent Preserving Generative Adversarial Network for Imbalance
classification [17.992830267031877]
エンド・ツー・エンドの深層生成分類器を提案する。
本稿では,ジェネレータの遅延空間を予め保持するドメイン制約オートエンコーダを提案する。
3つの異なる多クラス不均衡問題と最先端手法との比較実験を行った。
論文 参考訳(メタデータ) (2022-09-04T07:49:27Z) - A Simple Approach to Adversarial Robustness in Few-shot Image
Classification [20.889464448762176]
単純な移動学習に基づくアプローチは、逆向きに頑健な数ショット分類器を訓練するのに有効であることを示す。
また,少数ショットカテゴリのセントロイドをベースクラスに校正する手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T22:46:41Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。