論文の概要: Characterizing the Multiclass Learnability of Forgiving 0-1 Loss Functions
- arxiv url: http://arxiv.org/abs/2510.08382v1
- Date: Thu, 09 Oct 2025 16:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.181901
- Title: Characterizing the Multiclass Learnability of Forgiving 0-1 Loss Functions
- Title(参考訳): Forgiving 0-1 Loss関数のマルチクラス学習性の特徴付け
- Authors: Jacob Trauger, Tyson Trauger, Ambuj Tewari,
- Abstract要約: この一般化されたナタラジャン次元が有限である場合に限り、仮説クラスが我々の設定で学習可能であることを示す。
また,設定値フィードバックによる学習の関連も示した。
- 参考スコア(独自算出の注目度): 21.920215865706368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we will give a characterization of the learnability of forgiving 0-1 loss functions in the finite label multiclass setting. To do this, we create a new combinatorial dimension that is based off of the Natarajan Dimension \citep{natarajan1989learning} and we show that a hypothesis class is learnable in our setting if and only if this Generalized Natarajan Dimension is finite. We also show a connection to learning with set-valued feedback. Through our results we show that the learnability of a set learning problem is characterized by the Natarajan Dimension.
- Abstract(参考訳): 本稿では,有限ラベル多重クラス設定における有意な0-1損失関数の学習性について述べる。
これを実現するために、我々は、ナタラジャン次元をベースとした新しい組合せ次元を作成し、この一般化されたナタラジャン次元が有限である場合に限り、仮説クラスが我々の設定で学習可能であることを示す。
また,設定値フィードバックによる学習の関連も示した。
この結果から,学習課題の学習性はナタラジャン次元によって特徴づけられることがわかった。
関連論文リスト
- Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Optimal Learners for Realizable Regression: PAC Learning and Online Learning [52.37726841759983]
本研究では,PAC学習環境とオンライン学習環境の両方において,実現可能な回帰の統計的複雑さを特徴付けることを目的とする。
まず,再現可能な回帰のためのミニマックスインスタンス最適学習器を導入し,実数値予測器のどのクラスが学習可能であるかを質的かつ定量的に特徴付ける新しい次元を提案する。
オンライン学習の文脈では、最小の最適インスタンス最適累積損失を一定要素まで特徴付ける次元を提供し、再現可能な回帰のための最適オンライン学習者を設計する。
論文 参考訳(メタデータ) (2023-07-07T21:39:25Z) - A Combinatorial Characterization of Supervised Online Learnability [20.291598040396302]
本稿では,任意だが有界な損失関数に対する仮説クラスのオンライン学習可能性について検討する。
連続最小次元と呼ばれる新しいスケール感性次元を与え、オンライン学習可能性の厳密な定量的評価を与えることを示す。
論文 参考訳(メタデータ) (2023-07-07T20:11:07Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Adversarially Robust PAC Learnability of Real-Valued Functions [19.54399554114989]
脂肪散乱次元のクラスは $ell_p$ 摂動条件で学習可能であることを示す。
そこで本研究では,実関数に対する非依存的な新しいサンプルスキームを提案する。
論文 参考訳(メタデータ) (2022-06-26T21:27:23Z) - A Characterization of Multiclass Learnability [18.38631912121182]
DS次元はDanielyとShalev-Shwartz 2014によって定義された次元である。
リスト学習設定では、与えられた未知の入力に対して単一の結果を予測する代わりに、予測の短いメニューを提供することが目標である。
2つ目の主な成果は、多クラス学習の可能性を特徴づける中心的な候補であるナタラジャン次元に関するものである。
論文 参考訳(メタデータ) (2022-03-03T07:41:54Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Feature-weighted elastic net: using "features of features" for better
prediction [137.6408511310322]
予測精度を向上させるために追加情報を活用する新しい手法を提案する。
特徴重み付き弾性ネット(fwelnet)と呼ばれるこの手法は、これらの「特徴の特徴」を用いて、弾性ネットペナルティの特徴係数に相対的なペナルティを適応させる。
我々のシミュレーションでは、fwelnetは平均二乗誤差でラッソを上回り、通常、特徴選択に対して真の正の率または偽の正の率を改善する。
論文 参考訳(メタデータ) (2020-06-02T05:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。