論文の概要: Fat-Shattering Dimension of $k$-fold Aggregations
- arxiv url: http://arxiv.org/abs/2110.04763v2
- Date: Sun, 10 Sep 2023 00:37:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 23:51:36.345309
- Title: Fat-Shattering Dimension of $k$-fold Aggregations
- Title(参考訳): $k$-fold Aggregations の脂肪散乱次元
- Authors: Idan Attias, Aryeh Kontorovich
- Abstract要約: 実数値関数クラスのアグリゲーションルールの脂肪散乱次元を推定する。
線型およびアフィン函数クラスに対しては、よりシャープな上界と一致する下界を提供する。
- 参考スコア(独自算出の注目度): 18.837140741419805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide estimates on the fat-shattering dimension of aggregation rules of
real-valued function classes. The latter consists of all ways of choosing $k$
functions, one from each of the $k$ classes, and computing a pointwise function
of them, such as the median, mean, and maximum. The bound is stated in terms of
the fat-shattering dimensions of the component classes. For linear and affine
function classes, we provide a considerably sharper upper bound and a matching
lower bound, achieving, in particular, an optimal dependence on $k$. Along the
way, we improve several known results in addition to pointing out and
correcting a number of erroneous claims in the literature.
- Abstract(参考訳): 実数値関数クラスのアグリゲーションルールの脂肪散乱次元を推定する。
後者は、すべての方法で$k$関数を選択し、$k$クラスから1つを選び、中央値、平均値、最大値といったポイントワイズ関数を計算する。
境界は成分クラスの脂肪散乱次元の観点から記述される。
線型およびアフィン函数クラスに対しては、よりシャープな上界と一致する下界を提供し、特に$k$への最適依存を実現する。
その過程で,文献における誤った主張を指摘・訂正することに加えて,いくつかの既知の結果を改善する。
関連論文リスト
- Inexact subgradient methods for semialgebraic functions [18.293072574300798]
機械学習と機械学習の最適化において近似微分が広く使われていることから、我々は、非消滅エラーを伴う過渡的手法を不正確なものにしている。
論文 参考訳(メタデータ) (2024-04-30T12:47:42Z) - Prediction, Learning, Uniform Convergence, and Scale-sensitive
Dimensions [39.97534972432276]
本稿では,$[0,1]$-valued関数のクラスを学習するための新しい汎用アルゴリズムを提案する。
このアルゴリズムの絶対誤差の一般上界を証明した。
本研究は, 学習の複雑さに関する一般化された一般境界を得るために, 両方のパッキングバウンドをどう適用するかを示す。
論文 参考訳(メタデータ) (2023-04-21T15:51:35Z) - Linear Classifiers Under Infinite Imbalance [1.370633147306388]
無限不均衡極限における二項分類のための線形判別関数の挙動について検討する。
広いクラスの重み関数に対して、インターセプトは分岐するが、係数ベクトルの残りの部分は無限の不均衡の下では有限なほぼ確実な極限を持つことを示す。
論文 参考訳(メタデータ) (2021-06-10T15:01:54Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Multicalibrated Partitions for Importance Weights [17.1726078570842]
重要度重みは、多くの分野、特に統計学と機械学習において、基本的な役割を果たす。
最大エントロピー法では、集合の基底的真理の重みの平均が明らかに大きい場合でも、計算量$ に対して高い平均スコアを割り当てることができない可能性がある。
標準学習可能性仮定の下でこれらの境界を満たす重みを計算する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-10T03:32:36Z) - Nearly Optimal Regret for Learning Adversarial MDPs with Linear Function
Approximation [92.3161051419884]
我々は、敵対的な報酬と完全な情報フィードバックで有限正方体エピソディックマルコフ決定プロセスのための強化学習を研究します。
我々は、$tildeO(dHsqrtT)$ regretを達成できることを示し、$H$はエピソードの長さである。
また、対数因子までの$tildeOmega(dHsqrtT)$の値が一致することを証明する。
論文 参考訳(メタデータ) (2021-02-17T18:54:08Z) - Near-Optimal Regret Bounds for Contextual Combinatorial Semi-Bandits
with Linear Payoff Functions [53.77572276969548]
我々は、C$2$UCBアルゴリズムが分割マトロイド制約に対して最適な後悔結合$tildeO(dsqrtkT + dk)$を有することを示した。
一般的な制約に対して,C$2$UCBアルゴリズムで腕の報酬推定値を変更するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-20T04:29:18Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Multiclass Classification via Class-Weighted Nearest Neighbors [10.509405690286176]
マルチクラス分類のためのk-アネレスト近傍アルゴリズムの統計特性について検討する。
我々は, 精度, クラス重み付きリスク, 均一誤差に基づいて, 上限値と最小値の下位境界を導出する。
論文 参考訳(メタデータ) (2020-04-09T17:50:16Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。