論文の概要: Primal and Dual Combinatorial Dimensions
- arxiv url: http://arxiv.org/abs/2108.10037v1
- Date: Mon, 23 Aug 2021 09:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 19:09:09.967100
- Title: Primal and Dual Combinatorial Dimensions
- Title(参考訳): 原始と双対の組合せ次元
- Authors: Pieter Kleer and Hans Simon
- Abstract要約: 最初は、関数クラスの双対次元をその原始性の観点から有界にし、その後(ほとんど)一致する下界を与えるいくつかの(フォークロア)結果についてレビューする。
特に、Assouad (1983) によるよく知られた有界な多値函数クラスに対して適切な一般化を与える。
- 参考スコア(独自算出の注目度): 2.208242292882514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We give tight bounds on the relation between the primal and dual of various
combinatorial dimensions, such as the pseudo-dimension and fat-shattering
dimension, for multi-valued function classes. These dimensional notions play an
important role in the area of learning theory. We first review some (folklore)
results that bound the dual dimension of a function class in terms of its
primal, and after that give (almost) matching lower bounds. In particular, we
give an appropriate generalization to multi-valued function classes of a
well-known bound due to Assouad (1983), that relates the primal and dual
VC-dimension of a binary function class.
- Abstract(参考訳): 多値関数クラスに対する擬次元や脂肪散乱次元のような様々な組合せ次元の原始と双対の関係について厳密な境界を与える。
これらの次元概念は、学習理論の領域において重要な役割を果たす。
最初は、関数クラスの双対次元をその原始性の観点から有界にし、その後(ほとんど)一致する下界を与えるいくつかの(フォークロア)結果についてレビューする。
特に、Assouad (1983) によるよく知られた有界な多値函数クラスに対して、二元関数クラスの原始および双対VC次元に関連する適切な一般化を与える。
関連論文リスト
- Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Topological dualities via tensor networks [0.0]
トーリック符号の基底状態、2次元のクラスD超伝導体、および2次元のイジングモデルの分配和は、互いに双対である。
フェルミオン系とボゾン系を接続すると、双対性の構成は本質的に非局所的である。
我々はこの双対性に対する統一的なアプローチを提案し、その主役は中間変換子の役割を仮定するテンソルネットワーク(TN)である。
論文 参考訳(メタデータ) (2023-09-22T18:00:17Z) - Upper bounds on the Natarajan dimensions of some function classes [4.251138364820131]
この研究は、ある函数類に対するナタラジャン次元上の上限を確立する。
これらの結果は、ある種のマルチクラス学習アルゴリズムの性能を記述することに関係しているかもしれない。
論文 参考訳(メタデータ) (2022-09-15T03:10:42Z) - Neural Set Function Extensions: Learning with Discrete Functions in High
Dimensions [63.21838830509772]
集合関数を低次元連続領域に拡張するためのフレームワークを開発する。
我々のフレームワークは、よく知られた拡張を特殊ケースとして仮定する。
我々は低次元ニューラルネットワークボトルネックを高次元空間における表現に変換する。
論文 参考訳(メタデータ) (2022-08-08T10:58:02Z) - The Two Dimensions of Worst-case Training and the Integrated Effect for
Out-of-domain Generalization [95.34898583368154]
機械学習モデルをトレーニングするための,新しい,シンプルで効果的な一般化を提案する。
二つの次元に沿ったWorst-case」という概念にちなむW2D法を命名する。
論文 参考訳(メタデータ) (2022-04-09T04:14:55Z) - Fat-Shattering Dimension of $k$-fold Aggregations [18.837140741419805]
実数値関数クラスのアグリゲーションルールの脂肪散乱次元を推定する。
線型およびアフィン函数クラスに対しては、よりシャープな上界と一致する下界を提供する。
論文 参考訳(メタデータ) (2021-10-10T11:21:08Z) - A Short Note on the Relationship of Information Gain and Eluder
Dimension [86.86653394312134]
エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
論文 参考訳(メタデータ) (2021-07-06T04:01:22Z) - Pure Exploration in Kernel and Neural Bandits [90.23165420559664]
我々は、特徴表現の次元が腕の数よりもはるかに大きい帯域における純粋な探索について研究する。
そこで本研究では,各アームの特徴表現を低次元空間に適応的に埋め込む手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T19:51:59Z) - Lower and Upper Bounds on the VC-Dimension of Tensor Network Models [8.997952791113232]
ネットワーク法は凝縮物質物理学の進歩の重要な要素である。
これらは指数関数的に大きな特徴空間で線形モデルを効率的に学習するのに使うことができる。
本研究では,大きなテンソルネットワークモデルのVC次元と擬次元の上下境界を導出する。
論文 参考訳(メタデータ) (2021-06-22T14:39:25Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Connecting Dualities and Machine Learning [0.0]
二重性は量子場理論や弦理論において、高い精度で相関関数を得るために広く用いられている。
ここでは、二値データ表現が教師付き分類、機械学習と理論物理学の典型的なタスクのリンクに有用である例を示す。
特徴分離, 所望の表現に対する特徴マッチング, 単純な相関関数の優れた性能により, 未知の2つの表現を導出できることがわかった。
論文 参考訳(メタデータ) (2020-02-12T19:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。