論文の概要: Towards a combinatorial characterization of bounded memory learning
- arxiv url: http://arxiv.org/abs/2002.03123v1
- Date: Sat, 8 Feb 2020 09:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:20:09.825206
- Title: Towards a combinatorial characterization of bounded memory learning
- Title(参考訳): 境界メモリ学習の組合せ的特徴付けに向けて
- Authors: Alon Gonen and Shachar Lovett and Michal Moshkovitz
- Abstract要約: 我々は,境界記憶学習を特徴付ける次元を開発する。
候補解に対して上界と下界の両方を証明します。
我々は、我々の特徴がより広いパラメータの体系で成り立つと推測する。
- 参考スコア(独自算出の注目度): 21.031088723668486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combinatorial dimensions play an important role in the theory of machine
learning. For example, VC dimension characterizes PAC learning, SQ dimension
characterizes weak learning with statistical queries, and Littlestone dimension
characterizes online learning.
In this paper we aim to develop combinatorial dimensions that characterize
bounded memory learning. We propose a candidate solution for the case of
realizable strong learning under a known distribution, based on the SQ
dimension of neighboring distributions. We prove both upper and lower bounds
for our candidate solution, that match in some regime of parameters. In this
parameter regime there is an equivalence between bounded memory and SQ
learning. We conjecture that our characterization holds in a much wider regime
of parameters.
- Abstract(参考訳): 組合せ次元は機械学習の理論において重要な役割を果たす。
例えば、VC次元はPAC学習を、SQ次元は統計的クエリで弱い学習を、Littlestone次元はオンライン学習を特徴付ける。
本稿では,境界メモリ学習を特徴付ける組合せ次元を開発することを目的とする。
本稿では, 近隣分布のSQ次元に基づいて, 既知の分布下での強学習を実現するための候補解を提案する。
我々は、いくつかのパラメーターの体系で一致する候補解の上限と下限の両方を証明した。
このパラメータ体系では、境界メモリとSQ学習の間には等価性がある。
我々は、我々の特徴がより広いパラメータの体系で成り立つと推測する。
関連論文リスト
- Supervised Quadratic Feature Analysis: An Information Geometry Approach to Dimensionality Reduction [0.0]
教師付き次元減少は、クラス識別性を最大化しつつ、ラベル付きデータを低次元の特徴空間にマッピングすることを目的としている。
線形特徴学習のための次元還元法であるSupervised Quadratic Feature Analysis (SQFA)を提案する。
論文 参考訳(メタデータ) (2025-01-31T21:17:01Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - Optimal Learners for Realizable Regression: PAC Learning and Online Learning [52.37726841759983]
本研究では,PAC学習環境とオンライン学習環境の両方において,実現可能な回帰の統計的複雑さを特徴付けることを目的とする。
まず,再現可能な回帰のためのミニマックスインスタンス最適学習器を導入し,実数値予測器のどのクラスが学習可能であるかを質的かつ定量的に特徴付ける新しい次元を提案する。
オンライン学習の文脈では、最小の最適インスタンス最適累積損失を一定要素まで特徴付ける次元を提供し、再現可能な回帰のための最適オンライン学習者を設計する。
論文 参考訳(メタデータ) (2023-07-07T21:39:25Z) - A Combinatorial Characterization of Supervised Online Learnability [20.291598040396302]
本稿では,任意だが有界な損失関数に対する仮説クラスのオンライン学習可能性について検討する。
連続最小次元と呼ばれる新しいスケール感性次元を与え、オンライン学習可能性の厳密な定量的評価を与えることを示す。
論文 参考訳(メタデータ) (2023-07-07T20:11:07Z) - Learning Log-Determinant Divergences for Positive Definite Matrices [47.61701711840848]
本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
論文 参考訳(メタデータ) (2021-04-13T19:09:43Z) - The role of feature space in atomistic learning [62.997667081978825]
物理的にインスパイアされた記述子は、原子論シミュレーションへの機械学習技術の応用において重要な役割を果たしている。
異なる記述子のセットを比較するためのフレームワークを導入し、メトリクスとカーネルを使ってそれらを変換するさまざまな方法を紹介します。
原子密度のn-体相関から構築した表現を比較し,低次特徴の利用に伴う情報損失を定量的に評価した。
論文 参考訳(メタデータ) (2020-09-06T14:12:09Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Can Temporal-Difference and Q-Learning Learn Representation? A Mean-Field Theory [110.99247009159726]
時間差とQ-ラーニングは、ニューラルネットワークのような表現力のある非線形関数近似器によって強化される深層強化学習において重要な役割を担っている。
特に時間差学習は、関数近似器が特徴表現において線形であるときに収束する。
論文 参考訳(メタデータ) (2020-06-08T17:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。