論文の概要: Optimal Approximations Made Easy
- arxiv url: http://arxiv.org/abs/2008.08970v3
- Date: Thu, 1 Sep 2022 13:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:14:08.325075
- Title: Optimal Approximations Made Easy
- Title(参考訳): 最適な近似が簡単になる
- Authors: M\'onika Csik\'os and Nabil H. Mustafa
- Abstract要約: 本稿の目的は、有限集合系に対してモジュラーで自己完結した直感的な証明を提供することである。
これにより、統計的学習理論のテクニックに精通していない読者は、より広い読者にこの証明にアクセスでき、単一の自己完結した講義でカバーできる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fundamental result of Li, Long, and Srinivasan on approximations of set
systems has become a key tool across several communities such as learning
theory, algorithms, computational geometry, combinatorics and data analysis.
The goal of this paper is to give a modular, self-contained, intuitive proof
of this result for finite set systems. The only ingredient we assume is the
standard Chernoff's concentration bound. This makes the proof accessible to a
wider audience, readers not familiar with techniques from statistical learning
theory, and makes it possible to be covered in a single self-contained lecture
in a geometry, algorithms or combinatorics course.
- Abstract(参考訳): li、long、srinivasanによる集合系の近似の基本的な結果は、学習理論、アルゴリズム、計算幾何学、組合せ論、データ解析など、いくつかのコミュニティで重要なツールとなっている。
本稿の目的は、有限集合系に対してモジュラーで自己完結した直感的な証明を提供することである。
私たちが想定する唯一の成分は、標準チャーノフ濃度境界である。
これにより、この証明は、統計的学習理論のテクニックに詳しくない読者や、幾何学、アルゴリズム、コンビネータのコースにおいて、単一の自己完結した講義でカバーできるようになる。
関連論文リスト
- A Margin-Maximizing Fine-Grained Ensemble Method [42.44032031918387]
マルジン最大化ファイングラインドアンサンブル法(Margin-Maximizing Fine-Grained Ensemble Method)を提案する。
少数の学習者を巧みに最適化し、一般化能力を向上させることで、大規模アンサンブルを超えるパフォーマンスを実現する。
本手法は,基礎学習者の10分の1と,他の最先端のアンサンブル手法を用いて,従来のランダム林よりも優れていた。
論文 参考訳(メタデータ) (2024-09-19T15:48:12Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Relation-aware Ensemble Learning for Knowledge Graph Embedding [68.94900786314666]
我々は,既存の手法を関係性に配慮した方法で活用し,アンサンブルを学習することを提案する。
関係認識アンサンブルを用いてこれらのセマンティクスを探索すると、一般的なアンサンブル法よりもはるかに大きな検索空間が得られる。
本稿では,リレーショナルなアンサンブル重みを独立に検索する分割探索合成アルゴリズムRelEns-DSCを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:40:12Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - A Moment-Matching Approach to Testable Learning and a New
Characterization of Rademacher Complexity [15.746613321517282]
我々は、モーメントマッチングやメートル法非依存のツールを用いて、テスト可能な学習アルゴリズムを開発するための強力な新しいアプローチを提案する。
意外なことに、テスト可能な学習における情報理論の複雑さは、概念クラスのRademacher複雑さによって強く特徴づけられている。
論文 参考訳(メタデータ) (2022-11-23T21:29:51Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - A unified stochastic approximation framework for learning in games [82.74514886461257]
ゲームにおける学習の長期的挙動(連続的・有限的)を解析するためのフレキシブルな近似フレームワークを開発する。
提案する分析テンプレートには,勾配に基づく手法,有限ゲームでの学習のための指数的/乗算的重み付け,楽観的および帯域的変異など,幅広い一般的な学習アルゴリズムが組み込まれている。
論文 参考訳(メタデータ) (2022-06-08T14:30:38Z) - Free Probability, Newton lilypads and Jacobians of neural networks [0.0]
我々は、関連するスペクトル密度を計算するための信頼性が高く、非常に高速な方法を提案する。
提案手法は,アトラクションの流域の発見と連鎖により,適応的なニュートン・ラフソン計画に基づく。
論文 参考訳(メタデータ) (2021-11-01T11:22:42Z) - A Dataset-Level Geometric Framework for Ensemble Classifiers [0.76146285961466]
多数決と重み付けされた多数決は、アンサンブル学習で一般的に使用される2つの組み合わせスキームである。
本稿では,これら2つの組み合わせスキームの特性群を,データセットレベルの幾何学的枠組みの下で正式に提示する。
論文 参考訳(メタデータ) (2021-06-16T09:48:12Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。