論文の概要: Sample completion, structured correlation, and Netflix problems
- arxiv url: http://arxiv.org/abs/2509.20404v1
- Date: Tue, 23 Sep 2025 20:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.50862
- Title: Sample completion, structured correlation, and Netflix problems
- Title(参考訳): サンプル補完,構造相関,Netflix問題
- Authors: Leonardo N. Coregliano, Maryanthe Malliaris,
- Abstract要約: ランダム性が存在する場合でも,データの構造的相関を活用できる新しい高次元統計学習モデルを開発した。
このモデルは、2006年のNetflix Prizeコンペティションにおける特定のアルゴリズムの成功に関する理論的説明を示唆している。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a new high-dimensional statistical learning model which can take advantage of structured correlation in data even in the presence of randomness. We completely characterize learnability in this model in terms of VCN${}_{k,k}$-dimension (essentially $k$-dependence from Shelah's classification theory). This model suggests a theoretical explanation for the success of certain algorithms in the 2006~Netflix Prize competition.
- Abstract(参考訳): ランダム性が存在する場合でも,データの構造的相関を活用できる新しい高次元統計的学習モデルを開発した。
我々は、VCN${}_{k,k}$-dimension(シェラの分類理論から本質的に$k$-dependence)という観点で、このモデルにおける学習可能性を完全に特徴づける。
このモデルは、2006~Netflix Prizeコンペティションにおける特定のアルゴリズムの成功に関する理論的説明を示唆している。
関連論文リスト
- Overcoming Dimensional Factorization Limits in Discrete Diffusion Models through Quantum Joint Distribution Learning [79.65014491424151]
量子離散化拡散確率モデル(QD3PM)を提案する。
これは、指数関数的に大きなヒルベルト空間における拡散と denoising を通じて合同確率学習を可能にする。
本稿では,共同分布学習における量子的優位性を生かして,生成モデルの新たな理論的パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-08T11:48:21Z) - Hierarchical Blockmodelling for Knowledge Graphs [0.5530212768657544]
知識グラフ上の階層的なエンティティクラスタリングのためにブロックモデルを使用します。
Nested Chinese Restaurant ProcessとStick Breaking Processを生成モデルに統合することで、階層的なクラスタリングの誘導が可能になる。
我々は、合成および実世界のデータセット上でモデルを評価し、ベンチマークモデルと定量的に比較した。
論文 参考訳(メタデータ) (2024-08-28T09:04:15Z) - An Interpretable Evaluation of Entropy-based Novelty of Generative Models [36.29214321258605]
生成モデルのモードベースノベルティを定量化するために,カーネルベースのエントロピーノベルティ(KEN)スコアを提案する。
合成および実画像データセットの数値計算結果から,新しいモードの検出におけるフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2024-02-27T08:00:52Z) - Finite-Time Error Analysis of Online Model-Based Q-Learning with a
Relaxed Sampling Model [6.663174194579773]
Q$-learningは、モデルなしの設定において強力なアルゴリズムであることが証明されている。
モデルベースのフレームワークへの$Q$-learningの拡張については、まだ明らかになっていない。
論文 参考訳(メタデータ) (2024-02-19T06:33:51Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - A Complete Characterization of Projectivity for Statistical Relational
Models [20.833623839057097]
本稿では,射影関係モデルのクラスを正確に対応付ける,有向潜在変数モデルのクラスを導入する。
また、与えられた大きさ-$k$構造上の分布が、より大きい大きさ-$n$構造における大きさ-$k$部分構造の統計周波数分布であるときの特性も得られる。
論文 参考訳(メタデータ) (2020-04-23T05:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。