論文の概要: High-arity PAC learning via exchangeability
- arxiv url: http://arxiv.org/abs/2402.14294v1
- Date: Thu, 22 Feb 2024 05:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:22:42.349377
- Title: High-arity PAC learning via exchangeability
- Title(参考訳): 交換性を利用した高純度PAC学習
- Authors: Leonardo N. Coregliano and Maryanthe Malliaris
- Abstract要約: 我々は「構造化相関」の存在下での統計的学習である高純度PAC学習の理論を開発する。
統計的学習の基本定理の高アリティ版を、高アリティ(不可知性)PAC学習性を特徴付けることによって証明する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a theory of high-arity PAC learning, which is statistical learning
in the presence of "structured correlation". In this theory, hypotheses are
either graphs, hypergraphs or, more generally, structures in finite relational
languages, and i.i.d. sampling is replaced by sampling an induced substructure,
producing an exchangeable distribution. We prove a high-arity version of the
fundamental theorem of statistical learning by characterizing high-arity
(agnostic) PAC learnability in terms of finiteness of a purely combinatorial
dimension and in terms of an appropriate version of uniform convergence.
- Abstract(参考訳): 本研究では,「構造化相関」の存在下での統計的学習である高純度PAC学習の理論を開発する。
この理論では、仮説はグラフ、ハイパーグラフ、あるいはより一般に有限関係言語の構造であり、サンプリングは誘導された部分構造をサンプリングすることによって置き換えられ、交換可能な分布を生成する。
我々は、純粋組合せ次元の有限性および一様収束の適切なバージョンの観点から、高次(非依存)PAC学習可能性を特徴付けることによって、統計学習の基本定理の高アリティバージョンを証明した。
関連論文リスト
- Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [97.91714896039421]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Adversarially Robust Models may not Transfer Better: Sufficient
Conditions for Domain Transferability from the View of Regularization [17.825841580342715]
機械学習の堅牢性とドメインの一般化は基本的に相関している。
最近の研究では、より堅牢な(逆向きに訓練された)モデルの方がより一般化可能であることが示されている。
彼らの基本的な関係に関する理論的理解が欠如している。
論文 参考訳(メタデータ) (2022-02-03T20:26:27Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Realizable Learning is All You Need [21.34668631009594]
実現可能かつ不可知的な学習可能性の同値性は、学習理論における基本的な現象である。
実現可能かつ不可知な学習可能性の同値性を説明する最初のモデルに依存しないフレームワークを提示する。
論文 参考訳(メタデータ) (2021-11-08T19:00:00Z) - Implicit Generative Copulas [0.0]
我々は、暗黙的な生成ニューラルネットワークに基づく柔軟な、しかし概念的には単純な代替案を提案する。
ファイナンス、物理、画像生成の合成および実データに関する実験は、このアプローチの性能を実証している。
論文 参考訳(メタデータ) (2021-09-29T17:05:30Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Robust normalizing flows using Bernstein-type polynomials [31.533158456141305]
正規化フロー(NFs)は、正確な密度評価とサンプリングを可能にする生成モデルのクラスである。
三角写像とベルンシュタイン型の増大に基づくNFを構築するための枠組みを提案する。
実世界のデータセットと合成データセットの両方を用いた実験により,提案手法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2021-02-06T04:32:05Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。