論文の概要: The convergent Indian buffet process
- arxiv url: http://arxiv.org/abs/2206.08002v1
- Date: Thu, 16 Jun 2022 08:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 07:10:07.877854
- Title: The convergent Indian buffet process
- Title(参考訳): 収束するインドのビュッフェ過程
- Authors: Ilsang Ohn
- Abstract要約: 我々は、潜時特徴モデルのための新しいベイズ非パラメトリック先行法を提案し、収束インドバッフェ過程(CIBP)と呼ぶ。
CIBPでは, 平均単調に増大するが, 物体の数が無限大になるにつれて一定の値に収束するポアソン分布として, 潜伏する特徴の数が分布することを示した。
すなわち、オブジェクトの数が無限大になる場合でも、期待されるフィーチャの数が上向きになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new Bayesian nonparametric prior for latent feature models,
which we call the convergent Indian buffet process (CIBP). We show that under
the CIBP, the number of latent features is distributed as a Poisson
distribution with the mean monotonically increasing but converging to a certain
value as the number of objects goes to infinity. That is, the expected number
of features is bounded above even when the number of objects goes to infinity,
unlike the standard Indian buffet process under which the expected number of
features increases with the number of objects. We provide two alternative
representations of the CIBP based on a hierarchical distribution and a
completely random measure, respectively, which are of independent interest. The
proposed CIBP is assessed on a high-dimensional sparse factor model.
- Abstract(参考訳): 本研究では、潜時特徴モデルのための新しいベイズ非パラメトリック先行法を提案し、収束インドバッフェ過程(CIBP)と呼ぶ。
CIBPでは, 平均単調に増大するが, 物体の数が無限に近づくにつれて一定の値に収束するポアソン分布として潜伏する特徴の数が分布していることを示す。
すなわち、期待される機能の数は、オブジェクト数によって期待される機能数が増加する標準のインドのビュッフェプロセスとは異なり、オブジェクト数が無限になるときでさえ、その上に制限されている。
我々は、それぞれ独立した関心を持つ階層分布と完全にランダムな測度に基づくCIBPの2つの代替表現を提供する。
提案したCIBPは高次元スパース因子モデルを用いて評価する。
関連論文リスト
- On consistent estimation of dimension values [45.52331418900137]
ユークリッド空間のコンパクト部分集合 S の次元を推定する問題を考える。
統計学的な意味では一貫性に重点を置いている。
論文 参考訳(メタデータ) (2024-12-18T14:40:37Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Latent Bottlenecked Attentive Neural Processes [71.18817592128207]
LBANP(Latent Bottlenecked Attentive Neural Processs)について
LBANPは、コンテキストデータポイントの数によらず、クエリ処理の複雑さを持つ。
LBANPは,メタ回帰,画像補完,コンテキスト的マルチアームバンディットに関する最先端技術と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-15T19:21:41Z) - Sparse Infinite Random Feature Latent Variable Modeling [6.063419970703021]
後続空間において、潜在空間におけるインスタンス化された次元の数は有限であることが保証される。
従来の潜在変数モデルよりも優れたテストセット性能が得られることを示す。
論文 参考訳(メタデータ) (2022-05-20T00:29:28Z) - Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral [58.434753643798224]
多様性フロンティアは生成モデルの評価フレームワークとして提案されている。
分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
また,スムーズな分布推定器の統計的性能を調べることにより,分散フロンティアの枠組みも強化する。
論文 参考訳(メタデータ) (2021-06-15T06:26:25Z) - Intrinsic Dimension Estimation [92.87600241234344]
内在次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。
次に、本手法を適用して、データ固有の次元に依存するGAN(Generative Adversarial Networks)に対する新しいサンプル複雑性境界を求める。
論文 参考訳(メタデータ) (2021-06-08T00:05:39Z) - Instance Independence of Single Layer Quantum Approximate Optimization
Algorithm on Mixed-Spin Models at Infinite Size [0.0]
混合スピンモデルの場合、深さ1ドルQAOAは無限大のシステムに限らず特定のインスタンスとは独立であることを示す。
また,期待エネルギーの高次モーメントを明示的に表現し,QAOAの期待性能が集中していることを証明する。
論文 参考訳(メタデータ) (2021-02-24T03:19:15Z) - A Bayesian Approach to Block-Term Tensor Decomposition Model Selection
and Computation [10.91885508254207]
いわゆるブロック項分解(BTD)テンソルモデル(特にランク=(L_r,L_r,1)$バージョン)は近年注目を集めている。
BTDモデル構造、すなわちブロック項の数とその個々のランクを推定するという課題は、最近になって注目され始めたばかりです。
ランク-$(L_r,L_r,1)$ BTDモデルの選択と計算の問題を、列の間隔を直交するアイデアに基づいて解くためのベイズ的アプローチが採られる。
論文 参考訳(メタデータ) (2021-01-08T09:37:21Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z) - Non-exchangeable feature allocation models with sublinear growth of the
feature sizes [38.020001748199036]
指定された特徴を共有するオブジェクトの数がサブライン的に増加するような、交換不能な特徴割り当てモデルのクラスを示す。
我々はモデルの性質を導出し、そのようなモデルが様々なデータセットに対してより適合し、より良い予測性能を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T14:14:43Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。