論文の概要: The Indian Chefs Process
- arxiv url: http://arxiv.org/abs/2001.10657v1
- Date: Wed, 29 Jan 2020 01:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 20:43:55.147591
- Title: The Indian Chefs Process
- Title(参考訳): インドのシェフのプロセス
- Authors: Patrick Dallaire, Luca Ambrogioni, Ludovic Trottier, Umut
G\"u\c{c}l\"u, Max Hinne, Philippe Gigu\`ere, Brahim Chaib-Draa, Marcel van
Gerven, and Francois Laviolette
- Abstract要約: インドシェフ過程(英: Indian Chefs Process、ICP)は、無限有向非巡回グラフ(DAG)とインドバフェット過程を一般化する順序の合同空間に先立つベイズ的非パラメトリックである。
我々はICPが深部生成シグモイドネットワークや畳み込みニューラルネットワークの構造を学習する上で有用であることを示す。
- 参考スコア(独自算出の注目度): 8.665615449767806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Indian Chefs Process (ICP), a Bayesian
nonparametric prior on the joint space of infinite directed acyclic graphs
(DAGs) and orders that generalizes Indian Buffet Processes. As our construction
shows, the proposed distribution relies on a latent Beta Process controlling
both the orders and outgoing connection probabilities of the nodes, and yields
a probability distribution on sparse infinite graphs. The main advantage of the
ICP over previously proposed Bayesian nonparametric priors for DAG structures
is its greater flexibility. To the best of our knowledge, the ICP is the first
Bayesian nonparametric model supporting every possible DAG. We demonstrate the
usefulness of the ICP on learning the structure of deep generative sigmoid
networks as well as convolutional neural networks.
- Abstract(参考訳): 本稿では,無限有向非巡回グラフ (dag) の結合空間とインドビュッフェ過程を一般化する順序に先行するベイズ型非パラメトリックな行列であるインドシェフプロセス (icp) を紹介する。
我々の構成が示すように、提案する分布はノードの順序と接続確率の両方を制御する潜在ベータプロセスに依存しており、スパース無限グラフ上の確率分布をもたらす。
前述したdag構造のベイズ非パラメトリック前駆体に対するicpの主な利点は、その柔軟性である。
我々の知る限りでは、ICPは可能なすべてのDAGをサポートする最初のベイズ非パラメトリックモデルである。
我々はICPが深部生成シグモイドネットワークや畳み込みニューラルネットワークの構造を学習する上で有用であることを示す。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - PFNs4BO: In-Context Learning for Bayesian Optimization [33.36698252220142]
ベイズ最適化のためのフレキシブルサロゲートとしてPFN(Presideed Data Fitted Networks)を用いる。
PFNは、文脈内学習を通じて後部予測分布(PPD)を近似するように訓練された神経プロセスである。
人工GP試料の大規模評価において,BOに対するPFNの有用性を示す。
論文 参考訳(メタデータ) (2023-05-27T17:35:01Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Layer Adaptive Node Selection in Bayesian Neural Networks: Statistical
Guarantees and Implementation Details [0.5156484100374059]
スパースディープニューラルネットワークは、大規模研究において予測モデル構築に効率的であることが証明されている。
本稿では,スパイク・アンド・スラブ型ガウス先行法を用いて,訓練中のノード選択を可能にするベイズスパース解を提案する。
本研究は, 先行パラメータのキャラクタリゼーションとともに, 変動的後続一貫性の基本的な結果を確立する。
論文 参考訳(メタデータ) (2021-08-25T00:48:07Z) - Precise characterization of the prior predictive distribution of deep
ReLU networks [45.46732383818331]
ガウス重み付き有限幅ReLUネットワークの事前予測分布を正確に推定する。
この結果は,例えば,ネットワークの重みについて,深さと幅にインフォームドされた事前の予測分散を制御するなど,事前設計に関する貴重なガイダンスを提供する。
論文 参考訳(メタデータ) (2021-06-11T21:21:52Z) - Fully Convolutional Networks for Panoptic Segmentation [91.84686839549488]
そこで我々は,Panoptic FCNという概念的,シンプルで,強力で,効率的なパノプティックセグメンテーションフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案されたカーネルジェネレータで、各オブジェクトインスタンスまたは物カテゴリを特定のカーネル重みにエンコードする。
論文 参考訳(メタデータ) (2020-12-01T18:31:41Z) - Balanced Order Batching with Task-Oriented Graph Clustering [28.05598654297136]
本稿では,BTOGCN(Ba balanced Task- Clustering Network)というエンドツーエンドの学習・最適化フレームワークを提案する。
BOBPは、中国最大のロジスティクスプラットフォームであるCainiaoの買収プロセスに端を発する。
論文 参考訳(メタデータ) (2020-08-19T08:42:50Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。