論文の概要: Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems
- arxiv url: http://arxiv.org/abs/2003.06258v1
- Date: Fri, 13 Mar 2020 13:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:24:35.569265
- Title: Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems
- Title(参考訳): 信念伝達再ロード:ラベル問題に対するbp層学習
- Authors: Patrick Kn\"obelreiter and Christian Sormann and Alexander Shekhovtsov
and Friedrich Fraundorfer and Thomas Pock
- Abstract要約: 最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
- 参考スコア(独自算出の注目度): 83.98774574197613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been proposed by many researchers that combining deep neural networks
with graphical models can create more efficient and better regularized
composite models. The main difficulties in implementing this in practice are
associated with a discrepancy in suitable learning objectives as well as with
the necessity of approximations for the inference. In this work we take one of
the simplest inference methods, a truncated max-product Belief Propagation, and
add what is necessary to make it a proper component of a deep learning model:
We connect it to learning formulations with losses on marginals and compute the
backprop operation. This BP-Layer can be used as the final or an intermediate
block in convolutional neural networks (CNNs), allowing us to design a
hierarchical model composing BP inference and CNNs at different scale levels.
The model is applicable to a range of dense prediction problems, is
well-trainable and provides parameter-efficient and robust solutions in stereo,
optical flow and semantic segmentation.
- Abstract(参考訳): 多くの研究者がディープニューラルネットワークとグラフィカルモデルの組み合わせにより、より効率的でより規則化された複合モデルを作ることができると提案している。
実際にこれを実行する上での大きな困難は、適切な学習目標の相違と、推論の近似の必要性に関係している。
この研究では、最も単純な推論手法の1つ、断続的な最大生産信念伝播(max-product belief propagation)を取り上げ、ディープラーニングモデルの適切な構成要素にするために必要なものを追加します。
このbp層は畳み込みニューラルネットワーク(cnns)の最終ブロックまたは中間ブロックとして使用することができ、bp推論とcnnを異なるスケールレベルで構成する階層モデルを設計することができる。
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
関連論文リスト
- Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。