論文の概要: Bayesian Convolutional Deep Sets with Task-Dependent Stationary Prior
- arxiv url: http://arxiv.org/abs/2210.12363v1
- Date: Sat, 22 Oct 2022 06:26:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:23:57.142421
- Title: Bayesian Convolutional Deep Sets with Task-Dependent Stationary Prior
- Title(参考訳): タスク依存定常前置を持つベイジアン畳み込み深み集合
- Authors: Yohan Jung, Jinkyoo Park
- Abstract要約: 畳み込み深度集合は、定常過程をモデル化できるディープニューラルネットワーク(DNN)のアーキテクチャである。
定常前の確率変換同変関数表現を構成するベイズ的畳み込み深集合を導入する。
提案したアーキテクチャとそのトレーニングを時系列と画像データセットを用いて様々な実験で検証する。
- 参考スコア(独自算出の注目度): 13.845932997326571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional deep sets are the architecture of a deep neural network (DNN)
that can model stationary stochastic process. This architecture uses the kernel
smoother and the DNN to construct the translation equivariant functional
representations, and thus reflects the inductive bias of the stationarity into
DNN. However, since this architecture employs the kernel smoother known as the
non-parametric model, it may produce ambiguous representations when the number
of data points is not given sufficiently. To remedy this issue, we introduce
Bayesian convolutional deep sets that construct the random translation
equivariant functional representations with stationary prior. Furthermore, we
present how to impose the task-dependent prior for each dataset because a
wrongly imposed prior forms an even worse representation than that of the
kernel smoother. We validate the proposed architecture and its training on
various experiments with time-series and image datasets.
- Abstract(参考訳): 畳み込み深度集合は、定常確率過程をモデル化できるディープニューラルネットワーク(DNN)のアーキテクチャである。
このアーキテクチャでは、カーネルのスムーズ化とDNNを用いて変換同変関数表現を構築し、DNNへの定常性の帰納バイアスを反映する。
しかし、このアーキテクチャは非パラメトリックモデルとして知られるカーネルスムースを用いるので、データポイント数が十分に与えられていない場合に曖昧な表現を生成することができる。
この問題を補うために、定常前のランダム変換同変関数表現を構成するベイズ畳み込み深集合を導入する。
さらに,各データセットに対してタスク依存の事前処理を行う方法を示す。これは,不正に課された事前処理がカーネルのスムーズな表現よりもさらに悪い表現となるためである。
提案したアーキテクチャとそのトレーニングを時系列と画像データセットを用いて様々な実験で検証する。
関連論文リスト
- CoRMF: Criticality-Ordered Recurrent Mean Field Ising Solver [4.364088891019632]
我々は、RNNに基づく効率的なIsingモデル解法、Criticality-ordered Recurrent Mean Field (CoRMF)を提案する。
基礎となるIsingグラフの近似木構造を利用することで、新しく得られた臨界度順序は、変動平均場とRNNの統一を可能にする。
CoRFMはデータ/証拠のない自己学習方式でIsing問題を解き、RNNから直接サンプリングすることで推論タスクを実行することができる。
論文 参考訳(メタデータ) (2024-03-05T16:55:06Z) - Efficient Nonparametric Tensor Decomposition for Binary and Count Data [27.02813234958821]
本稿では、二分数テンソルと数テンソルのアンダーラインデコンポジションとして、アンダーライン効率のアンダーラインNonアンダーラインテンソルであるENTEDを提案する。
論文 参考訳(メタデータ) (2024-01-15T14:27:03Z) - Function Space Bayesian Pseudocoreset for Bayesian Neural Networks [16.952160718249292]
ベイズ擬似コアセット(Bayesian pseudocoreset)は、大規模データセットの基本情報を要約したコンパクトな合成データセットである。
本稿では,関数空間上で動作する新しいベイズ擬似コアセット構築法を提案する。
関数空間を直接扱うことで、重み空間で作業する際に生じるいくつかの課題を回避できる。
論文 参考訳(メタデータ) (2023-10-27T02:04:31Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - Entropy Transformer Networks: A Learning Approach via Tangent Bundle
Data Manifold [8.893886200299228]
本稿では,CNNアーキテクチャの設計における画像変換の高精度かつ高速なアプローチについて述べる。
データ多様体分布を補間する新しいエントロピーSTN(ESTN)を提案する。
挑戦的なベンチマークの実験は、提案されたESTNがコンピュータビジョンタスクの範囲で予測精度を向上させることを示している。
論文 参考訳(メタデータ) (2023-07-24T04:21:51Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Temporally-Consistent Surface Reconstruction using Metrically-Consistent
Atlases [131.50372468579067]
そこで本稿では,時間変化点雲列から時間一貫性のある面列を復元する手法を提案する。
我々は、再構成された表面をニューラルネットワークによって計算されたアトラスとして表現し、フレーム間の対応性を確立することができる。
当社のアプローチは、いくつかの挑戦的なデータセットにおいて、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2021-11-12T17:48:25Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。