論文の概要: Probabilistic Autoencoder using Fisher Information
- arxiv url: http://arxiv.org/abs/2110.14947v1
- Date: Thu, 28 Oct 2021 08:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:15:54.789031
- Title: Probabilistic Autoencoder using Fisher Information
- Title(参考訳): 漁業情報を用いた確率的オートエンコーダ
- Authors: Johannes Zacherl (1 and 2), Philipp Frank (1 and 2) and Torsten A.
En{\ss}lin (1 and 2) ((1) Max-Planck Institut f\"ur Astrophysik (2)
Ludwig-Maximilians-Universit\"at M\"unchen)
- Abstract要約: この作業では、Autoencoderアーキテクチャの拡張であるFisherNetが導入されている。
このアーキテクチャでは、潜時空間の不確実性はエンコーダの付加情報チャネルを使用して生成されるのではなく、フィッシャー情報計量を用いてデコーダから導出される。
FisherNetは、同等のVAEよりも正確なデータ再構成を実現しており、学習性能も、潜在空間次元の数に比例して向上していることが実験的に証明できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks play a growing role in many science disciplines, including
physics. Variational Autoencoders (VAEs) are neural networks that are able to
represent the essential information of a high dimensional data set in a low
dimensional latent space, which have a probabilistic interpretation. In
particular the so-called encoder network, the first part of the VAE, which maps
its input onto a position in latent space, additionally provides uncertainty
information in terms of a variance around this position. In this work, an
extension to the Autoencoder architecture is introduced, the FisherNet. In this
architecture, the latent space uncertainty is not generated using an additional
information channel in the encoder, but derived from the decoder, by means of
the Fisher information metric. This architecture has advantages from a
theoretical point of view as it provides a direct uncertainty quantification
derived from the model, and also accounts for uncertainty cross-correlations.
We can show experimentally that the FisherNet produces more accurate data
reconstructions than a comparable VAE and its learning performance also
apparently scales better with the number of latent space dimensions.
- Abstract(参考訳): ニューラルネットワークは物理学を含む多くの科学分野において役割を担っている。
変分オートエンコーダ(VAE)は、確率論的解釈を持つ低次元潜在空間に設定された高次元データセットの本質的な情報を表現することができるニューラルネットワークである。
特に、VAEの最初の部分であるいわゆるエンコーダネットワークは、入力を潜時空間の位置にマッピングし、その位置のばらつきに関して不確実な情報を提供する。
この作業では、Autoencoderアーキテクチャの拡張であるFisherNetが導入されている。
このアーキテクチャでは、潜時空間の不確実性はエンコーダの付加情報チャネルを使用して生成されるのではなく、フィッシャー情報計量を用いてデコーダから導出される。
このアーキテクチャは、モデルから派生した直接的な不確実性定量化を提供するという理論的な観点からの利点があり、また不確実性相互相関も考慮している。
FisherNetは、同等のVAEよりも正確なデータ再構成を実現しており、学習性能も、潜在空間次元の数に比例して向上している。
関連論文リスト
- Positional Encoder Graph Quantile Neural Networks for Geographic Data [4.277516034244117]
我々は,PE-GNN,Quantile Neural Networks,および再校正技術を完全非パラメトリックフレームワークに統合する新しい手法である,位置グラフ量子ニューラルネットワーク(PE-GQNN)を紹介する。
ベンチマークデータセットの実験では、PE-GQNNは予測精度と不確実性の定量化の両方で既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-27T16:02:12Z) - Understanding Encoder-Decoder Structures in Machine Learning Using Information Measures [10.066310107046084]
機械学習(ML)におけるエンコーダデコーダ設計の役割をモデル化し理解するための新しい結果を提案する。
我々は、機械学習における予測構造を表現するために、情報満足度(IS)と相互情報損失(MIL)という2つの主要な情報概念を用いる。
論文 参考訳(メタデータ) (2024-05-30T19:58:01Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - ARFA: An Asymmetric Receptive Field Autoencoder Model for Spatiotemporal
Prediction [55.30913411696375]
本稿では,非対称な受容場オートエンコーダ (ARFA) モデルを提案する。
エンコーダでは,大域的時間的特徴抽出のための大規模なカーネルモジュールを提案し,デコーダでは局所的時間的再構成のための小さなカーネルモジュールを開発する。
降水予測のための大規模レーダエコーデータセットであるRainBenchを構築し,その領域における気象データの不足に対処する。
論文 参考訳(メタデータ) (2023-09-01T07:55:53Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Toward a Geometrical Understanding of Self-supervised Contrastive
Learning [55.83778629498769]
自己教師付き学習(SSL)は、人間のアノテーションがなければ、伝達学習に有効なデータ表現を作成するための最重要技術の一つである。
メインストリームSSL技術は、エンコーダとプロジェクタという2つのカスケードニューラルネットワークを備えた、特定のディープニューラルネットワークアーキテクチャに依存している。
本稿では,データ拡張ポリシーの強みがデータ埋め込みに与える影響について検討する。
論文 参考訳(メタデータ) (2022-05-13T23:24:48Z) - Neural RF SLAM for unsupervised positioning and mapping with channel
state information [51.484516640867525]
アイソメトリによるユーザ位置と環境マッピングを共同で学習するニューラルネットワークアーキテクチャを提案する。
提案モデルでは,物理ベースのデコーダを適用すれば,解釈可能な潜在能力,すなわちユーザ位置を学習できる。
論文 参考訳(メタデータ) (2022-03-15T21:32:44Z) - Fractal Pyramid Networks [3.7384509727711923]
画素ワイズ予測タスクのための新しいネットワークアーキテクチャであるフラクタルピラミッドネットワーク(PFN)を提案する。
PFNは複数の情報処理経路を保持し、情報を複数の小さなチャネルにエンコードする。
我々のモデルは、パラメータをはるかに少なくして、KITTIデータセットの最先端のメソッドを競合または上回ることができます。
論文 参考訳(メタデータ) (2021-06-28T13:15:30Z) - Neural Distributed Source Coding [59.630059301226474]
相関構造に依存せず,高次元までスケール可能な損失DSCのためのフレームワークを提案する。
提案手法は,複数のデータセット上で評価し,複雑な相関関係と最先端PSNRを扱えることを示す。
論文 参考訳(メタデータ) (2021-06-05T04:50:43Z) - Geometry-Aware Hamiltonian Variational Auto-Encoder [0.0]
変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
このような潜在空間モデリングは、より意味のある、よりリアルなデータ生成、より信頼性の高いクラスタリングに繋がる基盤構造に関する有用な情報を提供する、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-22T08:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。