論文の概要: Training Invertible Neural Networks as Autoencoders
- arxiv url: http://arxiv.org/abs/2303.11239v1
- Date: Mon, 20 Mar 2023 16:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 14:42:26.253132
- Title: Training Invertible Neural Networks as Autoencoders
- Title(参考訳): 自動エンコーダとしてのインバータブルニューラルネットワークのトレーニング
- Authors: The-Gia Leo Nguyen, Lynton Ardizzone, Ullrich Koethe
- Abstract要約: Invertible Neural Networks (INNs) を INN (variational) autoencoders と呼ぶ (variational) autoencoders として訓練する方法を提案する。
MNIST, CIFAR, CelebAを用いた実験により, 低ボトルネックサイズでは, INNオートエンコーダは古典的オートエンコーダと同様の結果が得られた。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autoencoders are able to learn useful data representations in an unsupervised
matter and have been widely used in various machine learning and computer
vision tasks. In this work, we present methods to train Invertible Neural
Networks (INNs) as (variational) autoencoders which we call INN (variational)
autoencoders. Our experiments on MNIST, CIFAR and CelebA show that for low
bottleneck sizes our INN autoencoder achieves results similar to the classical
autoencoder. However, for large bottleneck sizes our INN autoencoder
outperforms its classical counterpart. Based on the empirical results, we
hypothesize that INN autoencoders might not have any intrinsic information loss
and thereby are not bounded to a maximal number of layers (depth) after which
only suboptimal results can be achieved.
- Abstract(参考訳): オートエンコーダは教師なしの分野で有用なデータ表現を学習することができ、様々な機械学習やコンピュータビジョンタスクで広く利用されている。
本研究では, Invertible Neural Networks (INNs) を INN (variational) オートエンコーダと呼ぶ (variational) オートエンコーダとして訓練する方法を提案する。
MNIST, CIFAR, CelebAを用いた実験により, 低ボトルネックサイズでは, INNオートエンコーダが従来のオートエンコーダと同様の結果が得られることが示された。
しかし、大きなボトルネックサイズでは、INNオートエンコーダは古典的よりも優れています。
実験結果に基づいて, INNオートエンコーダは固有の情報損失を伴わず, 最大層数(深さ)に制限されず, 最適な結果しか得られないという仮説を立てた。
関連論文リスト
- On the Design and Performance of Machine Learning Based Error Correcting Decoders [3.8289109929360245]
まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
論文 参考訳(メタデータ) (2024-10-21T11:23:23Z) - Optimizing Serially Concatenated Neural Codes with Classical Decoders [8.692972779213932]
従来の復号アルゴリズムが非自明な実数値ニューラルコードに適用されていることを示す。
BCJRアルゴリズムは完全に微分可能であるので、エンドツーエンドでニューラルエンコーダのトレーニングや微調整が可能である。
論文 参考訳(メタデータ) (2022-12-20T15:40:08Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - A Variational Auto-Encoder Approach for Image Transmission in Wireless
Channel [4.82810058837951]
本稿では,変分オートエンコーダの性能について検討し,その結果を標準オートエンコーダと比較する。
実験により,SSIMは受信機における再構成画像の品質を視覚的に向上することを示した。
論文 参考訳(メタデータ) (2020-10-08T13:35:38Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。