論文の概要: Autocodificadores Variacionales (VAE) Fundamentos Te\'oricos y
Aplicaciones
- arxiv url: http://arxiv.org/abs/2302.09363v1
- Date: Sat, 18 Feb 2023 15:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:06:00.564240
- Title: Autocodificadores Variacionales (VAE) Fundamentos Te\'oricos y
Aplicaciones
- Title(参考訳): Autocodificadores Variacionales (VAE) Fundamentos Te\'oricos y Aplicaciones
- Authors: Jordi de la Torre
- Abstract要約: VAEはニューラルネットワークに基づく確率的グラフィカルモデルである。
この論文はスペイン語で書かれており、スペイン語圏のコミュニティにこの科学的知識が浸透するのを手助けしている。
- 参考スコア(独自算出の注目度): 0.40611352512781856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: VAEs are probabilistic graphical models based on neural networks that allow
the coding of input data in a latent space formed by simpler probability
distributions and the reconstruction, based on such latent variables, of the
source data. After training, the reconstruction network, called decoder, is
capable of generating new elements belonging to a close distribution, ideally
equal to the original one. This article has been written in Spanish to
facilitate the arrival of this scientific knowledge to the Spanish-speaking
community.
- Abstract(参考訳): vaesはニューラルネットワークに基づく確率論的グラフィカルモデルであり、より単純な確率分布によって形成された潜在空間における入力データの符号化と、そのような潜在変数に基づく再構成を可能にする。
トレーニング後、デコーダと呼ばれる再構成ネットワークは、理想的には元のものと等しい密分布に属する新しい要素を生成することができる。
この記事はスペイン語で書かれており、この科学的知識がスペイン語圏のコミュニティにもたらされるようにしている。
関連論文リスト
- Semantics Alignment via Split Learning for Resilient Multi-User Semantic
Communication [56.54422521327698]
最近の意味コミュニケーションの研究は、ディープジョイントソースやチャネルコーディング(DeepJSCC)のようなニューラルネットワーク(NN)ベースのトランシーバに依存している。
従来のトランシーバとは異なり、これらのニューラルトランシーバは実際のソースデータとチャネルを使用してトレーニング可能であり、セマンティクスを抽出し通信することができる。
本稿では,分割学習(SL)と部分的NN微調整技術を活用する分散学習ベースソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-13T20:29:55Z) - Bayesian Flow Networks [4.585102332532472]
本稿では,ベイジアン・フロー・ネットワーク(BFN)について述べる。ベイジアン・フロー・ネットワーク(BFN)は,独立分布の集合のパラメータをベイジアン推論で修正した新しい生成モデルである。
単純な事前および反復的な2つの分布の更新から始めると、拡散モデルの逆過程に似た生成手順が得られる。
BFNは動的にバイナライズされたMNISTとCIFAR-10で画像モデリングを行うために競合するログライクフレーションを実現し、text8文字レベルの言語モデリングタスクにおいて既知のすべての離散拡散モデルより優れている。
論文 参考訳(メタデータ) (2023-08-14T09:56:35Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Redes Generativas Adversarias (GAN) Fundamentos Te\'oricos y
Aplicaciones [0.40611352512781856]
GAN(Generative Adversarial Network)は、ジェネレータとジェネレータと呼ばれる2つのニューラルネットワークのトレーニングに基づく手法である。
GANはコンピュータビジョン、セマンティックセグメンテーション、時系列合成、画像編集、自然言語処理、テキストからの画像生成など幅広い分野で応用されている。
論文 参考訳(メタデータ) (2023-02-18T14:39:51Z) - Summarize and Generate to Back-translate: Unsupervised Translation of
Programming Languages [86.08359401867577]
バックトランスレーションは、並列データがほとんど、あるいは全く利用できない場合のニューラルマシン翻訳の有効性で広く知られている。
コード要約と生成による逆翻訳を提案する。
提案手法は最先端の手法と競合することを示す。
論文 参考訳(メタデータ) (2022-05-23T08:20:41Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Feature Alignment for Approximated Reversibility in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける近似可逆性を得る手法である特徴アライメントを導入する。
ニューラルネットワークをローカルにトレーニングし、計算メモリリソースを節約するために、このテクニックを修正できることが示される。
論文 参考訳(メタデータ) (2021-06-23T17:42:47Z) - Out-of-distribution Detection and Generation using Soft Brownian Offset
Sampling and Autoencoders [1.313418334200599]
ディープニューラルネットワークは、分散検出の改善によって部分的に修復される過信に苦しむことが多い。
本稿では,所定の分布内データセットに基づいて分散外データセットを生成できる新しい手法を提案する。
この新しいデータセットは、与えられたデータセットと機械学習タスクの配信外検出を改善するために使用できる。
論文 参考訳(メタデータ) (2021-05-04T06:59:24Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - CiwGAN and fiwGAN: Encoding information in acoustic data to model
lexical learning with Generative Adversarial Networks [0.0]
語彙学習は、ディープニューラルネットワークにデータを出力させるアーキテクチャの創発体としてモデル化される。
TIMITの辞書項目で訓練されたネットワークは、辞書項目に対応するユニークな情報を、その潜在空間におけるカテゴリ変数の形で符号化することを学ぶ。
ネットワークで学習した音声と音韻の表現は、生産的に組み換えられ、人間の発話の生産性と直接的に平行にできることを示す。
論文 参考訳(メタデータ) (2020-06-04T15:33:55Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。