論文の概要: Differential Informed Auto-Encoder
- arxiv url: http://arxiv.org/abs/2410.18593v1
- Date: Thu, 24 Oct 2024 09:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:16.521742
- Title: Differential Informed Auto-Encoder
- Title(参考訳): 微分インフォームドオートエンコーダ
- Authors: Jinrui Zhang,
- Abstract要約: エンコーダは、微分方程式を得ることにより、元のデータの内部構造を得るように訓練された。
デコーダは、元のデータ領域を再サンプリングし、元のデータの差分構造に従う新しいデータを生成するように訓練された。
- 参考スコア(独自算出の注目度): 0.8007446738011307
- License:
- Abstract: In this article, an encoder was trained to obtain the inner structure of the original data by obtain a differential equations. A decoder was trained to resample the original data domain, to generate new data that obey the differential structure of the original data using the physics-informed neural network.
- Abstract(参考訳): 本稿では,微分方程式を用いてエンコーダを訓練し,元のデータの内部構造を求める。
デコーダは、物理インフォームドニューラルネットワークを使用して、元のデータ領域を再サンプリングし、元のデータの差分構造に従う新しいデータを生成するように訓練された。
関連論文リスト
- $ε$-VAE: Denoising as Visual Decoding [61.29255979767292]
生成モデリングにおいて、トークン化は複雑なデータをコンパクトで構造化された表現に単純化し、より効率的で学習可能な空間を作り出す。
現在の視覚的トークン化手法は従来のオートエンコーダフレームワークに依存しており、エンコーダはデータを潜在表現に圧縮し、デコーダは元の入力を再構築する。
具体的には,デコーダを拡散処理に置き換え,ノイズを反復的に除去して元のイメージを復元し,エンコーダが提供する潜伏者によって誘導される。
再建(rFID)と生成品質(ジェネレーション品質)の両面からアプローチを評価する。
論文 参考訳(メタデータ) (2024-10-05T08:27:53Z) - Generative Autoencoding of Dropout Patterns [11.965844936801801]
本稿では,デ暗号オートエンコーダと呼ばれる生成モデルを提案する。
トレーニングデータセットの各データポイントに、ユニークなランダムなドロップアウトパターンを割り当てます。
次に、オートエンコーダをトレーニングして、このパターンを符号化する情報として、対応するデータポイントを再構築する。
論文 参考訳(メタデータ) (2023-10-03T00:54:13Z) - Encoder-Decoder Networks for Self-Supervised Pretraining and Downstream
Signal Bandwidth Regression on Digital Antenna Arrays [0.0]
本研究は,デジタルアンテナアレイのデータに適用された自己教師あり学習の最初の応用について述べる。
ネットワークはデジタルアレイデータに基づいて事前訓練され、チャネルインペイントと呼ばれる自己教師付きノイズ再構成タスクを実行する。
論文 参考訳(メタデータ) (2023-07-06T22:59:52Z) - Autocodificadores Variacionales (VAE) Fundamentos Te\'oricos y
Aplicaciones [0.40611352512781856]
VAEはニューラルネットワークに基づく確率的グラフィカルモデルである。
この論文はスペイン語で書かれており、スペイン語圏のコミュニティにこの科学的知識が浸透するのを手助けしている。
論文 参考訳(メタデータ) (2023-02-18T15:29:55Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Out-of-distribution Detection and Generation using Soft Brownian Offset
Sampling and Autoencoders [1.313418334200599]
ディープニューラルネットワークは、分散検出の改善によって部分的に修復される過信に苦しむことが多い。
本稿では,所定の分布内データセットに基づいて分散外データセットを生成できる新しい手法を提案する。
この新しいデータセットは、与えられたデータセットと機械学習タスクの配信外検出を改善するために使用できる。
論文 参考訳(メタデータ) (2021-05-04T06:59:24Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - On the Sub-Layer Functionalities of Transformer Decoder [74.83087937309266]
トランスフォーマーをベースとしたデコーダは,ソースおよびターゲット言語からの情報をいかに活用するかを検討する。
これらの知見に基づき,各トランスフォーマーデコーダ層内の残フィードフォワードモジュールは,性能の低下を最小限に抑えられることを示した。
論文 参考訳(メタデータ) (2020-10-06T11:50:54Z) - Encoded Prior Sliced Wasserstein AutoEncoder for learning latent
manifold representations [0.7614628596146599]
本稿では,Encoded Prior Sliced Wasserstein AutoEncoderを紹介する。
追加のプリエンコーダネットワークは、データ多様体の埋め込みを学習する。
従来のオートエンコーダとは違って,前者はデータの基盤となる幾何を符号化する。
論文 参考訳(メタデータ) (2020-10-02T14:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。