論文の概要: Adversarial Autoencoders in Operator Learning
- arxiv url: http://arxiv.org/abs/2412.07811v1
- Date: Tue, 10 Dec 2024 03:54:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:45.954956
- Title: Adversarial Autoencoders in Operator Learning
- Title(参考訳): 演算子学習における対向オートエンコーダ
- Authors: Dustin Enyeart, Guang Lin,
- Abstract要約: 代表的な2つのニューラルネットワークアーキテクチャは、DeepONetsとKoopman Autoencodersである。
オートエンコーダの対向的な追加により、機械学習の様々な領域におけるオートエンコーダの性能が向上した。
- 参考スコア(独自算出の注目度): 6.03891813540831
- License:
- Abstract: DeepONets and Koopman autoencoders are two prevalent neural operator architectures. These architectures are autoencoders. An adversarial addition to an autoencoder have improved performance of autoencoders in various areas of machine learning. In this paper, the use an adversarial addition for these two neural operator architectures is studied.
- Abstract(参考訳): DeepONetsとKoopmanのオートエンコーダは2つの一般的なニューラルネットワークアーキテクチャである。
これらのアーキテクチャはオートエンコーダである。
オートエンコーダの対向的な追加により、機械学習の様々な領域におけるオートエンコーダの性能が向上した。
本稿では, これら2つのニューラル演算子アーキテクチャに対する逆加算法について検討する。
関連論文リスト
- Loss Terms and Operator Forms of Koopman Autoencoders [6.03891813540831]
クープマンオートエンコーダは演算子学習において一般的なアーキテクチャである。
損失関数と演算子の形式は文献によって大きく異なる。
本稿では,これらの選択肢について,公正かつ体系的な研究を行う。
論文 参考訳(メタデータ) (2024-12-05T19:48:13Z) - Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - ED2LM: Encoder-Decoder to Language Model for Faster Document Re-ranking
Inference [70.36083572306839]
本稿では,再ランク付けのための新しいトレーニングおよび推論パラダイムを提案する。
文書形式を用いて事前訓練したエンコーダ・デコーダモデルを精査し,クエリ生成を行う。
このエンコーダ-デコーダアーキテクチャは,推論中にデコーダのみの言語モデルに分解可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T06:26:29Z) - Pre-Training Transformer Decoder for End-to-End ASR Model with Unpaired
Speech Data [145.95460945321253]
本稿では,音響単位,すなわち擬似符号を用いたエンコーダ・デコーダネットワークのための2つの事前学習タスクを提案する。
提案したSpeech2Cは,デコーダを事前学習することなく,単語誤り率(WER)を19.2%削減できる。
論文 参考訳(メタデータ) (2022-03-31T15:33:56Z) - How to boost autoencoders? [13.166222736288432]
本稿では,オートエンコーダの高速化に関わる課題について論じ,それを克服するためのフレームワークを提案する。
高速化されたアンサンブルの有用性は、オートエンコーダを広く採用している2つのアプリケーション(異常検出とクラスタリング)で実証されている。
論文 参考訳(メタデータ) (2021-10-28T17:21:25Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Revisiting Role of Autoencoders in Adversarial Settings [32.22707594954084]
本稿では,自己エンコーダの対向ロバスト性の性質について述べる。
我々は,自己エンコーダの対角強靭性の発見は,今後の敵防衛研究や応用の手がかりとなると信じている。
論文 参考訳(メタデータ) (2020-05-21T16:01:23Z) - Autoencoders [43.991924654575975]
オートエンコーダ(autoencoder)は、主に入力を圧縮された意味のある表現にエンコードし、再構成された入力が元の入力と可能な限り類似するように復号するように設計されたニューラルネットワークの特定のタイプである。
この章は、主に現在使われている様々な種類のオートエンコーダについて調査する。
論文 参考訳(メタデータ) (2020-03-12T19:38:47Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。