論文の概要: Decoder Decomposition for the Analysis of the Latent Space of Nonlinear Autoencoders With Wind-Tunnel Experimental Data
- arxiv url: http://arxiv.org/abs/2404.19660v1
- Date: Thu, 25 Apr 2024 10:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 13:36:16.128665
- Title: Decoder Decomposition for the Analysis of the Latent Space of Nonlinear Autoencoders With Wind-Tunnel Experimental Data
- Title(参考訳): 風洞実験データを用いた非線形オートエンコーダの潜時空間解析のためのデコーダ分解
- Authors: Yaxin Mo, Tullio Traverso, Luca Magri,
- Abstract要約: 本研究の目的は,オートエンコーダの解釈可能性向上を支援する手法を提案することである。
本稿では,遅延変数をフローのコヒーレントな構造に接続するための後処理法であるデコーダ分解を提案する。
遅延変数のランク付けと選択は、非線形オートエンコーダの設計と解釈に役立つ。
- 参考スコア(独自算出の注目度): 3.7960472831772765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Turbulent flows are chaotic and multi-scale dynamical systems, which have large numbers of degrees of freedom. Turbulent flows, however, can be modelled with a smaller number of degrees of freedom when using the appropriate coordinate system, which is the goal of dimensionality reduction via nonlinear autoencoders. Autoencoders are expressive tools, but they are difficult to interpret. The goal of this paper is to propose a method to aid the interpretability of autoencoders. This is the decoder decomposition. First, we propose the decoder decomposition, which is a post-processing method to connect the latent variables to the coherent structures of flows. Second, we apply the decoder decomposition to analyse the latent space of synthetic data of a two-dimensional unsteady wake past a cylinder. We find that the dimension of latent space has a significant impact on the interpretability of autoencoders. We identify the physical and spurious latent variables. Third, we apply the decoder decomposition to the latent space of wind-tunnel experimental data of a three-dimensional turbulent wake past a bluff body. We show that the reconstruction error is a function of both the latent space dimension and the decoder size, which are correlated. Finally, we apply the decoder decomposition to rank and select latent variables based on the coherent structures that they represent. This is useful to filter unwanted or spurious latent variables, or to pinpoint specific coherent structures of interest. The ability to rank and select latent variables will help users design and interpret nonlinear autoencoders.
- Abstract(参考訳): 乱流はカオス的で多スケールの力学系であり、自由度は多岐にわたる。
しかし、乱流は、非線形オートエンコーダによる次元減少の目標である適切な座標系を用いることで、より少ない自由度でモデル化することができる。
オートエンコーダは表現力のあるツールだが、解釈が難しい。
本研究の目的は,オートエンコーダの解釈可能性向上を支援する手法を提案することである。
これはデコーダ分解です。
まず,遅延変数をフローのコヒーレントな構造に接続するための後処理法であるデコーダ分解を提案する。
第二に、デコーダ分解を適用して、シリンダーを過ぎる2次元の非定常ウェイクの合成データの潜時空間を解析する。
遅延空間の次元は自己エンコーダの解釈可能性に大きな影響を及ぼすことがわかった。
物理的および刺激的な潜伏変数を同定する。
第三に, このデコーダ分解を, ブラフ体を過ぎる3次元乱流の風洞実験データの潜時空間に適用する。
再構成誤差は, 遅延空間次元とデコーダサイズの両方の関数であり, 相関関係を示す。
最後に、デコーダ分解をランク付けに適用し、それらが表すコヒーレントな構造に基づいて潜在変数を選択する。
これは望ましくないあるいは刺激的な潜伏変数をフィルタリングしたり、興味のある特定のコヒーレントな構造をピンポイントしたりするのに有用である。
遅延変数のランク付けと選択は、非線形オートエンコーダの設計と解釈に役立つ。
関連論文リスト
- Rank Reduction Autoencoders -- Enhancing interpolation on nonlinear manifolds [3.180674374101366]
Rank Reduction Autoencoder (RRAE) は、拡張された潜在空間を持つオートエンコーダである。
2つの定式化(強式と弱式)が提示され、潜在空間を正確に表現する還元基底が構築される。
タスクに使用し、結果を他のオートエンコーダと比較することにより、この定式化の効率性を示す。
論文 参考訳(メタデータ) (2024-05-22T20:33:09Z) - Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Differentiable VQ-VAE's for Robust White Matter Streamline Encodings [33.936125620525]
オートエンコーダは、低次元ラテント空間における解析の合理性を簡素化する次元還元ツールとして提案されている。
本稿では,単一のデータポイントとしてストリームラインの全バンドルを取り込み,可変ベクトル量子化変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-11-10T17:59:43Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Think Twice before Driving: Towards Scalable Decoders for End-to-End
Autonomous Driving [74.28510044056706]
既存のメソッドは通常、分離されたエンコーダ-デコーダパラダイムを採用する。
本研究は,この問題を2つの原則で緩和することを目的としている。
まず、エンコーダの特徴に基づいて、粗い将来の位置と行動を予測する。
そして、その位置と動作を条件に、将来のシーンを想像して、それに従って運転した場合にその影響を確認する。
論文 参考訳(メタデータ) (2023-05-10T15:22:02Z) - Benign Autoencoders [0.0]
我々は最適なエンコーダとデコーダのペアを見つける問題を定式化し、その解を「良性オートエンコーダ」(BAE)と呼ぶ。
我々は、BAEが生成問題の最適圧縮性次元である多様体にデータを投影することを証明した。
実例として,分散シフト下での識別器の性能を向上させるために,BAEが最適で低次元の潜在表現を見出す方法を示す。
論文 参考訳(メタデータ) (2022-10-02T21:36:27Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Neural Distributed Source Coding [59.630059301226474]
相関構造に依存せず,高次元までスケール可能な損失DSCのためのフレームワークを提案する。
提案手法は,複数のデータセット上で評価し,複雑な相関関係と最先端PSNRを扱えることを示す。
論文 参考訳(メタデータ) (2021-06-05T04:50:43Z) - Correcting spanning errors with a fractal code [7.6146285961466]
立方体符号のフラクタル特性を模倣した2次元古典符号であるフィボナッチ符号の効率的な復号器を提案する。
我々は,デコーダが一次元相関誤差に対して頑健であることを示す数値実験を行った。
論文 参考訳(メタデータ) (2020-02-26T19:00:06Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。