論文の概要: Differentiable VQ-VAE's for Robust White Matter Streamline Encodings
- arxiv url: http://arxiv.org/abs/2311.06212v1
- Date: Fri, 10 Nov 2023 17:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:30:21.693388
- Title: Differentiable VQ-VAE's for Robust White Matter Streamline Encodings
- Title(参考訳): ロバスト白色物質ストリームライン符号化のための微分可能VQ-VAE
- Authors: Andrew Lizarraga, Brandon Taraku, Edouardo Honig, Ying Nian Wu,
Shantanu H. Joshi
- Abstract要約: オートエンコーダは、低次元ラテント空間における解析の合理性を簡素化する次元還元ツールとして提案されている。
本稿では,単一のデータポイントとしてストリームラインの全バンドルを取り込み,可変ベクトル量子化変分自動エンコーダを提案する。
- 参考スコア(独自算出の注目度): 33.936125620525
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Given the complex geometry of white matter streamlines, Autoencoders have
been proposed as a dimension-reduction tool to simplify the analysis
streamlines in a low-dimensional latent spaces. However, despite these recent
successes, the majority of encoder architectures only perform dimension
reduction on single streamlines as opposed to a full bundle of streamlines.
This is a severe limitation of the encoder architecture that completely
disregards the global geometric structure of streamlines at the expense of
individual fibers. Moreover, the latent space may not be well structured which
leads to doubt into their interpretability. In this paper we propose a novel
Differentiable Vector Quantized Variational Autoencoder, which are engineered
to ingest entire bundles of streamlines as single data-point and provides
reliable trustworthy encodings that can then be later used to analyze
streamlines in the latent space. Comparisons with several state of the art
Autoencoders demonstrate superior performance in both encoding and synthesis.
- Abstract(参考訳): 白色物質流線型の複雑な幾何学を考えると、オートエンコーダは低次元潜在空間における解析流線型を単純化する次元還元ツールとして提案されている。
しかし、近年の成功にもかかわらず、エンコーダアーキテクチャの大部分は、ストリームラインの完全なバンドルとは対照的に、単一のストリームラインの次元削減のみを実行する。
これはエンコーダアーキテクチャの厳しい制限であり、個々のファイバーを犠牲にして、ストリームラインの全体幾何構造を完全に無視する。
さらに、潜在空間は十分に構造化されておらず、解釈可能性に疑問が生じる。
本稿では,単一のデータポイントとしてストリームラインの全バンドルを取り込み,信頼性の高いエンコーディングを提供し,後に遅延空間におけるストリームラインの分析に使用できる新しい微分ベクトル量子変分オートコーダを提案する。
オートエンコーダは符号化と合成の両方において優れた性能を示す。
関連論文リスト
- PMR-Net: Parallel Multi-Resolution Encoder-Decoder Network Framework for Medical Image Segmentation [5.554987043653931]
並列マルチ解像度エンコーダデコーダネットワーク,すなわちPMR-Netを提案する。
提案したPMR-Netは,5つの公開データセットの最先端手法よりも,より正確なセグメンテーション結果が得られる。
論文 参考訳(メタデータ) (2024-09-19T11:45:08Z) - Decoder Decomposition for the Analysis of the Latent Space of Nonlinear Autoencoders With Wind-Tunnel Experimental Data [3.7960472831772765]
本研究の目的は,オートエンコーダの解釈可能性向上を支援する手法を提案することである。
本稿では,遅延変数をフローのコヒーレントな構造に接続するための後処理法であるデコーダ分解を提案する。
遅延変数のランク付けと選択は、非線形オートエンコーダの設計と解釈に役立つ。
論文 参考訳(メタデータ) (2024-04-25T10:09:37Z) - Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering [48.0650332513417]
可変オートエンコーダ(VAE)の出力にフィルタバンク(FB)の解釈可能なボトルネックを組み込んだ新しいモデルを導入する。
このアレンジメントは、入力信号の最も情報性の高いセグメントに参加するためにVAEを補完する。
VAEをこのFBに故意に拘束することにより、識別可能で分離可能で次元が縮小した符号化の開発を促進する。
論文 参考訳(メタデータ) (2023-10-18T13:06:05Z) - Decoder-Only or Encoder-Decoder? Interpreting Language Model as a
Regularized Encoder-Decoder [75.03283861464365]
seq2seqタスクは、与えられた入力ソースシーケンスに基づいてターゲットシーケンスを生成することを目的としている。
伝統的に、seq2seqタスクのほとんどはエンコーダによって解決され、ソースシーケンスとデコーダをエンコードしてターゲットテキストを生成する。
最近、デコーダのみの言語モデルをseq2seqタスクに直接適用する、多くの新しいアプローチが出現しました。
論文 参考訳(メタデータ) (2023-04-08T15:44:29Z) - On the Suitability of Representations for Quality Diversity Optimization
of Shapes [77.34726150561087]
進化的アルゴリズムで使用される表現、あるいは符号化は、その性能に大きな影響を及ぼす。
本研究では, 直接符号化, 辞書ベース表現, パラメトリック符号化, 合成パターン生成ネットワーク, セルオートマトンなどの表現が, 酸化メッシュの生成に与える影響について比較した。
論文 参考訳(メタデータ) (2023-04-07T07:34:23Z) - Rethinking Text Line Recognition Models [57.47147190119394]
2つのデコーダファミリー(コネクショニスト時間分類と変換器)と3つのエンコーダモジュール(双方向LSTM、自己認識、GRCL)を考える。
広く使用されているシーンと手書きテキストの公開データセットの精度とパフォーマンスを比較します。
より一般的なTransformerベースのモデルとは異なり、このアーキテクチャは任意の長さの入力を処理できる。
論文 参考訳(メタデータ) (2021-04-15T21:43:13Z) - Non-linear, Sparse Dimensionality Reduction via Path Lasso Penalized
Autoencoders [0.0]
我々は,複雑なデータ構造に対するパスラッソペナルテッドオートエンコーダを提案する。
アルゴリズムは,群ラスソペナルティと非負行列分解を用いて,スパースで非線形な潜在表現を構築する。
このアルゴリズムは,低次元表現のためのスパースPCAやパラメータワイドラッソ正規化オートエンコーダよりもはるかに低い再構成誤差を示す。
論文 参考訳(メタデータ) (2021-02-22T10:14:46Z) - Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective
with Transformers [149.78470371525754]
セマンティックセグメンテーションをシーケンスからシーケンスへの予測タスクとして扱う。
具体的には、イメージをパッチのシーケンスとしてエンコードするために純粋なトランスをデプロイします。
トランスのすべての層でモデル化されたグローバルコンテキストにより、このエンコーダは、SETR(SEgmentation TRansformer)と呼ばれる強力なセグメンテーションモデルを提供するための単純なデコーダと組み合わせることができる。
SETRはADE20K(50.28% mIoU)、Pascal Context(55.83% mIoU)、およびCityscapesの競争力のある結果に関する最新技術を達成している。
論文 参考訳(メタデータ) (2020-12-31T18:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。