論文の概要: Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering
- arxiv url: http://arxiv.org/abs/2310.11940v1
- Date: Wed, 18 Oct 2023 13:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:36:12.560807
- Title: Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering
- Title(参考訳): 時系列クラスタリングのための解釈可能なスペクトル変動オートエンコーダ(ISVAE)
- Authors: \'Oscar Jim\'enez Rama, Fernando Moreno-Pino, David Ram\'irez, Pablo
M. Olmos
- Abstract要約: 可変オートエンコーダ(VAE)の出力にフィルタバンク(FB)の解釈可能なボトルネックを組み込んだ新しいモデルを導入する。
このアレンジメントは、入力信号の最も情報性の高いセグメントに参加するためにVAEを補完する。
VAEをこのFBに故意に拘束することにより、識別可能で分離可能で次元が縮小した符号化の開発を促進する。
- 参考スコア(独自算出の注目度): 48.0650332513417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The best encoding is the one that is interpretable in nature. In this work,
we introduce a novel model that incorporates an interpretable bottleneck-termed
the Filter Bank (FB)-at the outset of a Variational Autoencoder (VAE). This
arrangement compels the VAE to attend on the most informative segments of the
input signal, fostering the learning of a novel encoding ${f_0}$ which boasts
enhanced interpretability and clusterability over traditional latent spaces. By
deliberately constraining the VAE with this FB, we intentionally constrict its
capacity to access broad input domain information, promoting the development of
an encoding that is discernible, separable, and of reduced dimensionality. The
evolutionary learning trajectory of ${f_0}$ further manifests as a dynamic
hierarchical tree, offering profound insights into cluster similarities.
Additionally, for handling intricate data configurations, we propose a tailored
decoder structure that is symmetrically aligned with FB's architecture.
Empirical evaluations highlight the superior efficacy of ISVAE, which compares
favorably to state-of-the-art results in clustering metrics across real-world
datasets.
- Abstract(参考訳): 最も優れたエンコーディングは、自然界で解釈できるものである。
本稿では,可変オートエンコーダ(vae)の開始時に,解釈可能なボトルネック項であるフィルタバンク(fb)を組み込んだ新しいモデルを提案する。
このアレンジメントにより、vaeは入力信号の最も有益なセグメントに出席せざるを得なくなり、従来の潜在空間上での解釈性とクラスタ性の向上を誇示する${f_0}$という新しいコーディングの学習が促進される。
このFBでVAEを意図的に拘束することにより、広い入力ドメイン情報へのアクセス能力を意図的に制限し、識別可能で分離可能で、次元が小さくなるエンコードの開発を促進する。
{f_0}$の進化的学習軌道は、よりダイナミックな階層木として現れ、クラスタ類似性に関する深い洞察を提供する。
さらに,複雑なデータ構成を扱うために,fbのアーキテクチャと対称に整合したデコーダ構造を提案する。
ISVAEは、実世界のデータセットにまたがるクラスタリングのメトリクスにおいて、最先端の結果と好意的に比較できる。
関連論文リスト
- Gaussian Mixture Vector Quantization with Aggregated Categorical Posterior [5.862123282894087]
ベクトル量子化変分オートエンコーダ(VQ-VAE)を導入する。
VQ-VAEは、離散埋め込みを潜時として使用する変分オートエンコーダの一種である。
GM-VQは,手工芸品に頼らずに,コードブックの利用率を向上し,情報損失を低減する。
論文 参考訳(メタデータ) (2024-10-14T05:58:11Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Information-Ordered Bottlenecks for Adaptive Semantic Compression [0.0]
確率で順序付けられた変数に適応的にデータを圧縮するニューラルネットワーク層を提案する。
IOBは与えられたアーキテクチャに対してほぼ最適に圧縮でき、意味論的に意味のある方法で符号化信号を割り当てることができることを示す。
IOBを用いて世界次元を推定するための新しい理論を導入し、複雑な合成データのSOTA次元推定を復元することを示す。
論文 参考訳(メタデータ) (2023-05-18T18:00:00Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Exploring and Exploiting Multi-Granularity Representations for Machine
Reading Comprehension [13.191437539419681]
適応的双方向注意カプセルネットワーク(ABA-Net)という新しい手法を提案する。
ABA-Netは、異なるレベルのソース表現を予測子に適応的に活用する。
私たちはSQuAD 1.0データセットに新しい最先端パフォーマンスを設定しました。
論文 参考訳(メタデータ) (2022-08-18T10:14:32Z) - Deep clustering with fusion autoencoder [0.0]
ディープクラスタリング(DC)モデルは、オートエンコーダを利用して、結果としてクラスタリングプロセスを促進する固有の特徴を学ぶ。
本稿では、この問題に対処するための新しいDC法を提案し、特に、生成逆数ネットワークとVAEを融合オートエンコーダ(FAE)と呼ばれる新しいオートエンコーダに結合する。
論文 参考訳(メタデータ) (2022-01-11T07:38:03Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。