論文の概要: Wasserstein Auto-Encoders of Merge Trees (and Persistence Diagrams)
- arxiv url: http://arxiv.org/abs/2307.02509v1
- Date: Wed, 5 Jul 2023 09:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 16:30:07.257198
- Title: Wasserstein Auto-Encoders of Merge Trees (and Persistence Diagrams)
- Title(参考訳): マージツリー(および永続化図)のwassersteinオートエンコーダ
- Authors: Mahieu Pont, Julien Tierny
- Abstract要約: 本稿では、マージツリーの自動符号化(MT-WAE)のための計算フレームワークを提案する。
ベクトル化されたデータを扱う従来のオートエンコーダとは対照的に,ネットワークの各層における関連計量空間上のマージ木を明示的に操作する。
マージツリーエンコーディングに関するこれまでの研究から適用した2つのアプリケーションにおける,私たちのコントリビューションの有用性を示す。
- 参考スコア(独自算出の注目度): 7.218667909146977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a computational framework for the Wasserstein
auto-encoding of merge trees (MT-WAE), a novel extension of the classical
auto-encoder neural network architecture to the Wasserstein metric space of
merge trees. In contrast to traditional auto-encoders which operate on
vectorized data, our formulation explicitly manipulates merge trees on their
associated metric space at each layer of the network, resulting in superior
accuracy and interpretability. Our novel neural network approach can be
interpreted as a non-linear generalization of previous linear attempts [65] at
merge tree encoding. It also trivially extends to persistence diagrams.
Extensive experiments on public ensembles demonstrate the efficiency of our
algorithms, with MT-WAE computations in the orders of minutes on average. We
show the utility of our contributions in two applications adapted from previous
work on merge tree encoding [65]. First, we apply MT-WAE to data reduction and
reliably compress merge trees by concisely representing them with their
coordinates in the final layer of our auto-encoder. Second, we document an
application to dimensionality reduction, by exploiting the latent space of our
auto-encoder, for the visual analysis of ensemble data. We illustrate the
versatility of our framework by introducing two penalty terms, to help preserve
in the latent space both the Wasserstein distances between merge trees, as well
as their clusters. In both applications, quantitative experiments assess the
relevance of our framework. Finally, we provide a C++ implementation that can
be used for reproducibility.
- Abstract(参考訳): 本稿では,古典的自動エンコーダニューラルネットワークアーキテクチャの新たな拡張であるmt-wae(wasserstein auto-encoding of merge trees)の計算フレームワークを提案する。
ベクトル化データを操作する従来のオートエンコーダとは対照的に,ネットワークの各層で関連する距離空間上のマージツリーを明示的に操作することにより,精度と解釈性が向上した。
我々の新しいニューラルネットワークアプローチは、マージツリーエンコーディングにおける以前の線形試行[65]の非線形一般化と解釈できる。
永続化ダイアグラムにも簡単に拡張できます。
公開アンサンブルに関する大規模な実験は、MT-WAE計算を平均数分のオーダーで行うことで、我々のアルゴリズムの効率を実証している。
マージツリーエンコーディング [65] に関する以前の研究から適応した2つのアプリケーションにおいて,我々の貢献の有用性を示す。
まず、mt-waeをデータ削減に適用し、自動エンコーダの最終層でそれらの座標を簡潔に表現することでマージツリーを確実に圧縮する。
第2に,自動エンコーダの潜伏空間を利用して,アンサンブルデータの視覚的解析を行うことにより,次元の低減を図示する。
我々は2つのペナルティ項を導入し,マージツリー間のワッサースタイン距離とクラスタ間の潜在空間の保存を支援することにより,フレームワークの汎用性を示す。
どちらのアプリケーションでも、定量的実験は我々のフレームワークの関連性を評価する。
最後に、再現性に使用できるC++の実装を提供します。
関連論文リスト
- Rapid and Precise Topological Comparison with Merge Tree Neural Networks [7.443474354626664]
本稿では,Merge Tree Neural Network (MTNN)について紹介する。
まず,グラフの効率的なエンコーダとして出現したグラフニューラルネットワークをトレーニングして,ベクトル空間にマージツリーを埋め込む方法を示す。
次に、木とノードの埋め込みと新しいトポロジカルアテンション機構を統合することにより、類似性の比較をさらに改善する新しいMTNNモデルを定式化する。
論文 参考訳(メタデータ) (2024-04-08T21:26:04Z) - Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering [48.0650332513417]
可変オートエンコーダ(VAE)の出力にフィルタバンク(FB)の解釈可能なボトルネックを組み込んだ新しいモデルを導入する。
このアレンジメントは、入力信号の最も情報性の高いセグメントに参加するためにVAEを補完する。
VAEをこのFBに故意に拘束することにより、識別可能で分離可能で次元が縮小した符号化の開発を促進する。
論文 参考訳(メタデータ) (2023-10-18T13:06:05Z) - TreeFormer: a Semi-Supervised Transformer-based Framework for Tree
Counting from a Single High Resolution Image [6.789370732159176]
単一空中・衛星画像を用いた木密度推定と推定は,光度測定とリモートセンシングにおいて難しい課題である。
リモートセンシング画像に対する高価なツリーアノテーションを低減させる,ツリーカウントのための最初の半教師付きトランスフォーマーベースのフレームワークを提案する。
我々のモデルは、JiosuとYosemiteという2つのベンチマークツリーカウントデータセットと、彼ら自身が作成した新しいデータセットKCL-Londonで評価された。
論文 参考訳(メタデータ) (2023-07-12T12:19:36Z) - Structure-Unified M-Tree Coding Solver for MathWord Problem [57.825176412485504]
従来,数式表現の2次木構造を考慮に入れたモデルでは,性能が向上した。
本稿では、出力構造を統一するために、任意のM枝(M-tree)を持つ木を適用した構造統一M-Tree符号化(S-UMCr)を提案する。
広く使われているMAWPSとMath23Kデータセットの実験結果は、SUMC-rが複数の最先端モデルを上回るだけでなく、低リソース条件下でもはるかに優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-10-22T12:20:36Z) - PointTree: Transformation-Robust Point Cloud Encoder with Relaxed K-D
Trees [27.641101804012152]
我々は、リラックスしたK-D木に基づく変換に頑健なポイントクラウドエンコーダであるPointTreeを提案する。
我々のアプローチの鍵は、主成分分析(PCA)を用いたK-D木における分割則の設計である。
この新しいアーキテクチャ設計に加えて、事前調整による導入をさらに改善する。
論文 参考訳(メタデータ) (2022-08-11T17:59:09Z) - Principal Geodesic Analysis of Merge Trees (and Persistence Diagrams) [8.430851504111585]
本稿では,共有メモリ並列性を利用した効率的な反復アルゴリズムと,適合エネルギー勾配の解析式を導入する。
我々は,2つの典型的なPCAアプリケーションを統合することで,コントリビューションの有用性を示す。
MT-PGAベースの最初の2方向を利用して2次元レイアウトを生成する次元削減フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T09:17:22Z) - Auto-Parsing Network for Image Captioning and Visual Question Answering [101.77688388554097]
本稿では,入力データの隠れ木構造を発見し,活用するための自動パーシングネットワーク(APN)を提案する。
具体的には、各自己注意層における注意操作によってパラメータ化された確率的グラフモデル(PGM)を課し、スパース仮定を組み込む。
論文 参考訳(メタデータ) (2021-08-24T08:14:35Z) - Recursive Tree Grammar Autoencoders [3.791857415239352]
本稿では,木をボトムアップ文法で符号化し,木を木文法で復号する,新しいオートエンコーダ手法を提案する。
提案手法は, 4つのベンチマークデータセットにおいて, 自動符号化誤差, トレーニング時間, 最適化スコアを改善することを実験的に示す。
論文 参考訳(メタデータ) (2020-12-03T17:37:25Z) - OctSqueeze: Octree-Structured Entropy Model for LiDAR Compression [77.8842824702423]
本稿では,LiDAR点雲のメモリフットプリントを削減するための新しいディープ圧縮アルゴリズムを提案する。
本手法は,メモリフットプリントを低減するために,点間の間隔と構造的冗長性を利用する。
我々のアルゴリズムは、自動運転車などのアプリケーションにおいて、LiDARポイントのオンボードおよびオフボードストレージを減らすために使用できる。
論文 参考訳(メタデータ) (2020-05-14T17:48:49Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。