論文の概要: A Domain-Oblivious Approach for Learning Concise Representations of
Filtered Topological Spaces
- arxiv url: http://arxiv.org/abs/2105.12208v1
- Date: Tue, 25 May 2021 20:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:11:03.001660
- Title: A Domain-Oblivious Approach for Learning Concise Representations of
Filtered Topological Spaces
- Title(参考訳): フィルタトポロジカル空間の簡潔な表現を学習するためのドメイン・オブブリバストなアプローチ
- Authors: Yu Qin, Brittany Terese Fasy, Carola Wenk, and Brian Summa
- Abstract要約: 本稿では永続化図のバイナリコード表現を学習する永続化図ハッシュフレームワークを提案する。
このフレームワークは、学習過程を制御するための図距離損失関数を備えた生成逆ネットワーク(GAN)上に構築されている。
提案手法は,モデルの再学習を必要とせずに,様々なデータセットに直接適用することができる。
- 参考スコア(独自算出の注目度): 7.717214217542406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Persistence diagrams have been widely used to quantify the underlying
features of filtered topological spaces in data visualization. In many
applications, computing distances between diagrams is essential; however,
computing these distances has been challenging due to the computational cost.
In this paper, we propose a persistence diagram hashing framework that learns a
binary code representation of persistence diagrams, which allows for fast
computation of distances. This framework is built upon a generative adversarial
network (GAN) with a diagram distance loss function to steer the learning
process. Instead of attempting to transform diagrams into vectorized
representations, we hash diagrams into binary codes, which have natural
advantages in large-scale tasks. The training of this model is domain-oblivious
in that it can be computed purely from synthetic, randomly created diagrams. As
a consequence, our proposed method is directly applicable to various datasets
without the need of retraining the model. These binary codes, when compared
using fast Hamming distance, better maintain topological similarity properties
between datasets than other vectorized representations. To evaluate this
method, we apply our framework to the problem of diagram clustering and we
compare the quality and performance of our approach to the state-of-the-art. In
addition, we show the scalability of our approach on a dataset with 10k
persistence diagrams, which is not possible with current techniques. Moreover,
our experimental results demonstrate that our method is significantly faster
with less memory usage, while retaining comparable or better quality
comparisons.
- Abstract(参考訳): 永続図は、データ視覚化におけるフィルタトポロジカル空間の基本的特徴の定量化に広く用いられている。
多くの応用において、図間の計算距離は必須であるが、計算コストのためにこれらの計算距離は困難である。
本稿では,永続化図のバイナリコード表現を学習し,距離の高速な計算を可能にする永続化図ハッシュフレームワークを提案する。
このフレームワークは、学習過程を制御するための図距離損失関数を備えた生成逆ネットワーク(GAN)上に構築されている。
図をベクトル化された表現に変換する代わりに、図をバイナリコードにハッシュします。
このモデルのトレーニングは、合成された無作為な図から純粋に計算できるというドメイン公約である。
その結果,提案手法はモデルの再トレーニングを必要とせず,様々なデータセットに直接適用できる。
これらのバイナリコードは、高速ハミング距離を用いて比較した場合、他のベクトル化表現よりもデータセット間の位相的類似性を維持する。
この手法を評価するために,このフレームワークをダイアグラムクラスタリングの問題に適用し,手法の品質と性能を最先端と比較した。
さらに、10kパーシステンスダイアグラムを持つデータセットにおける我々のアプローチのスケーラビリティを示すが、現在のテクニックでは不可能である。
さらに,実験結果から,本手法はメモリ使用量が少ないほど大幅に高速化され,比較性能も向上した。
関連論文リスト
- Topograph: An efficient Graph-Based Framework for Strictly Topology Preserving Image Segmentation [78.54656076915565]
位相的正しさは多くの画像分割タスクにおいて重要な役割を果たす。
ほとんどのネットワークは、Diceのようなピクセル単位の損失関数を使って、トポロジカルな精度を無視して訓練されている。
トポロジ的に正確な画像セグメンテーションのための新しいグラフベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:20:14Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Discrete transforms of quantized persistence diagrams [0.5249805590164902]
永続化ダイアグラムをベクトル化する新奇でシンプルな方法Qupidを紹介する。
主要な特徴は、永続化ダイアグラムの対角線付近に含まれる情報を強調するログスケールグリッドの選択である。
我々はQupidの詳細な実験分析を行い、本手法の単純さは計算コストを極端に低くすることを示した。
論文 参考訳(メタデータ) (2023-12-28T16:11:11Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - A simple way to learn metrics between attributed graphs [11.207372645301094]
トレーニング可能なパラメータがほとんどないSGMLモデルを提案する。
このモデルにより、ラベル付き(分散)グラフのデータベースから適切な距離を構築することができ、単純な分類アルゴリズムの性能を向上させることができる。
論文 参考訳(メタデータ) (2022-09-26T14:32:38Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - Template based Graph Neural Network with Optimal Transport Distances [11.56532171513328]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
論文 参考訳(メタデータ) (2022-05-31T12:24:01Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Time-varying Graph Representation Learning via Higher-Order Skip-Gram
with Negative Sampling [0.456877715768796]
我々は,スキップグラム埋め込み手法が行列分解を暗黙的に行うという事実に基づいて構築する。
負のサンプリングを持つ高次スキップグラムは、ノードと時間の役割を乱すことができることを示す。
提案手法を時間分解型対面近接データを用いて実証的に評価し,学習した時間変化グラフ表現が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T12:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。