論文の概要: Topologically Regularized Data Embeddings
- arxiv url: http://arxiv.org/abs/2301.03338v2
- Date: Tue, 7 Nov 2023 17:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 22:56:46.958590
- Title: Topologically Regularized Data Embeddings
- Title(参考訳): 位相正規化データ埋め込み
- Authors: Edith Heiter, Robin Vandaele, Tijl De Bie, Yvan Saeys, Jefrey Lijffijt
- Abstract要約: 低次元埋め込みにトポロジ的事前知識を組み込むための代数的トポロジに基づく汎用的アプローチを導入する。
正規化器としてそのような位相損失関数を用いて埋め込み損失を共同最適化すると、局所的な近似だけでなく所望の位相構造も反映する埋め込みが得られることを示す。
線形および非線形次元削減法とグラフ埋め込み法を組み合わせた計算効率,堅牢性,汎用性に関する提案手法を実験的に評価した。
- 参考スコア(独自算出の注目度): 15.001598256750619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised representation learning methods are widely used for gaining
insight into high-dimensional, unstructured, or structured data. In some cases,
users may have prior topological knowledge about the data, such as a known
cluster structure or the fact that the data is known to lie along a tree- or
graph-structured topology. However, generic methods to ensure such structure is
salient in the low-dimensional representations are lacking. This negatively
impacts the interpretability of low-dimensional embeddings, and plausibly
downstream learning tasks. To address this issue, we introduce topological
regularization: a generic approach based on algebraic topology to incorporate
topological prior knowledge into low-dimensional embeddings. We introduce a
class of topological loss functions, and show that jointly optimizing an
embedding loss with such a topological loss function as a regularizer yields
embeddings that reflect not only local proximities but also the desired
topological structure. We include a self-contained overview of the required
foundational concepts in algebraic topology, and provide intuitive guidance on
how to design topological loss functions for a variety of shapes, such as
clusters, cycles, and bifurcations. We empirically evaluate the proposed
approach on computational efficiency, robustness, and versatility in
combination with linear and non-linear dimensionality reduction and graph
embedding methods.
- Abstract(参考訳): 教師なし表現学習法は、高次元、非構造化、構造化データに対する洞察を得るために広く使われている。
場合によっては、既知のクラスタ構造や、そのデータが木構造やグラフ構造トポロジに沿うことが知られているという事実など、データに関する事前のトポロジ的知識を持つ場合もある。
しかし、そのような構造を確実にする一般的な方法は、低次元表現が不足している。
これは、低次元埋め込みの解釈可能性に悪影響を与え、おそらく下流の学習タスクに影響を及ぼす。
この問題を解決するために、代数的トポロジに基づく一般的なアプローチであるトポロジカル正規化を導入し、トポロジカル事前知識を低次元埋め込みに組み込む。
位相損失関数のクラスを導入し、そのような位相損失関数を正規化器として併用することにより、局所的な近似だけでなく所望の位相構造も反映した埋め込みが得られることを示す。
本稿では,代数的トポロジーにおける基本概念の自己完結的な概要と,クラスタ,サイクル,分岐など,様々な形状のトポロジ的損失関数の設計方法についての直感的なガイダンスを提供する。
線形および非線形次元削減法とグラフ埋め込み法を組み合わせた計算効率,堅牢性,汎用性に関する提案手法を実験的に評価した。
関連論文リスト
- Pitfalls of topology-aware image segmentation [81.19923502845441]
我々は、不適切な接続選択、見過ごされたトポロジカルアーティファクト、評価指標の不適切な使用を含むモデル評価における致命的な落とし穴を同定する。
本稿では,トポロジを意識した医用画像分割手法の公正かつ堅牢な評価基準を確立するための,行動可能なレコメンデーションセットを提案する。
論文 参考訳(メタデータ) (2024-12-19T08:11:42Z) - Topograph: An efficient Graph-Based Framework for Strictly Topology Preserving Image Segmentation [78.54656076915565]
位相的正しさは多くの画像分割タスクにおいて重要な役割を果たす。
ほとんどのネットワークは、Diceのようなピクセル単位の損失関数を使って、トポロジカルな精度を無視して訓練されている。
トポロジ的に正確な画像セグメンテーションのための新しいグラフベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:20:14Z) - Topological Generalization Bounds for Discrete-Time Stochastic Optimization Algorithms [15.473123662393169]
ディープニューラルネットワーク(DNN)は、顕著な一般化特性を示す。
これらの能力の源泉は依然として解明され、確立された統計的学習理論を否定している。
近年の研究では、訓練軌跡の性質が一般化の指標であることが示されている。
論文 参考訳(メタデータ) (2024-07-11T17:56:03Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Supervised Dimensionality Reduction and Classification with
Convolutional Autoencoders [1.1164202369517053]
畳み込みオートエンコーダを組み合わせることで、教師付き次元の減少と予測を同時に生成する。
結果として得られるラテント空間は、伝統的な解釈可能な分類アルゴリズムを改善するために利用することができる。
提案手法は, 生成した潜在空間を通してのデータ構造だけでなく, 分類行動についても, 高度な説明可能性を導入している。
論文 参考訳(メタデータ) (2022-08-25T15:18:33Z) - Rethinking Persistent Homology for Visual Recognition [27.625893409863295]
本稿では,様々な訓練シナリオにおける画像分類におけるトポロジ的特性の有効性を詳細に分析する。
例えば、小さなデータセット上で単純なネットワークをトレーニングするなど、トポロジ的特徴から最も恩恵を受けるシナリオを特定します。
論文 参考訳(メタデータ) (2022-07-09T08:01:11Z) - Topologically Regularized Data Embeddings [22.222311627054875]
本稿では,新たにトポロジ的損失の集合を導入し,その利用法を,データ埋め込みを自然に特定したモデルを表現するために,トポロジカルに正規化する方法として提案する。
このアプローチの有用性と汎用性を強調した合成データおよび実データの実験を含む。
論文 参考訳(メタデータ) (2021-10-18T11:25:47Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - A Fast and Robust Method for Global Topological Functional Optimization [70.11080854486953]
本稿では, より高速で, より安定で, より堅牢なバックプロパゲーション手法を提案する。
このスキームは、永続化ダイアグラム内のドットの安定な可視化を、データ構造におけるクリティカルでほぼクリティカルな簡易な分布として作成するためにも使用できる。
論文 参考訳(メタデータ) (2020-09-17T18:46:16Z) - A Topological Framework for Deep Learning [0.7310043452300736]
機械学習における分類問題は、非常に穏やかな条件下では常に解決可能であることを示す。
特に,ソフトマックス分類ネットワークは,有限列の位相移動によって入力位相空間に作用し,その分類処理を実現する。
論文 参考訳(メタデータ) (2020-08-31T15:56:42Z) - Self-Learning with Rectification Strategy for Human Parsing [73.06197841003048]
擬似ラベルの2つの典型的な誤りを補正する訓練可能なグラフ推論法を提案する。
再構成された特徴は、人体のトポロジー構造を表現する能力が強い。
本手法は、教師付き人間の解析作業において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-17T03:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。