論文の概要: Cover Learning for Large-Scale Topology Representation
- arxiv url: http://arxiv.org/abs/2503.09767v1
- Date: Wed, 12 Mar 2025 19:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:09.573372
- Title: Cover Learning for Large-Scale Topology Representation
- Title(参考訳): 大規模トポロジー表現のためのカバーラーニング
- Authors: Luis Scoccola, Uzu Lim, Heather A. Harrington,
- Abstract要約: 本稿では,幾何学的データセットのトポロジ的に忠実な被覆を学習する手法について述べる。
そこで得られた単純複体は, 標準トポロジカル推論手法よりも, サイズ的に優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Classical unsupervised learning methods like clustering and linear dimensionality reduction parametrize large-scale geometry when it is discrete or linear, while more modern methods from manifold learning find low dimensional representation or infer local geometry by constructing a graph on the input data. More recently, topological data analysis popularized the use of simplicial complexes to represent data topology with two main methodologies: topological inference with geometric complexes and large-scale topology visualization with Mapper graphs -- central to these is the nerve construction from topology, which builds a simplicial complex given a cover of a space by subsets. While successful, these have limitations: geometric complexes scale poorly with data size, and Mapper graphs can be hard to tune and only contain low dimensional information. In this paper, we propose to study the problem of learning covers in its own right, and from the perspective of optimization. We describe a method for learning topologically-faithful covers of geometric datasets, and show that the simplicial complexes thus obtained can outperform standard topological inference approaches in terms of size, and Mapper-type algorithms in terms of representation of large-scale topology.
- Abstract(参考訳): クラスタリングや線形次元減少のような古典的教師なし学習手法は、離散的あるいは線形であるときに大規模幾何学をパラメータ化するが、多様体学習からのより現代的な手法では、入力データ上にグラフを構築することで、低次元表現や局所幾何学を推論する。
より最近のトポロジカルデータ分析は、幾何学的コンプレックスによるトポロジ推論と、Mapperグラフによる大規模トポロジ視覚化という、2つの主要な方法論でデータトポロジを表現するための単純なコンプレックスの使用を一般化した。
幾何学的コンプレックスはデータサイズに乏しく、Mapperグラフはチューニングが難しく、低次元情報しか含まない。
本稿では,最適化の観点から,学習のカバーを自称する問題について検討する。
本稿では,幾何学的データセットのトポロジ的に忠実な被覆を学習する手法について述べるとともに,得られた単純な複合体が,大規模トポロジの表現の観点から,標準トポロジ的推論手法とMapper型アルゴリズムより優れていることを示す。
関連論文リスト
- Flexible Mesh Segmentation via Reeb Graph Representation of Geometrical and Topological Features [0.0]
本稿では, フレキシブルリーブグラフ表現を用いて幾何学的特徴と位相的特徴を統合するメッシュセグメンテーション手法を提案する。
このアルゴリズムは,改良されたトポロジカルスケルトンアプローチを用いたリーブグラフの構築,重要な特徴を保ちながら臨界点のキャンセルによるグラフの位相的単純化,適応的な領域成長過程による連続セグメントの生成の3段階からなる。
論文 参考訳(メタデータ) (2024-12-05T23:04:45Z) - Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and Applications [71.809127869349]
本稿では、幾何学的メッセージパッシングの観点から、既存のモデルの統一的なビューを提供するデータ構造として幾何学的グラフを定式化する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Simplicial Representation Learning with Neural $k$-Forms [14.566552361705499]
本稿では,ノード座標を用いて,$mathbbRn$に埋め込まれた単体錯体から得られる幾何学的情報を活用することに焦点を当てる。
我々は mathbbRn の微分 k-形式を用いて単純化の表現を作成し、メッセージパッシングなしに解釈可能性と幾何学的整合性を提供する。
本手法は, グラフ, simplicial Complex, セルコンプレックスなど, 様々な入力コンプレックスに適用可能である。
論文 参考訳(メタデータ) (2023-12-13T21:03:39Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Topologically Regularized Data Embeddings [15.001598256750619]
低次元埋め込みにトポロジ的事前知識を組み込むための代数的トポロジに基づく汎用的アプローチを導入する。
正規化器としてそのような位相損失関数を用いて埋め込み損失を共同最適化すると、局所的な近似だけでなく所望の位相構造も反映する埋め込みが得られることを示す。
線形および非線形次元削減法とグラフ埋め込み法を組み合わせた計算効率,堅牢性,汎用性に関する提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2023-01-09T13:49:47Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - Fiberwise dimensionality reduction of topologically complex data with
vector bundles [0.0]
本稿では,ベクトルバンドルを用いてトポロジ的に複雑なデータセットをモデル化する。
基底空間は大規模位相であり、ファイバーは局所幾何学である。
これにより、大規模なトポロジーを保ちながら繊維の寸法を小さくすることができる。
論文 参考訳(メタデータ) (2022-06-13T22:53:46Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。