論文の概要: Universal Latent Homeomorphic Manifolds: Cross-Domain Representation Learning via Homeomorphism Verification
- arxiv url: http://arxiv.org/abs/2601.09025v1
- Date: Tue, 13 Jan 2026 23:08:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.192429
- Title: Universal Latent Homeomorphic Manifolds: Cross-Domain Representation Learning via Homeomorphism Verification
- Title(参考訳): 普遍潜在同型多様体:同型検証によるクロスドメイン表現学習
- Authors: Tong Wu, Tayab Uddin Wara, Daniel Hernandez, Sidong Lei,
- Abstract要約: 本稿では,意味表現と観察駆動型機械表現を一つの潜在構造に統一するフレームワークを提案する。
我々は、異なる意味-観測ペアによって誘導される潜在多様体が厳密に統一できるかどうかを決定するための基準として、エンホメオモルフィズムを用いる。
この基準は,(1)不完全観測からのセマンティック誘導スパース回復,(2)検証された構造整合性を持つクロスドメイン変換学習,(3)意味論的から観察空間への有効な移動によるゼロショット合成学習の3つの重要な応用に対する理論的保証を提供する。
- 参考スコア(独自算出の注目度): 4.509161738293017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Universal Latent Homeomorphic Manifold (ULHM), a framework that unifies semantic representations (e.g., human descriptions, diagnostic labels) and observation-driven machine representations (e.g., pixel intensities, sensor readings) into a single latent structure. Despite originating from fundamentally different pathways, both modalities capture the same underlying reality. We establish \emph{homeomorphism}, a continuous bijection preserving topological structure, as the mathematical criterion for determining when latent manifolds induced by different semantic-observation pairs can be rigorously unified. This criterion provides theoretical guarantees for three critical applications: (1) semantic-guided sparse recovery from incomplete observations, (2) cross-domain transfer learning with verified structural compatibility, and (3) zero-shot compositional learning via valid transfer from semantic to observation space. Our framework learns continuous manifold-to-manifold transformations through conditional variational inference, avoiding brittle point-to-point mappings. We develop practical verification algorithms, including trust, continuity, and Wasserstein distance metrics, that empirically validate homeomorphic structure from finite samples. Experiments demonstrate: (1) sparse image recovery from 5\% of CelebA pixels and MNIST digit reconstruction at multiple sparsity levels, (2) cross-domain classifier transfer achieving 86.73\% accuracy from MNIST to Fashion-MNIST without retraining, and (3) zero-shot classification on unseen classes achieving 89.47\% on MNIST, 84.70\% on Fashion-MNIST, and 78.76\% on CIFAR-10. Critically, the homeomorphism criterion correctly rejects incompatible datasets, preventing invalid unification and providing a feasible way to principled decomposition of general foundation models into verified domain-specific components.
- Abstract(参考訳): 本報告では,Universal Latent Homeomorphic Manifold(ULHM)という,意味表現(人間の記述,診断ラベルなど)と観測駆動機械表現(画素強度,センサ読み取りなど)を一つの潜在構造に統一するフレームワークを提案する。
基本的に異なる経路から派生したものの、両方のモダリティは同じ現実を捉えている。
位相構造を保存する連続単射である 'emph{homeomorphism} を、異なる意味-観測対によって誘導される潜在多様体が厳密に統一できるかどうかを決定する数学的基準として確立する。
この基準は,(1)不完全観測からのセマンティック誘導スパース回復,(2)検証された構造整合性を持つクロスドメイン変換学習,(3)意味論的から観察空間への有効な移動によるゼロショット合成学習の3つの重要な応用に対する理論的保証を提供する。
我々のフレームワークは条件付き変分推論により連続多様体-多様体変換を学習し、不安定な点-点マッピングを避ける。
本研究では, 信頼度, 連続度, およびワッサーシュタイン距離の測定値を含む実用的検証アルゴリズムを開発し, 有限標本から準同型構造を実証的に検証する。
実験では,(1)CelebAピクセルの5倍,MNIST桁の多重レベルからのスパース画像復元,(2)MNISTからFashion-MNISTへの精度86.73倍,(3)MNISTでは89.47倍,Fashion-MNISTでは84.70倍,CIFAR-10では78.76倍であった。
批判的に、同相性基準は互換性のないデータセットを正しく拒否し、不正な統一を防ぎ、一般基礎モデルの検証済みのドメイン固有成分への分解を原則化するための実現可能な方法を提供する。
関連論文リスト
- CoPHo: Classifier-guided Conditional Topology Generation with Persistent Homology [14.522233245543687]
トポロジー構造は、性能と堅牢性の研究を支える。
テストやリリースに望ましい特性を持つ合成グラフの生成。
条件ホモロジーを用いた持続的トポロジー生成(CoPho)を提案する。
4つのジェネリック/ネットワークデータセットの実験では、CoPHoがターゲットメトリクスにマッチする既存のメソッドよりも優れていることが示されている。
論文 参考訳(メタデータ) (2025-12-17T13:10:22Z) - Aligned Manifold Property and Topology Point Clouds for Learning Molecular Properties [55.2480439325792]
この研究は、局所量子由来のスカラー場とカスタムトポロジカルディスクリプタを組み合わせた分子表面表現であるAMPTCRを導入する。
分子量については、AMPTCRが物理的に意味のあるデータをコードし、検証R2は0.87であることを確認した。
細菌抑制タスクでは、AMPTCRは大腸菌阻害値の分類と直接回帰の両方を可能にする。
論文 参考訳(メタデータ) (2025-07-22T04:35:50Z) - Structure-Aware Correspondence Learning for Relative Pose Estimation [65.44234975976451]
相対的なポーズ推定は、オブジェクトに依存しないポーズ推定を達成するための有望な方法を提供する。
既存の3D対応方式は、可視領域における小さな重複と、可視領域に対する信頼できない特徴推定に悩まされている。
本稿では,2つの鍵モジュールからなる相対詩推定のための構造認識対応学習手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T13:43:44Z) - STITCH: Surface reconstrucTion using Implicit neural representations with Topology Constraints and persistent Homology [23.70495314317551]
スパースおよび不規則に間隔を置いた点雲のニューラル暗黙表面再構成のための新しいアプローチSTITCHを提案する。
連続ホモロジーに基づく新しい微分可能なフレームワークを開発し、トポロジ的損失項を定式化し、1つの2次元多様体オブジェクトの先行を強制する。
論文 参考訳(メタデータ) (2024-12-24T22:55:35Z) - Relative Representations: Topological and Geometric Perspectives [50.85040046976025]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - From Bricks to Bridges: Product of Invariances to Enhance Latent Space Communication [19.336940758147442]
異なるニューラルネットワークによって学習された表現は、モデルが同様の誘導バイアスの下で訓練されたときに構造的類似性を隠蔽することが観察されている。
我々は,不変成分の積空間を潜在表現の上に構築し,その表現に不変量の集合を直接組み込む汎用的手法を導入する。
我々は,ゼロショット縫合設定において,一貫した遅延類似性および下流性能向上を観察し,分類および再構成タスクに対するソリューションの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-02T13:55:38Z) - Towards Characterizing Domain Counterfactuals For Invertible Latent Causal Models [15.817239008727789]
本研究では,異なるドメインで生成された場合,サンプルがどのようなものであったのかを仮定した,ドメイン反事実と呼ばれる特定のタイプの因果クエリを解析する。
本研究では, 潜在構造因果モデル (SCM) の回復は, ドメイン・デファクト・デファクトを推定するために不要であることを示す。
また、モデル生成過程を単純化し、生成モデル推定を行うための理論的基盤となる実用的なアルゴリズムも開発する。
論文 参考訳(メタデータ) (2023-06-20T04:19:06Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。