論文の概要: TopoPrune: Robust Data Pruning via Unified Latent Space Topology
- arxiv url: http://arxiv.org/abs/2602.02739v1
- Date: Mon, 02 Feb 2026 19:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.052415
- Title: TopoPrune: Robust Data Pruning via Unified Latent Space Topology
- Title(参考訳): TopoPrune:Unified Latent Space Topologyによるロバストなデータプルーニング
- Authors: Arjun Roy, Prajna G. Malettira, Manish Nagaraj, Kaushik Roy,
- Abstract要約: TopoPruneは、トポロジを活用して、安定した、本質的なデータ構造をキャプチャすることで、この問題を解決するフレームワークである。
TopoPruneは、(1)トポロジーを意識した多様体近似を利用して、データセットのグローバルな低次元埋め込みを確立する。
統合された二スケールトポロジカルアプローチは、特に大きなデータセットのプルーニングレートにおいて、高い精度と精度を保証することを実証する。
- 参考スコア(独自算出の注目度): 9.204659134755792
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Geometric data pruning methods, while practical for leveraging pretrained models, are fundamentally unstable. Their reliance on extrinsic geometry renders them highly sensitive to latent space perturbations, causing performance to degrade during cross-architecture transfer or in the presence of feature noise. We introduce TopoPrune, a framework which resolves this challenge by leveraging topology to capture the stable, intrinsic structure of data. TopoPrune operates at two scales, (1) utilizing a topology-aware manifold approximation to establish a global low-dimensional embedding of the dataset. Subsequently, (2) it employs differentiable persistent homology to perform a local topological optimization on the manifold embeddings, ranking samples by their structural complexity. We demonstrate that our unified dual-scale topological approach ensures high accuracy and precision, particularly at significant dataset pruning rates (e.g., 90%). Furthermore, through the inherent stability properties of topology, TopoPrune is (a) exceptionally robust to noise perturbations of latent feature embeddings and (b) demonstrates superior transferability across diverse network architectures. This study demonstrates a promising avenue towards stable and principled topology-based frameworks for robust data-efficient learning.
- Abstract(参考訳): 幾何学的データプルーニング法は、事前訓練されたモデルを活用するのに実用的であるが、基本的に不安定である。
その外在幾何学への依存は、潜伏空間の摂動に非常に敏感になり、構造間移動や特徴雑音の存在下で性能が低下する。
TopoPruneは、トポロジを活用して、安定した、本質的なデータ構造をキャプチャすることで、この問題を解決するフレームワークである。
TopoPruneは、(1)トポロジーを意識した多様体近似を利用して、データセットのグローバルな低次元埋め込みを確立する。
その後、(2) は微分可能な永続ホモロジーを用いて、多様体の埋め込みの局所的な位相最適化を行い、その構造的複雑さによってサンプルをランク付けする。
統合された二スケールトポロジカルアプローチは、特に大きなデータセットのプルーニングレート(例:90%)において、高い精度と精度を保証することを実証する。
さらに、トポプルーンはトポロジーの固有の安定性特性により、
(a)潜伏した特徴埋め込みのノイズ摂動に非常に頑健なこと
b) 多様なネットワークアーキテクチャ間で優れた転送可能性を示す。
本研究は, 堅牢なデータ効率学習のための安定的および原則的トポロジベースのフレームワークへの有望な道筋を示す。
関連論文リスト
- Leveraging generative adversarial networks with spatially adaptive denormalization for multivariate stochastic seismic data inversion [0.0]
本研究では,地震データから相の予測と複数の相関した連続特性を示す反復的測地逆解析アルゴリズムSPADE-GANInvを提案する。
SPADE-GANは現実的なジオメトリを再現するように訓練され、シーケンシャルなコシミュレーションは相依存性の連続特性の空間的変動を予測する。
本手法は2次元合成シナリオとフィールドデータの両方で実証され, フルスタック地震データからフェーシ, ポロシティ, 音響インピーダンスの予測を目標としている。
論文 参考訳(メタデータ) (2025-12-02T15:25:22Z) - Latent Manifold Reconstruction and Representation with Topological and Geometrical Regularization [1.8335627278682702]
本稿では,雑音の多い点群から潜在多様体構造を発見できる,多様体再構成層を統合するAutoEncoderに基づく手法を提案する。
ポイントクラウドデータセットの実験では、この手法がt-SNE、UMAP、トポロジカルオートエンコーダといったベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2025-05-07T13:47:22Z) - SDF-TopoNet: A Two-Stage Framework for Tubular Structure Segmentation via SDF Pre-training and Topology-Aware Fine-Tuning [2.3436632098950456]
主な課題は、計算効率を維持しながら位相的正しさを確保することである。
改良されたトポロジ対応セグメンテーションフレームワークである textbfSDF-TopoNet を提案する。
SDF-TopoNetは, 位相的精度と定量的セグメンテーションの指標の両方において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-14T23:54:38Z) - TopoFR: A Closer Look at Topology Alignment on Face Recognition [58.45515807380505]
PTSAと呼ばれるトポロジカル構造アライメント戦略とSDEという硬質試料マイニング戦略を利用する新しいFRモデルであるTopoFRを提案する。
PTSAは永続ホモロジーを用いて入力空間と潜在空間の位相構造を整列し、構造情報を効果的に保存し、FRモデルの一般化性能を向上させる。
一般的な顔のベンチマーク実験の結果は、最先端の手法よりもTopoFRの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-10-14T14:58:30Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Robust Model-Based Optimization for Challenging Fitness Landscapes [96.63655543085258]
タンパク質の設計には、フィットネスのランドスケープの最適化が含まれる。
指導法は, トレーニングセットにおける高適合度サンプルの多彩さに課題を呈する。
デザイン空間における「分離」というこの問題は、既存のモデルベース最適化ツールにおいて重大なボトルネックとなっていることを示す。
本稿では,新しいVAEを検索モデルとして利用して問題を克服する手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:47:32Z) - ROME: Robustifying Memory-Efficient NAS via Topology Disentanglement and
Gradient Accumulation [106.04777600352743]
微分可能なアーキテクチャサーチ(DARTS)は、スーパーネット全体がメモリに格納されているため、メモリコストが大幅に低下する。
シングルパスのDARTSが登場し、各ステップでシングルパスのサブモデルのみを選択する。
メモリフレンドリーだが、計算コストも低い。
RObustifying Memory-Efficient NAS (ROME) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-23T06:34:07Z) - A Fast and Robust Method for Global Topological Functional Optimization [70.11080854486953]
本稿では, より高速で, より安定で, より堅牢なバックプロパゲーション手法を提案する。
このスキームは、永続化ダイアグラム内のドットの安定な可視化を、データ構造におけるクリティカルでほぼクリティカルな簡易な分布として作成するためにも使用できる。
論文 参考訳(メタデータ) (2020-09-17T18:46:16Z) - Stable and consistent density-based clustering via multiparameter persistence [49.1574468325115]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。