論文の概要: NeuralFLoC: Neural Flow-Based Joint Registration and Clustering of Functional Data
- arxiv url: http://arxiv.org/abs/2602.03169v1
- Date: Tue, 03 Feb 2026 06:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.28693
- Title: NeuralFLoC: Neural Flow-Based Joint Registration and Clustering of Functional Data
- Title(参考訳): NeuralFLoC: 機能データのニューラルフローベースジョイント登録とクラスタリング
- Authors: Xinyang Xiong, Siyuan jiang, Pengcheng Zeng,
- Abstract要約: textNeuralFLoCは、統合機能登録とクラスタリングのための、完全に教師なし、エンドツーエンドのディープラーニングフレームワークである。
機能ベンチマークの実験では、登録とクラスタリングの両方で最先端のパフォーマンスを示し、データの欠如、不規則なサンプリング、ノイズに対して堅牢性を保ちながら、スケーラビリティを維持している。
- 参考スコア(独自算出の注目度): 3.4960553691816005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering functional data in the presence of phase variation is challenging, as temporal misalignment can obscure intrinsic shape differences and degrade clustering performance. Most existing approaches treat registration and clustering as separate tasks or rely on restrictive parametric assumptions. We present \textbf{NeuralFLoC}, a fully unsupervised, end-to-end deep learning framework for joint functional registration and clustering based on Neural ODE-driven diffeomorphic flows and spectral clustering. The proposed model learns smooth, invertible warping functions and cluster-specific templates simultaneously, effectively disentangling phase and amplitude variation. We establish universal approximation guarantees and asymptotic consistency for the proposed framework. Experiments on functional benchmarks show state-of-the-art performance in both registration and clustering, with robustness to missing data, irregular sampling, and noise, while maintaining scalability. Code is available at https://anonymous.4open.science/r/NeuralFLoC-FEC8.
- Abstract(参考訳): 時間的ミスアライメントは内在的な形状の違いを曖昧にし、クラスタリング性能を低下させるため、位相変動の存在下での関数データのクラスタリングは困難である。
既存のアプローチのほとんどは、登録とクラスタリングを別々のタスクとして扱うか、制限的なパラメトリック仮定に依存している。
本稿では,ニューラルODE駆動の微分型フローとスペクトルクラスタリングに基づく統合機能登録とクラスタリングのための,完全教師なしエンドツーエンドのディープラーニングフレームワークである‘textbf{NeuralFLoC} を提案する。
提案モデルでは,スムーズで非可逆なワープ関数とクラスタ固有のテンプレートを同時に学習し,位相と振幅の変動を効果的に解消する。
我々は,提案フレームワークの普遍的な近似保証と漸近一貫性を確立する。
機能ベンチマークの実験では、登録とクラスタリングの両方で最先端のパフォーマンスを示し、データの欠如、不規則なサンプリング、ノイズに対して堅牢性を保ちながら、スケーラビリティを維持している。
コードはhttps://anonymous.4open.science/r/NeuralFLoC-FEC8で公開されている。
関連論文リスト
- An Adaptive Resonance Theory-based Topological Clustering Algorithm with a Self-Adjusting Vigilance Parameter [6.868495647132414]
本稿では,適応共振理論に基づくトポロジカルクラスタリングアルゴリズムを提案する。
多様性駆動適応機構を通じて、再計算間隔と警戒閾値を自律的に調整する。
24の実世界のデータセットに対する実験により、提案アルゴリズムはクラスタリング性能と連続学習能力の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-11-22T08:53:59Z) - Self-supervised Latent Space Optimization with Nebula Variational Coding [87.20343320266215]
本稿では,クラスタ化埋め込みに繋がる変分推論モデルを提案する。
textbfnebula anchorsと呼ばれる潜伏空間に新たな変数を導入し、トレーニング中に潜伏変数がクラスタを形成するように誘導する。
各潜在機能は最も近いアンカーでラベル付けできるため、クラスタ間の分離をより明確にするために、自己教師付き方法でメートル法学習を適用することも提案する。
論文 参考訳(メタデータ) (2025-06-02T08:13:32Z) - Spatial-Spectral Diffusion Contrastive Representation Network for Hyperspectral Image Classification [8.600534616819333]
本稿では,空間スペクトル拡散コントラスト表現ネットワーク(DiffCRN)を提案する。
DiffCRNは、高スペクトル画像分類のための拡散確率モデル(DDPM)とコントラスト学習(CL)の組み合わせに基づく。
広く使われている4つのHSIデータセットを用いて実験を行い、提案したDiffCRNの性能改善を実証した。
論文 参考訳(メタデータ) (2025-02-27T02:34:23Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - DeepFRC: An End-to-End Deep Learning Model for Functional Registration and Classification [11.194964108429252]
DeepFRCは、ワープ機能と統一アーキテクチャ内の分類を共同で学習するエンドツーエンドのディープラーニングフレームワークである。
このようなジョイントモデルに対する最初の理論的保証を提供し、最適なワープを近似する能力を証明する。
合成および実世界のデータセットの実験により、DeepFRCは、アライメント品質と分類精度の両方において、最先端の手法を一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-01-30T03:35:03Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。