論文の概要: Generalized Robust Adaptive-Bandwidth Multi-View Manifold Learning in High Dimensions with Noise
- arxiv url: http://arxiv.org/abs/2602.10530v1
- Date: Wed, 11 Feb 2026 05:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.47918
- Title: Generalized Robust Adaptive-Bandwidth Multi-View Manifold Learning in High Dimensions with Noise
- Title(参考訳): 雑音を伴う高次元における一般化ロバスト適応広帯域多視点マニフォールド学習
- Authors: Xiucai Ding, Chao Shen, Hau-Tieng Wu,
- Abstract要約: マルチビューデータセットは科学や工学の応用では一般的であるが、既存の融合法では理論上の保証が限られている。
本稿では,複数のノイズデータソースを統合するためのカーネルベースの新しい拡散幾何学フレームワークであるGRAB-MDM(Generalized Robust Adaptive-Bandwidth Multiview Diffusion Maps)を提案する。
- 参考スコア(独自算出の注目度): 19.34603871517906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiview datasets are common in scientific and engineering applications, yet existing fusion methods offer limited theoretical guarantees, particularly in the presence of heterogeneous and high-dimensional noise. We propose Generalized Robust Adaptive-Bandwidth Multiview Diffusion Maps (GRAB-MDM), a new kernel-based diffusion geometry framework for integrating multiple noisy data sources. The key innovation of GRAB-MDM is a {view}-dependent bandwidth selection strategy that adapts to the geometry and noise level of each view, enabling a stable and principled construction of multiview diffusion operators. Under a common-manifold model, we establish asymptotic convergence results and show that the adaptive bandwidths lead to provably robust recovery of the shared intrinsic structure, even when noise levels and sensor dimensions differ across views. Numerical experiments demonstrate that GRAB-MDM significantly improves robustness and embedding quality compared with fixed-bandwidth and equal-bandwidth baselines, and usually outperform existing algorithms. The proposed framework offers a practical and theoretically grounded solution for multiview sensor fusion in high-dimensional noisy environments.
- Abstract(参考訳): マルチビューデータセットは、科学や工学の応用では一般的なものであるが、既存の融合法は、特に異質性や高次元ノイズの存在において、限られた理論的保証を提供する。
本稿では,複数のノイズデータソースを統合するためのカーネルベースの新しい拡散幾何学フレームワークであるGRAB-MDM(Generalized Robust Adaptive-Bandwidth Multiview Diffusion Maps)を提案する。
GRAB-MDMの鍵となる革新は、ビューに依存した帯域幅選択戦略であり、各ビューの幾何レベルとノイズレベルに適応し、安定かつ原則化されたマルチビュー拡散演算子の構築を可能にする。
共通多様体モデルの下では、漸近収束結果を確立し、適応帯域幅が、ビュー毎にノイズレベルとセンサ次元が異なる場合であっても、共有固有構造を確実に頑健に回復させることを示す。
数値実験により、GRAB-MDMは固定帯域幅と等帯域幅のベースラインに比べてロバスト性および埋め込み品質を著しく改善し、通常、既存のアルゴリズムより優れていることが示された。
提案フレームワークは,高次元雑音環境下でのマルチビューセンサ融合のための実用的,理論的に基礎的なソリューションを提供する。
関連論文リスト
- FITMM: Adaptive Frequency-Aware Multimodal Recommendation via Information-Theoretic Representation Learning [14.873780184982003]
マルチモーダルレコメンデーションのための周波数対応情報理論フレームワークを提案する。
FITMMはグラフ付きアイテム表現を構築し、モダリティワイドスペクトル分解を行い、軽量なバンド内マルチモーダル成分を形成する。
実世界の3つのデータセットの実験では、FITMMは一貫して、高度なベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2026-01-30T03:16:54Z) - Test-time Adaptive Hierarchical Co-enhanced Denoising Network for Reliable Multimodal Classification [55.56234913868664]
マルチモーダルデータを用いた信頼性学習のためのTAHCD(Test-time Adaptive Hierarchical Co-enhanced Denoising Network)を提案する。
提案手法は,最先端の信頼性の高いマルチモーダル学習手法と比較して,優れた分類性能,堅牢性,一般化を実現する。
論文 参考訳(メタデータ) (2026-01-12T03:14:12Z) - Any-Optical-Model: A Universal Foundation Model for Optical Remote Sensing [24.03278912134978]
我々は任意のバンド構成、センサタイプ、解像度スケールに対応するためのAOM(Any Optical Model)を提案する。
AOMは、バンド不足、クロスセンサー、クロス解像度設定といった困難な条件下で、常に最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2025-12-19T04:21:01Z) - MMSense: Adapting Vision-based Foundation Model for Multi-task Multi-modal Wireless Sensing [7.577654996150275]
MMSenseは統合無線センシングのためのマルチモーダル・マルチタスク基礎モデルである。
我々のフレームワークは、画像、レーダー、LiDAR、テキストデータを視覚に適合する表現に変換することで統合する。
モダリティゲーティング・メカ・ニムはこれらの表現を適応的に融合させ、視覚ベースの大きな言語モデルバックボーンは特徴整合化を可能にする。
論文 参考訳(メタデータ) (2025-11-15T17:35:39Z) - Towards General Modality Translation with Contrastive and Predictive Latent Diffusion Bridge [16.958159611661813]
Latent Denoising Diffusion Bridge Model (LDDBM)は、モーダル翻訳のための汎用フレームワークである。
共用ラテント空間で演算することにより、任意のモード間のブリッジを、整列次元を必要とせずに学習する。
提案手法は任意のモダリティペアをサポートし,マルチビューから3次元形状生成,画像超解像,マルチビューシーン合成など,多様なMTタスクに強く依存する。
論文 参考訳(メタデータ) (2025-10-23T17:59:54Z) - FindRec: Stein-Guided Entropic Flow for Multi-Modal Sequential Recommendation [57.577843653775]
textbfFindRec (textbfFlexible unified textbfinformation textbfdisentanglement for multi-modal sequence textbfRecommendation)を提案する。
Stein kernel-based Integrated Information Coordination Module (IICM) は理論上、マルチモーダル特徴とIDストリーム間の分散一貫性を保証する。
マルチモーダル特徴を文脈的関連性に基づいて適応的にフィルタリング・結合するクロスモーダル・エキスパート・ルーティング機構。
論文 参考訳(メタデータ) (2025-07-07T04:09:45Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。