論文の概要: AdaMuS: Adaptive Multi-view Sparsity Learning for Dimensionally Unbalanced Data
- arxiv url: http://arxiv.org/abs/2603.17610v1
- Date: Wed, 18 Mar 2026 11:22:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.665515
- Title: AdaMuS: Adaptive Multi-view Sparsity Learning for Dimensionally Unbalanced Data
- Title(参考訳): AdaMuS: 次元不均衡データに対する適応型多視点空間学習
- Authors: Cai Xu, Changhao Sun, Ziyu Guan, Wei Zhao,
- Abstract要約: 感情認識タスクでは、ビデオフレームは106ドルに達することが多いが、生理的信号は101ドル程度しかない。
既存の手法は、しばしば低次元の視点を見渡して、高次元のデータに偏っている。
本稿では,冗長次元を柔軟に抑制し,各視点を効果的に整合させるスパース融合パラダイムを提案する。
- 参考スコア(独自算出の注目度): 25.19474314673427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view learning primarily aims to fuse multiple features to describe data comprehensively. Most prior studies implicitly assume that different views share similar dimensions. In practice, however, severe dimensional disparities often exist among different views, leading to the unbalanced multi-view learning issue. For example, in emotion recognition tasks, video frames often reach dimensions of $10^6$, while physiological signals comprise only $10^1$ dimensions. Existing methods typically face two main challenges for this problem: (1) They often bias towards high-dimensional data, overlooking the low-dimensional views. (2) They struggle to effectively align representations under extreme dimensional imbalance, which introduces severe redundancy into the low-dimensional ones. To address these issues, we propose the Adaptive Multi-view Sparsity Learning (AdaMuS) framework. First, to prevent ignoring the information of low-dimensional views, we construct view-specific encoders to map them into a unified dimensional space. Given that mapping low-dimensional data to a high-dimensional space often causes severe overfitting, we design a parameter-free pruning method to adaptively remove redundant parameters in the encoders. Furthermore, we propose a sparse fusion paradigm that flexibly suppresses redundant dimensions and effectively aligns each view. Additionally, to learn representations with stronger generalization, we propose a self-supervised learning paradigm that obtains supervision information by constructing similarity graphs. Extensive evaluations on a synthetic toy dataset and seven real-world benchmarks demonstrate that AdaMuS consistently achieves superior performance and exhibits strong generalization across both classification and semantic segmentation tasks.
- Abstract(参考訳): マルチビュー学習は主に、データを包括的に記述するために複数の機能を融合することを目的としている。
ほとんどの先行研究は、異なる視点が類似した次元を共有していると暗に仮定している。
しかし実際には、重度次元の相違はしばしば異なる視点に存在し、不均衡な多視点学習問題に繋がる。
例えば、感情認識タスクでは、ビデオフレームはしばしば10^6$の次元に達するが、生理的信号は10^1$の次元しかない。
既存の手法では、(1)高次元データに偏り、低次元の視点を見渡すことが多い。
2) 極端次元の不均衡の下で表現を効果的に整列させることに苦慮し, 低次元の表現に重度の冗長性をもたらす。
これらの課題に対処するために,適応型多視点スペーサリティ学習(AdaMuS)フレームワークを提案する。
まず、低次元ビューの情報を無視しないように、ビュー固有のエンコーダを構築し、それらを統一次元空間にマッピングする。
低次元データを高次元空間にマッピングすることは、しばしば重大オーバーフィッティングを引き起こすので、エンコーダ内の冗長パラメータを適応的に除去するパラメータフリープルーニング法を設計する。
さらに,冗長次元を柔軟に抑制し,各視点を効果的に整合させるスパース融合パラダイムを提案する。
さらに,より一般化された表現を学習するために,類似性グラフを構築して教師情報を得る自己指導型学習パラダイムを提案する。
合成玩具のデータセットと7つの実世界のベンチマークによる広範囲な評価は、AdaMuSが一貫して優れた性能を達成し、分類とセマンティックセグメンテーションの両方において強力な一般化を示すことを示している。
関連論文リスト
- VIEW2SPACE: Studying Multi-View Visual Reasoning from Sparse Observations [47.94531550391802]
多視点視覚推論は、スパースと離散的な視点から複雑な環境を理解する必要があるインテリジェントシステムにとって不可欠である。
現実のシナリオでは、ビュー間の推論は、明示的なガイダンスなしで部分的な観察を統合する必要がある。
我々は物理基底シミュレーションを利用して、ビュー毎の正確なメタデータを持つ多種多様な高忠実な3Dシーンを構築する。
論文 参考訳(メタデータ) (2026-03-17T13:36:30Z) - Revisiting Multi-Task Visual Representation Learning [52.93947931352643]
本稿では,マルチタスク・ビジュアル事前学習フレームワークであるMTVを紹介する。
我々は、高容量の「エキスパート」モデルを利用して、高密度で構造化された擬似ラベルを大規模に合成する。
以上の結果から,MTV が "Best-of-both-worlds" のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2026-01-20T11:59:19Z) - Consensus dimension reduction via multi-view learning [0.6015898117103067]
我々は、複数の視覚化を単一のコンセンサス次元の縮小可視化にまとめるコンセンサスアプローチを提唱する。
ここでは,多視点学習のアイデアを活用して,様々な次元の縮小視覚化において,最も安定的あるいは共有的なパターンを識別する。
シミュレーションおよび実世界のケーススタディを通じて,このコンセンサス可視化が共有低次元データ構造を効果的に識別し,保存することを示す。
論文 参考訳(メタデータ) (2025-12-16T22:32:58Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and Multi-view Geometric Consistency Perception [56.84921040837699]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元し、不正確な結果をもたらす傾向にある。
そこで本稿では,直交平面不整合ネットワーク(DOPNet)を提案し,あいまいな意味論を識別する。
また,水平深度と比表現に適した教師なし適応手法を提案する。
本手法は,単分子配置推定と多視点レイアウト推定の両タスクにおいて,他のSoTAモデルよりも優れる。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - Hierarchical Mutual Information Analysis: Towards Multi-view Clustering
in The Wild [9.380271109354474]
この研究は、データリカバリとアライメントを階層的に一貫した方法で融合し、異なるビュー間の相互情報を最大化するディープMVCフレームワークを提案する。
私たちの知る限りでは、これは欠落したデータ問題と不整合データ問題に異なる学習パラダイムで別々に対処する最初の試みになるかもしれません。
論文 参考訳(メタデータ) (2023-10-28T06:43:57Z) - The Two Dimensions of Worst-case Training and the Integrated Effect for
Out-of-domain Generalization [95.34898583368154]
機械学習モデルをトレーニングするための,新しい,シンプルで効果的な一般化を提案する。
二つの次元に沿ったWorst-case」という概念にちなむW2D法を命名する。
論文 参考訳(メタデータ) (2022-04-09T04:14:55Z) - Perspective: A Phase Diagram for Deep Learning unifying Jamming, Feature
Learning and Lazy Training [4.318555434063275]
ディープラーニングアルゴリズムは、画像認識やgoプレイなど、さまざまなタスクにおける技術革命の責任を負う。
しかし、なぜ働くのかは分かっていない。
最終的に、彼らは高い次元に横たわるデータを分類することに成功しました。
我々は、異なる学習体制をフェーズダイアグラムにまとめることができると論じる。
論文 参考訳(メタデータ) (2020-12-30T11:00:36Z) - Recurrent Multi-view Alignment Network for Unsupervised Surface
Registration [79.72086524370819]
非厳格な登録をエンドツーエンドで学習することは、本質的に高い自由度とラベル付きトレーニングデータの欠如により困難である。
我々は、いくつかの剛性変換のポイントワイドな組み合わせで、非剛性変換を表現することを提案する。
また,投影された多視点2次元深度画像上での3次元形状の類似度を計測する可微分損失関数も導入する。
論文 参考訳(メタデータ) (2020-11-24T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。