論文の概要: Multi-view mid fusion: a universal approach for learning in an HDLSS setting
- arxiv url: http://arxiv.org/abs/2507.06026v1
- Date: Tue, 08 Jul 2025 14:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.164461
- Title: Multi-view mid fusion: a universal approach for learning in an HDLSS setting
- Title(参考訳): マルチビューミドルフュージョン:HDLSS環境下での学習のための普遍的アプローチ
- Authors: Lynn Houthuys,
- Abstract要約: 本稿では,多視点中核融合技術を用いたHDLSS設定における普遍的な学習手法を提案する。
本手法は,HDLSS設定において,たとえ固有のビューが提供されていなくても,既存のMid fusion Multi-viewメソッドがどのように機能するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The high-dimensional low-sample-size (HDLSS) setting presents significant challenges in various applications where the feature dimension far exceeds the number of available samples. This paper introduces a universal approach for learning in HDLSS setting using multi-view mid fusion techniques. It shows how existing mid fusion multi-view methods perform well in an HDLSS setting even if no inherent views are provided. Three view construction methods are proposed that split the high-dimensional feature vectors into smaller subsets, each representing a different view. Extensive experimental validation across model-types and learning tasks confirm the effectiveness and generalization of the approach. We believe the work in this paper lays the foundation for further research into the universal benefits of multi-view mid fusion learning.
- Abstract(参考訳): 高次元低サンプルサイズ (HDLSS) の設定は、特徴次元が利用可能なサンプル数よりはるかに多い様々なアプリケーションにおいて大きな課題を示す。
本稿では,多視点中核融合技術を用いたHDLSS設定における普遍的な学習手法を提案する。
本手法は,HDLSS設定において,たとえ固有のビューが提供されていなくても,既存のMid fusion Multi-viewメソッドがどのように機能するかを示す。
3つのビュー構築法が提案され、高次元特徴ベクトルをより小さなサブセットに分割し、それぞれ異なるビューを表す。
モデル型と学習タスクにわたる広範囲な実験的検証により、アプローチの有効性と一般化が確認された。
本稿では,多視点中等融合学習の普遍的メリットについて,さらなる研究の基盤を築き上げていると信じている。
関連論文リスト
- Beyond Mask: Rethinking Guidance Types in Few-shot Segmentation [67.35274834837064]
我々は、テキスト、マスク、ボックス、画像からのプロンプトを統合するユニバーサルビジョン言語フレームワーク(UniFSS)を開発した。
UniFSSは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-07-16T08:41:01Z) - Multi-view Fuzzy Representation Learning with Rules based Model [25.997490574254172]
教師なしマルチビュー表現学習は、マルチビューデータをマイニングするために広く研究されている。
本稿では,MVRL_FSを用いた多視点ファジィ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-20T17:13:15Z) - TCGF: A unified tensorized consensus graph framework for multi-view
representation learning [27.23929515170454]
本稿では,Consensus Graph Framework (TCGF) という汎用多視点表現学習フレームワークを提案する。
まず、個々のビューの表現を利用するために、既存のマルチビューワークに統一されたフレームワークを提供する。
そして、それらを高次表現としてアライメント基本の下でテンソルに積み上げ、一貫性の滑らかな伝播を可能にする。
論文 参考訳(メタデータ) (2023-09-14T19:29:14Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Multi-view Subspace Adaptive Learning via Autoencoder and Attention [3.8574404853067215]
我々は,アテンションとオートエンコーダ(MSALAA)に基づくマルチビューサブスペース適応学習を提案する。
この方法は、ディープオートエンコーダと、様々なビューの自己表現を調整する方法を組み合わせる。
6つの実生活データセット上で,既存のベースライン手法に対する顕著な改善を実証的に観察した。
論文 参考訳(メタデータ) (2022-01-01T11:31:52Z) - Embedded Deep Bilinear Interactive Information and Selective Fusion for
Multi-view Learning [70.67092105994598]
本稿では,上記の2つの側面に着目した,新しい多視点学習フレームワークを提案する。
特に、さまざまな深層ニューラルネットワークをトレーニングして、様々なビュー内表現を学習する。
6つの公開データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-13T01:13:23Z) - Multi-view Low-rank Preserving Embedding: A Novel Method for Multi-view
Representation [11.91574721055601]
本稿では,MvLPE(Multi-view Low-rank Preserving Embedding)という新しい多視点学習手法を提案する。
異なるビューを1つのセントロイドビューに統合し、インスタンス間の距離や類似性行列に基づいて、不一致項を最小化する。
6つのベンチマークデータセットの実験では、提案手法がそれよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-06-14T12:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。