論文の概要: Joint Learning of Unsupervised Multi-view Feature and Instance Co-selection with Cross-view Imputation
- arxiv url: http://arxiv.org/abs/2512.15574v1
- Date: Wed, 17 Dec 2025 16:29:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.059721
- Title: Joint Learning of Unsupervised Multi-view Feature and Instance Co-selection with Cross-view Imputation
- Title(参考訳): クロスビューインプットを用いた教師なし多視点特徴と事例共選択の連成学習
- Authors: Yuxin Cai, Yanyong Huang, Jinyuan Chang, Dongjie Wang, Tianrui Li, Xiaoyi Jiang,
- Abstract要約: 本稿では,教師なしのマルチビュー特徴の連成学習と,クロスviEw計算によるコセレクションを提案する。
JUICEは、利用可能な観測値を使って、まず不完全なマルチビューデータを再構築し、データリカバリと機能の欠如とインスタンスの共同選択を統一されたフレームワークで実現する。
- 参考スコア(独自算出の注目度): 17.24617460579791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature and instance co-selection, which aims to reduce both feature dimensionality and sample size by identifying the most informative features and instances, has attracted considerable attention in recent years. However, when dealing with unlabeled incomplete multi-view data, where some samples are missing in certain views, existing methods typically first impute the missing data and then concatenate all views into a single dataset for subsequent co-selection. Such a strategy treats co-selection and missing data imputation as two independent processes, overlooking potential interactions between them. The inter-sample relationships gleaned from co-selection can aid imputation, which in turn enhances co-selection performance. Additionally, simply merging multi-view data fails to capture the complementary information among views, ultimately limiting co-selection effectiveness. To address these issues, we propose a novel co-selection method, termed Joint learning of Unsupervised multI-view feature and instance Co-selection with cross-viEw imputation (JUICE). JUICE first reconstructs incomplete multi-view data using available observations, bringing missing data recovery and feature and instance co-selection together in a unified framework. Then, JUICE leverages cross-view neighborhood information to learn inter-sample relationships and further refine the imputation of missing values during reconstruction. This enables the selection of more representative features and instances. Extensive experiments demonstrate that JUICE outperforms state-of-the-art methods.
- Abstract(参考訳): 特徴量とサンプルサイズを最大化して特徴量とサンプルサイズを両立することを目的とした特徴と事例の共選択は,近年,注目されている。
しかしながら、あるビューでいくつかのサンプルが欠落しているラベルのない不完全なマルチビューデータを扱う場合、既存のメソッドは通常、欠落したデータを最初にインプットし、その後、すべてのビューを単一のデータセットにまとめて、コセレクトする。
このような戦略は、コセレクションと欠落したデータ計算を2つの独立したプロセスとして扱い、それら間の潜在的な相互作用を見越す。
共選択から引き離されたサンプル間関係は、共選択性能を高めることができる。
さらに、単にマルチビューデータをマージするだけで、ビュー間の補完的な情報をキャプチャできないため、最終的にはコセレクトの有効性が制限される。
これらの課題に対処するために,教師なし型マルチビュー機能の統合学習と,クロスviEw法(JUICE)を用いたコセレクションという,新しいコセレクション手法を提案する。
JUICEは、利用可能な観測値を使って、まず不完全なマルチビューデータを再構築し、データリカバリと機能の欠如とインスタンスの共同選択を統一されたフレームワークで実現する。
そして、JUICEは、クロスビュー地区情報を活用して、サンプル間の関係を学習し、再構築時に欠落した値の計算をさらに洗練する。
これにより、より代表的な機能やインスタンスの選択が可能になる。
大規模な実験により、JUICEは最先端の手法より優れていることが示された。
関連論文リスト
- Cross-view Joint Learning for Mixed-Missing Multi-view Unsupervised Feature Selection [24.037106656954666]
混合損失問題に対処する新しいIMUFS法であるCLIM-FSを提案する。
非負の行列因数分解に基づく特徴選択モデルに、欠落したビューと変数の両方の命令を統合する。
コンセンサスクラスタ構造とクロスビューな局所幾何学構造をフル活用して、シナジスティック学習プロセスを強化する。
論文 参考訳(メタデータ) (2025-11-15T15:34:52Z) - A Semi-supervised Generative Model for Incomplete Multi-view Data Integration with Missing Labels [12.79532395630597]
本稿では,ラベル付きサンプルとラベルなしサンプルの両方を統一されたフレームワークで利用する半教師付き生成モデルを提案する。
既存の手法と比較して、画像データとマルチオミクスデータの両方において、ビューの欠如とラベル付きサンプルの限定による予測と計算性能が向上する。
論文 参考訳(メタデータ) (2025-08-15T03:10:18Z) - Uncertainty-Aware Global-View Reconstruction for Multi-View Multi-Label Feature Selection [4.176139684578661]
グローバルビュー再構築の観点から構築した統一モデルを提案する。
信頼性を高めるため,再建過程におけるサンプルの不確かさの認識を取り入れた。
実験により,マルチビューデータセットにおける提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-18T08:35:39Z) - CONDEN-FI: Consistency and Diversity Learning-based Multi-View Unsupervised Feature and In-stance Co-Selection [8.985835077643953]
我々はconsistency and DivErsity learNing-based multi-view unsupervised Feature and Instance co-selection (CONDEN-FI)を提案する。
CONDEN-FIは、サンプルと特徴空間の両方からmul-ti-viewデータを再構成し、ビュー間で一貫性があり、各ビューに特有の表現を学ぶ。
結果の最適化問題を解決するために,効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-12-09T15:24:11Z) - Unified View Imputation and Feature Selection Learning for Incomplete
Multi-view Data [13.079847265195127]
マルチビュー非教師付き特徴選択(MUFS)は、機械学習における次元性の低減に有効な技術である。
既存の方法は、一部のサンプルが欠落している不完全なマルチビューデータを直接処理することはできない。
UNIFIERは、サンプルと特徴空間の両方から類似性誘発グラフを適応的に学習することにより、マルチビューデータの局所構造を探索する。
論文 参考訳(メタデータ) (2024-01-19T08:26:44Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。