論文の概要: OpenViewer: Openness-Aware Multi-View Learning
- arxiv url: http://arxiv.org/abs/2412.12596v1
- Date: Tue, 17 Dec 2024 06:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 14:00:28.227476
- Title: OpenViewer: Openness-Aware Multi-View Learning
- Title(参考訳): OpenViewer: オープンネスを意識したマルチビュー学習
- Authors: Shide Du, Zihan Fang, Yanchao Tan, Changwei Wang, Shiping Wang, Wenzhong Guo,
- Abstract要約: マルチビュー学習手法は、複数のデータソースを活用し、ビュー間でのマイニング相関によって知覚を高める。
これらのモデルを現実のシナリオにデプロイすることは、2つの主要なオープン性課題を提示します。
理論的サポートを備えたオープンネス対応マルチビュー学習フレームワークOpenViewerを提案する。
- 参考スコア(独自算出の注目度): 22.31635020800168
- License:
- Abstract: Multi-view learning methods leverage multiple data sources to enhance perception by mining correlations across views, typically relying on predefined categories. However, deploying these models in real-world scenarios presents two primary openness challenges. 1) Lack of Interpretability: The integration mechanisms of multi-view data in existing black-box models remain poorly explained; 2) Insufficient Generalization: Most models are not adapted to multi-view scenarios involving unknown categories. To address these challenges, we propose OpenViewer, an openness-aware multi-view learning framework with theoretical support. This framework begins with a Pseudo-Unknown Sample Generation Mechanism to efficiently simulate open multi-view environments and previously adapt to potential unknown samples. Subsequently, we introduce an Expression-Enhanced Deep Unfolding Network to intuitively promote interpretability by systematically constructing functional prior-mapping modules and effectively providing a more transparent integration mechanism for multi-view data. Additionally, we establish a Perception-Augmented Open-Set Training Regime to significantly enhance generalization by precisely boosting confidences for known categories and carefully suppressing inappropriate confidences for unknown ones. Experimental results demonstrate that OpenViewer effectively addresses openness challenges while ensuring recognition performance for both known and unknown samples. The code is released at https://github.com/dushide/OpenViewer.
- Abstract(参考訳): マルチビュー学習手法は、複数のデータソースを活用して、通常、事前に定義されたカテゴリに依存して、ビュー間の相関関係をマイニングすることで知覚を高める。
しかし、これらのモデルを現実のシナリオにデプロイすることは、2つの主要なオープン性課題を示す。
1)解釈可能性の欠如:既存のブラックボックスモデルにおけるマルチビューデータの統合メカニズムは、いまだによく説明されていない。
2) 十分でない一般化: ほとんどのモデルは未知のカテゴリを含む多視点シナリオに適応しない。
これらの課題に対処するため,オープンネスを意識したマルチビュー学習フレームワークであるOpenViewerを提案する。
このフレームワークは Pseudo-Unknown Sample Generation Mechanism から始まり、オープンなマルチビュー環境を効率的にシミュレートし、潜在的に未知のサンプルに前もって適応する。
次に,関数型プリマッピングモジュールを体系的に構築し,多視点データに対するより透過的な統合機構を効果的に提供することで,直感的に解釈可能性を高めるための表現強化ディープ・アンフォールディング・ネットワークを提案する。
さらに,既知カテゴリに対する信頼度を的確に引き上げ,未知カテゴリに対する不適切な信頼度を慎重に抑えることによって,一般化を著しく向上するパーセプション強化オープンセットトレーニングレジームを確立する。
実験の結果、OpenViewerは、既知のサンプルと未知のサンプルの両方の認識性能を確保しながら、オープンネスの課題に効果的に対処していることが示された。
コードはhttps://github.com/dushide/OpenViewer.comで公開されている。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Masked Two-channel Decoupling Framework for Incomplete Multi-view Weak Multi-label Learning [21.49630640829186]
本稿では,不完全な多視点弱多言語学習における複雑かつ現実的な課題に焦点をあてる。
本稿では,この問題を解決するために,ディープニューラルネットワークに基づくマスク付き2チャネルデカップリングフレームワークを提案する。
我々のモデルは任意のビューやラベルの欠如に完全に適応でき、また理想的な全データでもうまく機能する。
論文 参考訳(メタデータ) (2024-04-26T11:39:50Z) - Towards Generalized Multi-stage Clustering: Multi-view Self-distillation [10.368796552760571]
既存のマルチステージクラスタリング手法は、独立して複数のビューから健全な特徴を学習し、クラスタリングタスクを実行する。
本稿では,多視点自己蒸留(DistilMVC)を導入し,ラベル分布の暗黒知識を抽出する多段階深層MVCフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T03:35:34Z) - Open Visual Knowledge Extraction via Relation-Oriented Multimodality
Model Prompting [89.95541601837719]
オープンビジュアル知識抽出の新しいパラダイムを初めて探求する。
OpenVikは、リレーショナル知識を含む可能性のあるリージョンを検出するオープンリレーショナルリージョン検出器で構成されている。
検出された関心領域で大規模なマルチモーダリティモデルを促すことにより、書式のない知識を生成する視覚的知識生成装置。
論文 参考訳(メタデータ) (2023-10-28T20:09:29Z) - Debunking Free Fusion Myth: Online Multi-view Anomaly Detection with
Disentangled Product-of-Experts Modeling [25.02446577349165]
マルチビューやマルチモーダルデータさえも、現実世界のアプリケーションには魅力的なものです。
本稿では,(1)多視点データに対処するProduct-of-Experts層,(2)ビュー共通表現とビュー固有表現を混在させるTotal Correction Discriminator,(3)すべてのコンポーネントをラップするジョイントロス関数を含む,新しい多視点変分自動符号化モデルdPoEを提案する。
論文 参考訳(メタデータ) (2023-10-28T15:14:43Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Open Long-Tailed Recognition in a Dynamic World [82.91025831618545]
実世界のデータは、しばしば長い尾を持ち、(目に見えないクラスを持つ)オープンな分布を示す。
現実的な認識システムは、多数派(頭)クラスと少数派(尾)クラスの間でバランスを取り、分布を一般化し、見知らぬクラス(オープンクラス)のインスタンスで新規性を認める必要がある。
我々は,Open Long-Tailed Recognition++を,このような自然分布データからの学習として定義し,バランスの取れたテストセット上での分類精度を最適化する。
論文 参考訳(メタデータ) (2022-08-17T15:22:20Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。