論文の概要: Multi-View Semi-Supervised Label Distribution Learning with Local Structure Complementarity
- arxiv url: http://arxiv.org/abs/2510.13917v1
- Date: Wed, 15 Oct 2025 09:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.541052
- Title: Multi-View Semi-Supervised Label Distribution Learning with Local Structure Complementarity
- Title(参考訳): 局所構造相補性を考慮した多視点半教師付きラベル分布学習
- Authors: Yanshan Xiao, Kaihong Wu, Bo Liu,
- Abstract要約: 局所構造相補性 (MVSS-LDL) を用いた多視点半教師付きラベル分布学習を行った。
MVSS-LDLは既存の単一ビューLCL法よりも明らかに優れた分類性能が得られる。
- 参考スコア(独自算出の注目度): 7.798852989032664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label distribution learning (LDL) is a paradigm that each sample is associated with a label distribution. At present, the existing approaches are proposed for the single-view LDL problem with labeled data, while the multi-view LDL problem with labeled and unlabeled data has not been considered. In this paper, we put forward the multi-view semi-supervised label distribution learning with local structure complementarity (MVSS-LDL) approach, which exploits the local nearest neighbor structure of each view and emphasizes the complementarity of local nearest neighbor structures in multiple views. Specifically speaking, we first explore the local structure of view $v$ by computing the $k$-nearest neighbors. As a result, the $k$-nearest neighbor set of each sample $\boldsymbol{x}_i$ in view $v$ is attained. Nevertheless, this $k$-nearest neighbor set describes only a part of the nearest neighbor information of sample $\boldsymbol{x}_i$. In order to obtain a more comprehensive description of sample $\boldsymbol{x}_i$'s nearest neighbors, we complement the nearest neighbor set in view $v$ by incorporating sample $\boldsymbol{x}_i$'s nearest neighbors in other views. Lastly, based on the complemented nearest neighbor set in each view, a graph learning-based multi-view semi-supervised LDL model is constructed. By considering the complementarity of local nearest neighbor structures, different views can mutually provide the local structural information to complement each other. To the best of our knowledge, this is the first attempt at multi-view LDL. Numerical studies have demonstrated that MVSS-LDL attains explicitly better classification performance than the existing single-view LDL methods.
- Abstract(参考訳): ラベル分布学習(LDL)は、各サンプルがラベル分布と関連付けられているパラダイムである。
現在,ラベル付きデータを用いたシングルビューLDL問題に対して,ラベル付きデータとラベルなしデータを用いたマルチビューLDL問題については検討されていない。
本稿では,局所構造相補性(MVSS-LDL)を用いた多視点半教師付きラベル分布学習について述べる。
具体的には、まず、$k$-nearestの隣人の計算により、$v$のローカル構造を探索する。
結果として、各サンプルの$k$-nearest 隣セット $\boldsymbol{x}_i$ in view $v$が達成される。
しかしながら、この$k$-nearest 隣の集合は、サンプル $\boldsymbol{x}_i$ の最も近い隣の情報の一部のみを記述する。
サンプル $\boldsymbol{x}_i$ の近辺のより包括的な記述を得るために、サンプル $\boldsymbol{x}_i$ の近辺を他のビューに組み込むことで、近辺集合を $v$ で補完する。
最後に, グラフ学習に基づく多視点半教師付きLDLモデルを構築した。
近接する近傍構造の相補性を考慮することにより、異なる視点が相互に相互に相互に相互に補完する局所構造情報を提供することができる。
私たちの知る限りでは、これはマルチビュー LDL の最初の試みである。
MVSS-LDLは,従来の単一ビューLCL法よりも明らかに優れた分類性能を有することが示された。
関連論文リスト
- Segment First or Comprehend First? Explore the Limit of Unsupervised Word Segmentation with Large Language Models [92.92512796044471]
本稿では,Large Language Models (LLMs) を用いた教師なし単語セグメンテーションの限界を探索する新しいフレームワークを提案する。
我々は,LLMの「理解」を評価するために,複数の言語にまたがる単語セグメンテーションを行うために,現在主流のLLMを使用している。
本研究では,文脈情報に基づく動的$n$-gramモデルの構築を可能にする,LACAと呼ばれる新しい教師なし手法を提案する。
論文 参考訳(メタデータ) (2025-05-26T07:48:15Z) - CLIP-VG: Self-paced Curriculum Adapting of CLIP for Visual Grounding [86.79903269137971]
擬似ラベルを用いて地域を特定するために、教師なしの視覚的接地法が開発された。
CLIP-VG は,CLIP を擬似言語ラベルに適応させる手法である。
提案手法は,RefCOCO/+/gデータセットにおいて,最先端の教師なし手法よりも有意差がある。
論文 参考訳(メタデータ) (2023-05-15T14:42:02Z) - Multi-Granularity Denoising and Bidirectional Alignment for Weakly
Supervised Semantic Segmentation [75.32213865436442]
本稿では,雑音ラベルと多クラス一般化問題を緩和するために,MDBAモデルを提案する。
MDBAモデルはPASCAL VOC 2012データセットの検証とテストセットにおいて69.5%と70.2%のmIoUに達することができる。
論文 参考訳(メタデータ) (2023-05-09T03:33:43Z) - Bagged $k$-Distance for Mode-Based Clustering Using the Probability of
Localized Level Sets [7.208515071018781]
モードベースのクラスタリング(textitBDMBC)のためのtextitbagged $k$-distance というアンサンブル学習アルゴリズムを提案する。
理論的には、bagged $k$-distance, sub-sample size $s$, bagging rounds $B$, and the number of neighbors $k_L$ for the localized level set, BDMBC can achieve optimal convergence rate for mode estimation。
論文 参考訳(メタデータ) (2022-10-18T11:58:35Z) - Minimax Optimal Algorithms with Fixed-$k$-Nearest Neighbors [13.231906521852718]
大規模なデータセットを小さなグループに分割する分散学習シナリオを考察する。
分類,回帰,密度推定のための固定k$-NN情報を集約する最適ルールを提案する。
十分多数のグループに固定された$k$の分散アルゴリズムは、乗算対数係数までの最小誤差率を得ることを示す。
論文 参考訳(メタデータ) (2022-02-05T01:59:09Z) - Empirical complexity of comparator-based nearest neighbor descent [0.0]
K$-nearest 隣り合うアルゴリズムの Java 並列ストリームの実装を示す。
Kullback-Leiblerの発散比較器による実験は、$K$-nearest近くの更新ラウンドの数が直径の2倍を超えないという予測を支持している。
論文 参考訳(メタデータ) (2022-01-30T21:37:53Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Projection-free Graph-based Classifier Learning using Gershgorin Disc
Perfect Alignment [59.87663954467815]
グラフベースのバイナリ学習では、既知のラベルのサブセット$hatx_i$を使って未知のラベルを推論する。
ラベルの$x_i$をバイナリ値に制限する場合、問題はNPハードである。
代わりに線形プログラム(LP)の列を解くことにより,高速なプロジェクションフリー手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T07:22:48Z) - Structured Graph Learning for Scalable Subspace Clustering: From
Single-view to Multi-view [28.779909990410978]
グラフベースのサブスペースクラスタリング手法は有望な性能を示した。
コストのかかる時間のオーバーヘッドに遭遇し、明示的なクラスタの探索に失敗し、見えないデータポイントに一般化することはできません。
上記の3つの課題を同時に解決しようとする,スケーラブルなグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-16T03:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。