論文の概要: Distributed Zero-Shot Learning for Visual Recognition
- arxiv url: http://arxiv.org/abs/2511.08170v1
- Date: Wed, 12 Nov 2025 01:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.676591
- Title: Distributed Zero-Shot Learning for Visual Recognition
- Title(参考訳): 視覚認識のための分散ゼロショット学習
- Authors: Zhi Chen, Yadan Luo, Zi Huang, Jingjing Li, Sen Wang, Xin Yu,
- Abstract要約: 分散ゼロショット学習(DistZSL)フレームワークは、分散化されたデータをフル活用して、目に見えないクラスの効果的なモデルを学ぶことができる。
本稿では,DistZSLの効果的な学習を実現するために,ノード間属性正規化器とグローバル属性対視覚コンセンサスという2つの重要なコンポーネントを紹介する。
- 参考スコア(独自算出の注目度): 54.776277273875195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a Distributed Zero-Shot Learning (DistZSL) framework that can fully exploit decentralized data to learn an effective model for unseen classes. Considering the data heterogeneity issues across distributed nodes, we introduce two key components to ensure the effective learning of DistZSL: a cross-node attribute regularizer and a global attribute-to-visual consensus. Our proposed cross-node attribute regularizer enforces the distances between attribute features to be similar across different nodes. In this manner, the overall attribute feature space would be stable during learning, and thus facilitate the establishment of visual-to-attribute(V2A) relationships. Then, we introduce the global attribute-tovisual consensus to mitigate biased V2A mappings learned from individual nodes. Specifically, we enforce the bilateral mapping between the attribute and visual feature distributions to be consistent across different nodes. Thus, the learned consistent V2A mapping can significantly enhance zero-shot learning across different nodes. Extensive experiments demonstrate that DistZSL achieves superior performance to the state-of-the-art in learning from distributed data.
- Abstract(参考訳): 本稿では,分散ゼロショット学習(DistZSL)フレームワークを提案する。
分散ノード間のデータ不均一性の問題を考慮すると、DistZSLの効果的な学習を確実にするための2つの重要なコンポーネント、すなわちクロスノード属性正規化器とグローバル属性対視覚コンセンサスを導入する。
提案したクロスノード属性正規化器は、異なるノード間で類似する属性特徴間の距離を強制する。
このようにして、属性特徴空間は学習中に安定し、視覚的帰属関係(V2A)の確立を容易にする。
次に、各ノードから得られたバイアス付きV2Aマッピングを緩和するために、グローバル属性-視覚的コンセンサスを導入する。
具体的には、属性と視覚的特徴分布の両側マッピングを異なるノード間で一致させる。
したがって、学習された一貫したV2Aマッピングは、異なるノード間でゼロショット学習を大幅に向上させることができる。
大規模な実験により、DistZSLは分散データから学ぶ際の最先端技術よりも優れた性能を発揮することが示された。
関連論文リスト
- Hybrid Discriminative Attribute-Object Embedding Network for Compositional Zero-Shot Learning [83.10178754323955]
HDA-OE(Hybrid Discriminative Attribute-Object Embedding)ネットワークは,属性とオブジェクトの視覚表現との複雑な相互作用を解決するために提案される。
トレーニングデータの多様性を高めるため、HDA-OEは属性駆動型データ合成(ADDS)モジュールを導入した。
HDA-OEは、モデルの識別能力をさらに向上するため、サブクラス駆動の差別的埋め込み(SDDE)モジュールを導入している。
提案モデルを3つのベンチマークデータセットで評価し,その妥当性と信頼性を検証した。
論文 参考訳(メタデータ) (2024-11-28T09:50:25Z) - CREST: Cross-modal Resonance through Evidential Deep Learning for Enhanced Zero-Shot Learning [48.46511584490582]
ゼロショット学習(ZSL)は、既知のカテゴリから未知のカテゴリへのセマンティックな知識伝達を活用することで、新しいクラスの認識を可能にする。
分布不均衡や属性共起といった現実世界の課題は、画像の局所的なばらつきの識別を妨げる。
これらの課題を克服するために、双方向のクロスモーダルZSLアプローチCRESTを提案する。
論文 参考訳(メタデータ) (2024-04-15T10:19:39Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Variational Co-embedding Learning for Attributed Network Clustering [30.7006907516984]
属性ネットワーククラスタリングの最近の研究は、グラフ畳み込みを利用してノード埋め込みを取得し、同時に埋め込み空間上でクラスタリング割り当てを行う。
属性ネットワーククラスタリング(ANC)のための分散共埋め込み学習モデルを提案する。
ANCは、ノードと属性を同時に埋め込む2つの変分自動エンコーダで構成されている。
論文 参考訳(メタデータ) (2021-04-15T08:11:47Z) - Bidirectional Mapping Coupled GAN for Generalized Zero-Shot Learning [7.22073260315824]
双方向マッピングに基づく一般化ゼロショット学習(gzsl)手法は,参照データと未認識データを認識するための合成特徴の品質に依存する。
既知領域の合同分布を学習し,これらの手法においてドメイン識別の保持が重要である。
本研究では,可視クラスセマンティクスと可視クラスセマンティクスを併用し,強い視覚的セマンティック結合を通じて関節分布を学習する。
論文 参考訳(メタデータ) (2020-12-30T06:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。