論文の概要: Attribute-Induced Bias Eliminating for Transductive Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2006.00412v1
- Date: Sun, 31 May 2020 02:08:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 13:00:13.056480
- Title: Attribute-Induced Bias Eliminating for Transductive Zero-Shot Learning
- Title(参考訳): トランスダクティブゼロショット学習における属性誘発バイアス除去
- Authors: Hantao Yao, Shaobo Min, Yongdong Zhang, Changsheng Xu
- Abstract要約: 本稿では,トランスダクティブZSLのためのAttribute-induced Bias Elimination (AIBE)モジュールを提案する。
2つのドメイン間の視覚的バイアスに対して、Mean-Teacherモジュールは2つのドメイン間の視覚的表現の相違をブリッジするために最初に利用される。
注目グラフ属性の埋め込みは、目に見えないカテゴリと見えないカテゴリ間の意味バイアスを減らすために提案される。
最後に、目に見えない領域のセマンティック・視覚的バイアスに対して、目に見えないセマンティックアライメント制約は、教師なしの方法で視覚空間とセマンティック空間を整列するように設計されている。
- 参考スコア(独自算出の注目度): 144.94728981314717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transductive Zero-shot learning (ZSL) targets to recognize the unseen
categories by aligning the visual and semantic information in a joint embedding
space. There exist four kinds of domain biases in Transductive ZSL, i.e.,
visual bias and semantic bias between two domains and two visual-semantic
biases in respective seen and unseen domains, but existing work only focuses on
the part of them, which leads to severe semantic ambiguity during the knowledge
transfer. To solve the above problem, we propose a novel Attribute-Induced Bias
Eliminating (AIBE) module for Transductive ZSL. Specifically, for the visual
bias between two domains, the Mean-Teacher module is first leveraged to bridge
the visual representation discrepancy between two domains with unsupervised
learning and unlabelled images. Then, an attentional graph attribute embedding
is proposed to reduce the semantic bias between seen and unseen categories,
which utilizes the graph operation to capture the semantic relationship between
categories. Besides, to reduce the semantic-visual bias in the seen domain, we
align the visual center of each category, instead of the individual visual data
point, with the corresponding semantic attributes, which further preserves the
semantic relationship in the embedding space. Finally, for the semantic-visual
bias in the unseen domain, an unseen semantic alignment constraint is designed
to align visual and semantic space in an unsupervised manner. The evaluations
on several benchmarks demonstrate the effectiveness of the proposed method,
e.g., obtaining the 82.8%/75.5%, 97.1%/82.5%, and 73.2%/52.1% for
Conventional/Generalized ZSL settings for CUB, AwA2, and SUN datasets,
respectively.
- Abstract(参考訳): Transductive Zero-shot Learning (ZSL) は、視覚的および意味的な情報を共同埋め込み空間で整列することで、目に見えないカテゴリを認識することを目的としている。
トランスダクティブZSLには、視覚的バイアスと2つのドメイン間のセマンティックバイアスという4種類のドメインバイアスが存在するが、既存の作業は、その部分のみに焦点を当てており、知識伝達の間に深刻な意味的曖昧さをもたらす。
この問題を解決するために,トランスダクティブZSLのための新しい属性誘導バイアス除去(AIBE)モジュールを提案する。
特に、2つのドメイン間の視覚バイアスに対して、平均教師モジュールは、教師なし学習とラベルなし画像を持つ2つのドメイン間の視覚表現の不一致を橋渡しするために最初に利用される。
次に,注目グラフ属性埋め込みにより,目に見えるカテゴリと見当たらないカテゴリ間の意味バイアスを低減し,グラフ操作を用いてカテゴリ間の意味関係をキャプチャする。
さらに,各カテゴリの視覚的中心を個々の視覚的データポイントではなく,視覚的・視覚的バイアスを低減し,対応する意味属性と整合させることにより,埋め込み空間における意味的関係をさらに保存する。
最後に、unseenドメインにおけるセマンティクス・ビジュアルバイアスに対して、セマンティクスアライメント制約は、視覚空間とセマンティクス空間を教師なしの方法でアライメントするように設計されている。
いくつかのベンチマークによる評価は、CUB、AwA2、SUNデータセットの標準/一般ZSL設定に対して、82.8%/75.5%、97.1%/82.5%、73.2%/52.1%という提案手法の有効性を示している。
関連論文リスト
- Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Progressive Semantic-Visual Mutual Adaption for Generalized Zero-Shot
Learning [74.48337375174297]
一般化ゼロショット学習(GZSL)は、目に見えない領域から移行した知識によって、見えないカテゴリを特定する。
プロトタイプと視覚特徴の対応性を段階的にモデル化するために,デュアルセマンティック・ビジュアル・トランスフォーマーモジュール(DSVTM)をデプロイする。
DSVTMは、インスタンス中心のプロトタイプを学習して異なる画像に適応させる、インスタンス駆動セマンティックエンコーダを考案した。
論文 参考訳(メタデータ) (2023-03-27T15:21:43Z) - Cluster-based Contrastive Disentangling for Generalized Zero-Shot
Learning [25.92340532509084]
Generalized Zero-Shot Learning (GZSL) は、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
本稿では,クラスタベースのContrastive Disentangling(CCD)手法を提案する。
論文 参考訳(メタデータ) (2022-03-05T02:50:12Z) - Semantics-Guided Contrastive Network for Zero-Shot Object detection [67.61512036994458]
ゼロショット物体検出(ZSD)はコンピュータビジョンにおける新しい課題である。
ゼロショット検出の領域にコントラスト学習機構をもたらすフレームワークであるContrastZSDを開発した。
本手法は,ZSDタスクと一般化ZSDタスクの両方において,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2021-09-04T03:32:15Z) - Exploiting a Joint Embedding Space for Generalized Zero-Shot Semantic
Segmentation [25.070027668717422]
一般化ゼロショットセマンティックセマンティックセグメンテーション(GZS3)は、見えないクラスと見えないクラスのピクセルワイズセマンティックラベルを予測する。
ほとんどのGZS3メソッドは、対応するセマンティックなクラスから見えないクラスの視覚的特徴を合成する生成的アプローチを採用している。
統一されたフレームワークにおける制限に対処するための差別的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-14T13:33:58Z) - Domain-aware Visual Bias Eliminating for Generalized Zero-Shot Learning [150.42959029611657]
ドメイン対応ビジュアルバイアス除去(DVBE)ネットワークは2つの相補的な視覚表現を構成する。
目に見えない画像に対しては、最適なセマンティック・視覚アライメントアーキテクチャを自動で検索する。
論文 参考訳(メタデータ) (2020-03-30T08:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。