論文の概要: Comparison Knowledge Translation for Generalizable Image Classification
- arxiv url: http://arxiv.org/abs/2205.03633v1
- Date: Sat, 7 May 2022 11:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 09:24:53.868782
- Title: Comparison Knowledge Translation for Generalizable Image Classification
- Title(参考訳): 一般化画像分類のための比較知識翻訳
- Authors: Zunlei Feng, Tian Qiu, Sai Wu, Xiaotuan Jin, Zengliang He, Mingli
Song, Huiqiong Wang
- Abstract要約: 画像分類タスクにおいて,人間の認識機構をエミュレートする一般化可能なフレームワークを構築した。
本稿では,比較分類器とマッチング判別器を組み合わせた比較分類翻訳ネットワーク(CCT-Net)を提案する。
CCT-Netは、未確認カテゴリにおける驚くほどの一般化能力と、対象カテゴリにおけるSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 31.530232003512957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has recently achieved remarkable performance in image
classification tasks, which depends heavily on massive annotation. However, the
classification mechanism of existing deep learning models seems to contrast to
humans' recognition mechanism. With only a glance at an image of the object
even unknown type, humans can quickly and precisely find other same category
objects from massive images, which benefits from daily recognition of various
objects. In this paper, we attempt to build a generalizable framework that
emulates the humans' recognition mechanism in the image classification task,
hoping to improve the classification performance on unseen categories with the
support of annotations of other categories. Specifically, we investigate a new
task termed Comparison Knowledge Translation (CKT). Given a set of fully
labeled categories, CKT aims to translate the comparison knowledge learned from
the labeled categories to a set of novel categories. To this end, we put
forward a Comparison Classification Translation Network (CCT-Net), which
comprises a comparison classifier and a matching discriminator. The comparison
classifier is devised to classify whether two images belong to the same
category or not, while the matching discriminator works together in an
adversarial manner to ensure whether classified results match the truth.
Exhaustive experiments show that CCT-Net achieves surprising generalization
ability on unseen categories and SOTA performance on target categories.
- Abstract(参考訳): ディープラーニングは最近、大量のアノテーションに大きく依存する画像分類タスクで目覚ましいパフォーマンスを達成している。
しかし、既存のディープラーニングモデルの分類メカニズムは、人間の認識メカニズムとは対照的である。
未知のタイプの画像を見るだけで、人間は大量の画像から他の同じカテゴリーの物体を素早く正確に見つけることができ、それは様々な物体の日々の認識の恩恵を受ける。
本稿では,画像分類タスクにおける人間の認識機構を模倣する汎用フレームワークを構築し,他のカテゴリのアノテーションによる分類性能の向上を期待する。
具体的には、比較知識翻訳(CKT)と呼ばれる新しいタスクについて検討する。
CKTは、完全なラベル付きカテゴリのセットから、ラベル付きカテゴリから学んだ比較知識を、新しいカテゴリのセットに変換することを目的としている。
そこで我々は,比較分類器とマッチング判別器を組み合わせた比較分類翻訳ネットワーク(CCT-Net)を提案する。
比較分類器は、2つの画像が同一のカテゴリに属するか否かを分類するために考案され、一方、一致する判別器は、分類結果が真理に合致するかどうかを確認するために、敵対的に協力して動作する。
CCT-Netは、未確認カテゴリにおける驚くほどの一般化能力と、対象カテゴリにおけるSOTA性能を実現する。
関連論文リスト
- Enhancing Visual Classification using Comparative Descriptors [13.094102298155736]
比較記述子という新しい概念を導入する。
これらの記述子は、最も類似したクラスに対してターゲットクラスのユニークな特徴を強調し、差別化を強化する。
追加のフィルタリングプロセスにより、これらのディスクリプタがCLIP空間のイメージ埋め込みに近いことが保証される。
論文 参考訳(メタデータ) (2024-11-08T06:28:02Z) - ChatGPT-Powered Hierarchical Comparisons for Image Classification [12.126353699873281]
大規模言語モデル(LLM)に基づく画像分類のための新しいフレームワークを提案する。
クラスを階層に分類し、階層レベルで画像テキストの埋め込みを比較して分類し、直感的で効果的で説明可能なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-11-01T00:26:40Z) - Category Query Learning for Human-Object Interaction Classification [25.979131884959923]
従来のHOI手法とは違って,カテゴリクエリ学習と呼ばれる新しい補完的手法を提案する。
このアイデアは、初期のマルチラベル画像分類法によって動機付けられているが、人間と物体の相互作用分類に挑戦するタスクに初めて適用されたものである。
提案手法は3つのHOIベースラインで検証され,2つのベンチマークで新たな最先端結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T13:59:58Z) - Stable Attribute Group Editing for Reliable Few-shot Image Generation [88.59350889410794]
本稿では,編集ベースのフレームワークであるAttribute Group Editing (AGE) について述べる。
下流分類におけるGAN生成画像では,クラス不整合が一般的な問題であることがわかった。
我々は,SAGEの下流分類性能を,画素および周波数成分の増大により向上させることを提案する。
論文 参考訳(メタデータ) (2023-02-01T01:51:47Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Boosting few-shot classification with view-learnable contrastive
learning [19.801016732390064]
埋め込み空間の細粒度構造を学習するために,数ショットの分類に対照的な損失を導入する。
我々は,同じ画像の異なるビューを自動的に生成する学習学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-20T03:13:33Z) - Category Contrast for Unsupervised Domain Adaptation in Visual Tasks [92.9990560760593]
本稿では,視覚的 UDA タスクのインスタンス識別に先立って,セマンティックな事前情報を導入した新しいカテゴリコントラスト手法(CaCo)を提案する。
CaCoは既存のUDAメソッドを補完し、半教師付き学習や教師なしモデル適応などの他の学習設定に一般化可能である。
論文 参考訳(メタデータ) (2021-06-05T12:51:35Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Zero-Shot Recognition through Image-Guided Semantic Classification [9.291055558504588]
ゼロショット学習(ZSL)のための新しい埋め込み型フレームワークを提案する。
複数ラベル分類のための2値関係法により,画像と意味分類器のマッピングを逆学習する手法を提案する。
IGSCは概念的には単純であり、分類のための既存のディープアーキテクチャをわずかに拡張することで実現可能である。
論文 参考訳(メタデータ) (2020-07-23T06:22:40Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。