論文の概要: Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition
- arxiv url: http://arxiv.org/abs/2004.02684v2
- Date: Thu, 9 Jul 2020 09:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:05:32.147270
- Title: Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition
- Title(参考訳): attribute mix: きめ細かな認識のためのセマンティックデータ拡張
- Authors: Hao Li, Xiaopeng Zhang, Hongkai Xiong, Qi Tian
- Abstract要約: 本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
- 参考スコア(独自算出の注目度): 102.45926816660665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collecting fine-grained labels usually requires expert-level domain knowledge
and is prohibitive to scale up. In this paper, we propose Attribute Mix, a data
augmentation strategy at attribute level to expand the fine-grained samples.
The principle lies in that attribute features are shared among fine-grained
sub-categories, and can be seamlessly transferred among images. Toward this
goal, we propose an automatic attribute mining approach to discover attributes
that belong to the same super-category, and Attribute Mix is operated by mixing
semantically meaningful attribute features from two images. Attribute Mix is a
simple but effective data augmentation strategy that can significantly improve
the recognition performance without increasing the inference budgets.
Furthermore, since attributes can be shared among images from the same
super-category, we further enrich the training samples with attribute level
labels using images from the generic domain. Experiments on widely used
fine-grained benchmarks demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): きめ細かいラベルの収集は通常、専門家レベルのドメイン知識を必要とし、スケールアップは禁止される。
本稿では,属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
この目的に向けて,同じスーパーカテゴリに属する属性を検出する自動属性マイニング手法を提案し,2つの画像から意味的に意味のある属性特徴を混合して属性混合を行う。
Attribute Mixはシンプルなが効果的なデータ拡張戦略であり、推論予算を増やすことなく認識性能を大幅に改善することができる。
さらに、属性は同一のスーパーカテゴリの画像間で共有できるので、ジェネリックドメインの画像を使用して属性レベルラベルでトレーニングサンプルをさらに強化する。
広く用いられている細粒度ベンチマーク実験により,提案手法の有効性が実証された。
関連論文リスト
- Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Attributes Grouping and Mining Hashing for Fine-Grained Image Retrieval [24.8065557159198]
微粒な画像検索のための属性グループとマイニングハッシュ(AGMH)を提案する。
AGMHはカテゴリ固有の視覚属性を複数の記述子にグループ化し、包括的特徴表現を生成する。
AGMHは、きめ細かいベンチマークデータセットの最先端メソッドに対して、一貫して最高のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-11-10T14:01:56Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Multi-Objective Few-shot Learning for Fair Classification [23.05869193599414]
本稿では,データ内の二次属性に対する予測クラスの相違を緩和する枠組みを提案する。
提案手法は,データから一次クラスラベルを予測することの主目的を学習することに加えて,クラスタメンバシップに対するクラスラベル分布の差異を最小限に抑えるためにクラスタリングをベースとした多目的関数を学習することを含む。
論文 参考訳(メタデータ) (2021-10-05T11:28:58Z) - Effectively Leveraging Attributes for Visual Similarity [52.2646549020835]
Pairwise Attribute-Informed similarity Network (PAN) を提案する。このネットワークは、類似性学習を2つの画像の共同表現から類似性条件と関連性スコアをキャプチャする。
PANは、Polyvore Outfits上の服品間の互換性予測を4-9%改善し、Caltech-UCSD Birds (CUB)を使用した画像の少数分類で5%向上し、In-Shop Clothes RetrievalでRecall@1に1%アップした。
論文 参考訳(メタデータ) (2021-05-04T18:28:35Z) - Matched sample selection with GANs for mitigating attribute confounding [30.488267816304177]
保護属性間の属性分布のバランスのとれたフルデータセットから画像のサブセットを選択するマッチングアプローチを提案する。
私たちのマッチングアプローチでは、セマンティック属性を保存する方法で、まず実際の画像を生成ネットワークの潜在空間に投影します。
次に、選択された保護属性にまたがるこの潜在空間で敵の一致を見つけ、セマンティクスと知覚属性が保護属性間でバランスをとるデータセットを生成する。
論文 参考訳(メタデータ) (2021-03-24T19:18:44Z) - Learning to Infer Unseen Attribute-Object Compositions [55.58107964602103]
単一属性と多属性オブジェクトの両方を柔軟に認識できるグラフベースモデルを提案する。
我々は116,099の画像と8,030の合成カテゴリを持つ大規模マルチ属性データセットを構築した。
論文 参考訳(メタデータ) (2020-10-27T14:57:35Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。