論文の概要: Observations on K-image Expansion of Image-Mixing Augmentation for
Classification
- arxiv url: http://arxiv.org/abs/2110.04248v1
- Date: Fri, 8 Oct 2021 16:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 14:32:34.223893
- Title: Observations on K-image Expansion of Image-Mixing Augmentation for
Classification
- Title(参考訳): 分類用画像ミキシング拡大K像の観察
- Authors: Joonhyun Jeong, Sungmin Cha, Youngjoon Yoo, Sangdoo Yun, Taesup Moon,
and Jongwon Choi
- Abstract要約: 本論文は, ディリクレ前処理に基づく新しいK-image混合増量法を導出する。
本手法は,従来の2画像法よりも,分類精度,損失ランドスケープの形状,対向ロバスト性などの広範な実験と解析により,より堅牢で一般化された分類器を訓練できることを示す。
- 参考スコア(独自算出の注目度): 33.99556142456945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-mixing augmentations (e.g., Mixup or CutMix), which typically mix two
images, have become de-facto training tricks for image classification. Despite
their huge success on image classification, the number of images to mix has not
been profoundly investigated by the previous works, only showing the naive
K-image expansion leads to poor performance degradation. This paper derives a
new K-image mixing augmentation based on the stick-breaking process under
Dirichlet prior. We show that our method can train more robust and generalized
classifiers through extensive experiments and analysis on classification
accuracy, a shape of a loss landscape and adversarial robustness, than the
usual two-image methods. Furthermore, we show that our probabilistic model can
measure the sample-wise uncertainty and can boost the efficiency for Network
Architecture Search (NAS) with 7x reduced search time.
- Abstract(参考訳): イメージミキシング強化(MixupやCutMixなど)は通常2つのイメージを混合するが、画像分類のためのデファクトトレーニングトリックとなっている。
画像分類で大きな成功を収めたにもかかわらず、ミックスする画像の数は以前の作品では深く調査されておらず、単純なk画像拡張を示すだけでは性能が低下しない。
本論文は, ディリクレ前処理に基づく新しいK-image混合増量法を導出する。
本手法は,従来の2画像法よりも,分類精度,損失ランドスケープの形状,対向ロバスト性などの広範な実験と解析により,より堅牢で一般化された分類器を訓練できることを示す。
さらに,本モデルではサンプル単位の不確かさを計測でき,検索時間の7倍削減したネットワークアーキテクチャ探索 (nas) の効率を向上できることを示す。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Inter-Instance Similarity Modeling for Contrastive Learning [22.56316444504397]
視覚変換器(ViT)におけるコントラスト学習のための新しい画像混合手法であるPatchMixを提案する。
既存のサンプルミキシング手法と比較して、我々のPatchMixは2つ以上の画像を柔軟に効率的に混ぜることができる。
提案手法は,ImageNet-1KとCIFARの両方のデータセットにおいて,従来の最先端技術よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-06-21T13:03:47Z) - CropMix: Sampling a Rich Input Distribution via Multi-Scale Cropping [97.05377757299672]
そこで本研究では,元のデータセット分布からリッチな入力分布を生成するための簡単なCropMixを提案する。
CropMixは、分類タスクを実行するトレーニングレシピやニューラルネットワークアーキテクチャにシームレスに適用することができる。
CropMixは、より強力な表現に向けて、対照的な学習とマスクされた画像モデリングの両方に利益があることを示す。
論文 参考訳(メタデータ) (2022-05-31T16:57:28Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Fast Hybrid Image Retargeting [0.0]
本稿では,コンテント・アウェア・トリミングを用いて歪みを定量化し,抑制する手法を提案する。
我々の手法は,実行時間のごく一部で実行しながら,最近の手法より優れています。
論文 参考訳(メタデータ) (2022-03-25T11:46:06Z) - Towards robustness under occlusion for face recognition [0.0]
本稿では,ResNetのバックボーンを用いた顔認識パイプラインの性能に及ぼすオクルージョンの影響を評価する。
入力画像に適用した8種類のオクルージョンマスクを設計した。
閉塞下でのロバスト性を高めるために,我々は2つのアプローチを踏襲した。
2つ目はCutmixで、長方形のパッチを使ってトレーニング画像とラベルを混ぜる正規化戦略である。
論文 参考訳(メタデータ) (2021-09-19T08:27:57Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - ResizeMix: Mixing Data with Preserved Object Information and True Labels [57.00554495298033]
本研究は,データ混合におけるサリエンシー情報の重要性について検討し,サリエンシー情報は増補性能向上のために必要ではないことを見出した。
本稿では,より効率的で実装が容易なresizemix法を提案する。
論文 参考訳(メタデータ) (2020-12-21T03:43:13Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。