論文の概要: CropMix: Sampling a Rich Input Distribution via Multi-Scale Cropping
- arxiv url: http://arxiv.org/abs/2205.15955v1
- Date: Tue, 31 May 2022 16:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 15:16:36.707445
- Title: CropMix: Sampling a Rich Input Distribution via Multi-Scale Cropping
- Title(参考訳): CropMix: マルチスケールクロッピングによるリッチな入力分布のサンプリング
- Authors: Junlin Han, Lars Petersson, Hongdong Li, Ian Reid
- Abstract要約: そこで本研究では,元のデータセット分布からリッチな入力分布を生成するための簡単なCropMixを提案する。
CropMixは、分類タスクを実行するトレーニングレシピやニューラルネットワークアーキテクチャにシームレスに適用することができる。
CropMixは、より強力な表現に向けて、対照的な学習とマスクされた画像モデリングの両方に利益があることを示す。
- 参考スコア(独自算出の注目度): 97.05377757299672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple method, CropMix, for the purpose of producing a rich
input distribution from the original dataset distribution. Unlike single random
cropping, which may inadvertently capture only limited information, or
irrelevant information, like pure background, unrelated objects, etc, we crop
an image multiple times using distinct crop scales, thereby ensuring that
multi-scale information is captured. The new input distribution, serving as
training data, useful for a number of vision tasks, is then formed by simply
mixing multiple cropped views. We first demonstrate that CropMix can be
seamlessly applied to virtually any training recipe and neural network
architecture performing classification tasks. CropMix is shown to improve the
performance of image classifiers on several benchmark tasks across-the-board
without sacrificing computational simplicity and efficiency. Moreover, we show
that CropMix is of benefit to both contrastive learning and masked image
modeling towards more powerful representations, where preferable results are
achieved when learned representations are transferred to downstream tasks. Code
is available at GitHub.
- Abstract(参考訳): 本稿では,オリジナルデータセット分布からリッチな入力分布を生成するための簡単な手法であるcropmixを提案する。
制限された情報のみを不注意にキャプチャする単一ランダムクロッピングや、純粋な背景、無関係なオブジェクトなどの無関係な情報と異なり、異なる作物スケールで複数回画像を収穫し、複数の規模の情報をキャプチャする。
新たな入力分布は、複数の視覚タスクに有用なトレーニングデータとして機能し、複数のトリミングされたビューを単純に混ぜて形成される。
まず,分類タスクを実行するトレーニングレシピやニューラルネットワークアーキテクチャに対して,cropmixをシームレスに適用できることを実証する。
CropMixは、計算の単純さと効率を犠牲にすることなく、複数のベンチマークタスクにおける画像分類器の性能を向上させる。
さらに,CropMixは,学習した表現が下流タスクに転送される場合に,より強力な表現に対して,コントラスト学習とマスク画像モデリングの両方の利点があることを示す。
コードはGitHubで入手できる。
関連論文リスト
- One Diffusion to Generate Them All [54.82732533013014]
OneDiffusionは双方向画像合成と理解をサポートする汎用的で大規模な拡散モデルである。
テキスト、深さ、ポーズ、レイアウト、セマンティックマップなどの入力から条件生成を可能にする。
OneDiffusionは、シーケンシャルな画像入力を使用して、マルチビュー生成、カメラポーズ推定、即時パーソナライズを可能にする。
論文 参考訳(メタデータ) (2024-11-25T12:11:05Z) - SpliceMix: A Cross-scale and Semantic Blending Augmentation Strategy for
Multi-label Image Classification [46.8141860303439]
マルチラベル画像分類,すなわちSpliceMixの簡易かつ効果的な拡張戦略を提案する。
本手法の「スプライス」は,1) 混合画像は, 混合に係わる画像のセマンティクスを, 共起バイアスを緩和するためのオブジェクト欠陥を伴わずにブレンドするグリッドの形で, 縮小された画像のスプライスであり, 2) 混合画像と元のミニバッチをスプリスして, 異なるスケールの画像を同時にトレーニングに寄与するSpliceMixed mini-batchを形成する。
論文 参考訳(メタデータ) (2023-11-26T05:45:27Z) - Enhanced Performance of Pre-Trained Networks by Matched Augmentation
Distributions [10.74023489125222]
列車-テストの分散シフトに対処するための簡単な解を提案する。
テスト画像に対して、複数のランダムな作物に対して結果を合成する。
これは列車の時間拡張と一致するだけでなく、入力画像の完全なカバレッジも提供する。
論文 参考訳(メタデータ) (2022-01-19T22:33:00Z) - Sample selection for efficient image annotation [14.695979686066066]
監視対象検出は、人間レベルのパフォーマンスを達成する多くのベンチマークデータセットで成功したことが証明されている。
ラベルなしデータセットから最も有益な画像をサンプリングする効率的な画像選択手法を提案する。
本手法は,完全な手動ラベリング設定と比較して,手動アノテーション作業の最大80%を削減でき,ランダムサンプリングよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-05-10T21:25:10Z) - ResizeMix: Mixing Data with Preserved Object Information and True Labels [57.00554495298033]
本研究は,データ混合におけるサリエンシー情報の重要性について検討し,サリエンシー情報は増補性能向上のために必要ではないことを見出した。
本稿では,より効率的で実装が容易なresizemix法を提案する。
論文 参考訳(メタデータ) (2020-12-21T03:43:13Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Variational Clustering: Leveraging Variational Autoencoders for Image
Clustering [8.465172258675763]
変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。
画像のクラスタリングに先立ってガウス混合を用いるVAEに基づく手法を提案する。
提案手法は,画像の潜伏分布と後部を捉える前処理を同時に学習し,データポイント間の識別に役立てる。
論文 参考訳(メタデータ) (2020-05-10T09:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。