論文の概要: Using Wavelets to Analyze Similarities in Image-Classification Datasets
- arxiv url: http://arxiv.org/abs/2002.10257v2
- Date: Mon, 18 May 2020 01:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:29:13.803858
- Title: Using Wavelets to Analyze Similarities in Image-Classification Datasets
- Title(参考訳): ウェーブレットを用いた画像分類データセットの類似性解析
- Authors: Roozbeh Yousefzadeh
- Abstract要約: 画像分類データセットの類似性を分析するための実用的で高速な手法を開発した。
本手法では,事前学習したモデルを必要としない画像や他の数値解析ツールのウェーブレット分解を用いる。
標準データセットの類似画像は数秒で識別できることを示し、文献の代替手法に比べて大幅に高速化された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning image classifiers usually rely on huge training sets and their
training process can be described as learning the similarities and differences
among training images. But, images in large training sets are not usually
studied from this perspective and fine-level similarities and differences among
images is usually overlooked. This is due to lack of fast and efficient
computational methods to analyze the contents of these datasets. Some studies
aim to identify the influential and redundant training images, but such methods
require a model that is already trained on the entire training set. Here, using
image processing and numerical analysis tools we develop a practical and fast
method to analyze the similarities in image classification datasets. We show
that such analysis can provide valuable insights about the datasets and the
classification task at hand, prior to training a model. Our method uses wavelet
decomposition of images and other numerical analysis tools, with no need for a
pre-trained model. Interestingly, the results we obtain corroborate the
previous results in the literature that analyzed the similarities using
pre-trained CNNs. We show that similar images in standard datasets (such as
CIFAR) can be identified in a few seconds, a significant speed-up compared to
alternative methods in the literature. By removing the computational speed
obstacle, it becomes practical to gain new insights about the contents of
datasets and the models trained on them. We show that similarities between
training and testing images may provide insights about the generalization of
models. Finally, we investigate the similarities between images in relation to
decision boundaries of a trained model.
- Abstract(参考訳): ディープラーニングイメージ分類器は通常、巨大なトレーニングセットに依存しており、トレーニングプロセスはトレーニングイメージ間の類似点と相違点を学ぶものとして記述することができる。
しかし、大きなトレーニングセットにある画像は、通常この観点からは研究されておらず、画像間の微妙な類似性や差異は見過ごされがちである。
これはこれらのデータセットの内容を分析するための高速で効率的な計算方法がないためである。
いくつかの研究は、影響的かつ冗長なトレーニングイメージを特定することを目的としているが、そのような方法はトレーニングセット全体において既に訓練されているモデルを必要とする。
本稿では,画像処理と数値解析ツールを用いて,画像分類データセットの類似性を分析するための実用的で高速な手法を提案する。
このような分析は,モデルのトレーニングに先立って,データセットと分類タスクに関する貴重な洞察を提供することができることを示す。
本手法では,事前学習したモデルを必要としない画像や他の数値解析ツールのウェーブレット分解を用いる。
興味深いことに、事前学習したCNNを用いて類似性を解析した文献において、前回の結果を裏付ける結果が得られる。
標準データセット(cifarなど)の類似画像は数秒で識別できるため、文献の代替手法に比べて大幅な高速化が期待できる。
計算速度の障害を取り除くことで、データセットの内容とトレーニングされたモデルに関する新たな洞察を得ることが可能となる。
トレーニング画像とテスト画像の類似性は,モデルの一般化に関する洞察を与える可能性がある。
最後に,訓練モデルの決定境界に関する画像間の類似性について検討する。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - CorrEmbed: Evaluating Pre-trained Model Image Similarity Efficacy with a
Novel Metric [6.904776368895614]
我々は、CorrEmbedという新しいアプローチを用いて、事前訓練されたコンピュータビジョンモデルから画像埋め込みの有効性を評価する。
本研究では,画像埋め込みにおける距離と人為的タグベクトルにおける距離との相関を計算した。
また,このパターンからの逸脱を同定し,異なるモデルが高レベル画像の特徴をどのように捉えているかについての洞察を与える。
論文 参考訳(メタデータ) (2023-08-30T16:23:07Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - Compound Figure Separation of Biomedical Images: Mining Large Datasets
for Self-supervised Learning [12.445324044675116]
本稿では,リソースの広範なバウンディングボックスアノテーションの必要性を最小限に抑えるシミュレーションベースのトレーニングフレームワークを提案する。
また,合成図形分離に最適化された新たなサイドロスを提案する。
本研究は,複合画像分離による自己教師あり学習の有効性を評価する最初の研究である。
論文 参考訳(メタデータ) (2022-08-30T16:02:34Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Evaluating Contrastive Models for Instance-based Image Retrieval [6.393147386784114]
画像検索タスクにおけるコントラストモデルの評価を行う。
対照的な手法を用いてトレーニングされたモデルは、ImageNetラベルに基づいてトレーニングされたトレーニング済みベースラインとオンパー(およびパフォーマンス)を実行する。
論文 参考訳(メタデータ) (2021-04-30T12:05:23Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。