論文の概要: What Makes ImageNet Look Unlike LAION
- arxiv url: http://arxiv.org/abs/2306.15769v2
- Date: Tue, 29 Oct 2024 17:13:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:37:43.289963
- Title: What Makes ImageNet Look Unlike LAION
- Title(参考訳): ImageNetがLAIONと違う理由
- Authors: Ali Shirali, Moritz Hardt,
- Abstract要約: LAIONetと呼ばれる結果のImageNetレクリエーションは、オリジナルとは明らかに異なる。
本稿では,2つの因果データ生成過程における微妙で重要な相違点について,厳密な説明を提案する。
我々は,イメージネット画像はステレオタイプであり,非自然であり,クラスカテゴリの過度に単純な表現である,というコミュニティの長年の直観を定式化している。
- 参考スコア(独自算出の注目度): 17.57896293096058
- License:
- Abstract: ImageNet was famously created from Flickr image search results. What if we recreated ImageNet instead by searching the massive LAION dataset based on image captions alone? In this work, we carry out this counterfactual investigation. We find that the resulting ImageNet recreation, which we call LAIONet, looks distinctly unlike the original. Specifically, the intra-class similarity of images in the original ImageNet is dramatically higher than it is for LAIONet. Consequently, models trained on ImageNet perform significantly worse on LAIONet. We propose a rigorous explanation for the discrepancy in terms of a subtle, yet important, difference in two plausible causal data-generating processes for the respective datasets, that we support with systematic experimentation. In a nutshell, searching based on an image caption alone creates an information bottleneck that mitigates the selection bias otherwise present in image-based filtering. Our explanation formalizes a long-held intuition in the community that ImageNet images are stereotypical, unnatural, and overly simple representations of the class category. At the same time, it provides a simple and actionable takeaway for future dataset creation efforts.
- Abstract(参考訳): ImageNetはFlickrの画像検索結果から作られたことで有名だ。
イメージキャプションだけで巨大なLAIONデータセットを検索することで、ImageNetを再生成した場合はどうでしょう?
本研究では, この問題について検討する。
LAIONetと呼ばれる結果のImageNetレクリエーションは、オリジナルとは明らかに異なる。
具体的には、オリジナルのImageNetにおける画像のクラス内類似性は、LAIONetよりも劇的に高い。
その結果、ImageNetでトレーニングされたモデルはLAIONetで大幅に悪化する。
本稿では,各データセットの因果データ生成過程の微妙で重要な相違点について,その相違点を厳密に説明し,系統的な実験で支援する。
簡単に言えば、画像キャプションのみに基づく検索は、画像ベースのフィルタリングに存在しない選択バイアスを緩和する情報ボトルネックを生成する。
我々は,イメージネット画像はステレオタイプであり,非自然であり,クラスカテゴリの過度に単純な表現である,というコミュニティの長年の直観を定式化している。
同時に、将来のデータセット作成の取り組みに対して、シンプルで実用的な取り組みを提供する。
関連論文リスト
- ImageNot: A contrast with ImageNet preserves model rankings [16.169858780154893]
私たちは、ImageNetのスケールに合わせて設計されたデータセットであるImageNotを紹介します。
長年にわたってImageNetのために開発された主要なモデルアーキテクチャは、ImageNotでトレーニングされ評価された時に同じランクにランク付けされた。
論文 参考訳(メタデータ) (2024-04-02T17:13:04Z) - Describing Differences in Image Sets with Natural Language [101.80939666230168]
モデルの振る舞いを理解し、データセットを分析するためには、セットレベルの差異を識別することが不可欠である。
本稿では、まずイメージをキャプションし、言語モデルに差分記述を提案するVisDiffを紹介する。
データセットとモデルにこれまで知られていなかった興味深い違いを見つけることができ、微妙な洞察を明らかにする上で、VisDiffの実用性を示すことができます。
論文 参考訳(メタデータ) (2023-12-05T18:59:16Z) - Spurious Features Everywhere -- Large-Scale Detection of Harmful
Spurious Features in ImageNet [36.48282338829549]
本稿では,ImageNetのような大規模データセットにおいて,突発的特徴を体系的に識別するフレームワークを開発する。
我々は,クラス単独で有害な刺激的特徴の存在が,そのクラスの予測を誘発するのに十分であることを示すことによって,その結果を検証する。
我々はSpuFixを単純な緩和法として導入し、これまで同定された有害なスプリアス機能に対するImageNet分類器の依存を減らす。
論文 参考訳(メタデータ) (2022-12-09T14:23:25Z) - Inverse Image Frequency for Long-tailed Image Recognition [59.40098825416675]
Inverse Image Frequency (IIF) と呼ばれる新しいデバイアス法を提案する。
IIFは畳み込みニューラルネットワークの分類層におけるロジットの乗法的マージン調整変換である。
我々の実験では、IIFは長い尾のベンチマークにおいて、最先端の技術を超越していることが示されている。
論文 参考訳(メタデータ) (2022-09-11T13:31:43Z) - Identical Image Retrieval using Deep Learning [0.0]
私たちは最先端のモデルであるBigTransfer Modelを使用しています。
我々は、K-Nearest Neighborモデルで重要な特徴を抽出し、最も近い隣人を得るために訓練する。
本モデルの応用は,低推論時間でテキストクエリによって実現し難い,類似した画像を見つけることである。
論文 参考訳(メタデータ) (2022-05-10T13:34:41Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Is it Enough to Optimize CNN Architectures on ImageNet? [0.0]
我々は、ImageNetと他の8つの画像分類データセットで500のCNNアーキテクチャをトレーニングする。
アーキテクチャとパフォーマンスの関係はデータセットによって大きく異なる。
2つのデータセット固有のパフォーマンス指標を識別した:層間の累積幅とネットワーク全体の深さである。
論文 参考訳(メタデータ) (2021-03-16T14:42:01Z) - Are we done with ImageNet? [86.01120671361844]
我々は、ImageNetバリデーションセットの人間のアノテーションを収集するための、より堅牢な手順を開発する。
我々は最近提案されたImageNet分類器の精度を再評価し、その精度は元のラベルで報告されたものよりもかなり小さいことがわかった。
オリジナルのImageNetラベルは、もはやこの独立に収集されたセットの最良の予測者ではなく、ビジョンモデルの評価における彼らの有用性が終わりに近づいていることを示している。
論文 参考訳(メタデータ) (2020-06-12T13:17:25Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。