論文の概要: The challenge of representation learning: Improved accuracy in deep
vision models does not come with better predictions of perceptual similarity
- arxiv url: http://arxiv.org/abs/2303.07084v1
- Date: Mon, 13 Mar 2023 13:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:59:10.930143
- Title: The challenge of representation learning: Improved accuracy in deep
vision models does not come with better predictions of perceptual similarity
- Title(参考訳): 表現学習の課題:深部視覚モデルにおける精度の向上は知覚的類似性のより良い予測を伴わない
- Authors: Fritz G\"unther, Marco Marelli, Marco Alessandro Petilli
- Abstract要約: 画像分類精度の向上は、大規模行動データセットの性能向上とは関係がない。
より正確な分類は、非常に類似したクラス間の非常にきめ細かい区別に向けたハイパーエンジニアリングによってもたらされる。
- 参考スコア(独自算出の注目度): 0.17205106391379024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the last years, advancements in deep learning models for computer vision
have led to a dramatic improvement in their image classification accuracy.
However, models with a higher accuracy in the task they were trained on do not
necessarily develop better image representations that allow them to also
perform better in other tasks they were not trained on. In order to investigate
the representation learning capabilities of prominent high-performing computer
vision models, we investigated how well they capture various indices of
perceptual similarity from large-scale behavioral datasets. We find that higher
image classification accuracy rates are not associated with a better
performance on these datasets, and in fact we observe no improvement in
performance since GoogLeNet (released 2015) and VGG-M (released 2014). We
speculate that more accurate classification may result from hyper-engineering
towards very fine-grained distinctions between highly similar classes, which
does not incentivize the models to capture overall perceptual similarities.
- Abstract(参考訳): 過去数年間、コンピュータビジョンのためのディープラーニングモデルの進歩は、画像分類の精度を劇的に向上させた。
しかし、訓練されたタスクの精度が高いモデルは、訓練されていない他のタスクでもより良いパフォーマンスを発揮できるように、より良いイメージ表現を開発する必要はない。
本研究では,高パフォーマンスコンピュータビジョンモデルの表現学習能力を検討するために,大規模行動データセットから知覚的類似度を示す指標を捉えた。
画像分類精度の向上は,これらのデータセットの性能向上に結びついておらず,実際にGoogLeNet(2015年リリース)やVGG-M(2014年リリース)以降のパフォーマンス向上は観測されていない。
より正確な分類は、非常に類似したクラス間の非常にきめ細かい区別に向けたハイパーエンジニアリングによってもたらされる可能性があると推測する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Diverse Imagenet Models Transfer Better [10.6046072921331]
モデルにより学習される特徴の多様さは、画像ネットの精度と共同で転送可能性を促進することを示す。
本稿では,自己教師と教師付き事前学習を組み合わせたモデル生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T21:26:58Z) - No One Representation to Rule Them All: Overlapping Features of Training
Methods [12.58238785151714]
ハイパフォーマンスモデルは、トレーニング方法論に関係なく、同様の予測をする傾向があります。
近年の研究では、大規模なコントラスト学習など、非常に異なるトレーニングテクニックが、競争的に高い精度で実現されている。
これらのモデルはデータの一般化に特化しており、より高いアンサンブル性能をもたらす。
論文 参考訳(メタデータ) (2021-10-20T21:29:49Z) - Efficient Action Recognition Using Confidence Distillation [9.028144245738247]
本研究では,教師の不確実性の表現を学生に教える信頼性蒸留フレームワークを提案する。
我々は3つの行動認識データセットに関する広範な実験を行い、我々のフレームワークが、行動認識精度(最大20%)と計算効率(40%以上)の大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-05T18:25:49Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - How Well Do Self-Supervised Models Transfer? [92.16372657233394]
我々は、40の下流タスクにおいて、トップ13の自己教師型モデルの転送性能を評価する。
ImageNet Top-1の精度は、マルチショット認識への転送と非常に相関している。
全体としては、単一の自己監督的手法が支配的ではなく、普遍的な事前訓練がまだ未解決であることを示唆している。
論文 参考訳(メタデータ) (2020-11-26T16:38:39Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。