論文の概要: Toward Errorless Training ImageNet-1k
- arxiv url: http://arxiv.org/abs/2508.04941v3
- Date: Tue, 19 Aug 2025 18:53:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 14:45:44.937889
- Title: Toward Errorless Training ImageNet-1k
- Title(参考訳): ImageNet-1kの誤訓練に向けて
- Authors: Bo Deng, Levi Heath,
- Abstract要約: 我々は、ImageNet 2012コンテストデータセットに基づいてトレーニングされたフィードフォワード人工ニューラルネットワークについて述べる。
最高の性能モデルは322,430,160のパラメータを使用し、4つの10桁の精度を持つ。
我々は、我々のモデルが100%精度を達成できない理由は、二重ラベル問題に起因すると推測する。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we describe a feedforward artificial neural network trained on the ImageNet 2012 contest dataset [7] with the new method of [5] to an accuracy rate of 98.3% with a 99.69 Top-1 rate, and an average of 285.9 labels that are perfectly classified over the 10 batch partitions of the dataset. The best performing model uses 322,430,160 parameters, with 4 decimal places precision. We conjecture that the reason our model does not achieve a 100% accuracy rate is due to a double-labeling problem, by which there are duplicate images in the dataset with different labels.
- Abstract(参考訳): 本稿では,ImageNet 2012 コンテストデータセット [7] でトレーニングされたフィードフォワード人工ニューラルネットワークを,99.69 Top-1 レートで 98.3% の精度で[5] の新たな手法で記述し,データセットの10バッチパーティションに対して完全に分類された平均 285.9 ラベルについて述べる。
最高の性能モデルは322,430,160のパラメータを使用し、4つの10桁の精度を持つ。
我々のモデルが100%精度を達成できない理由は、ラベルの異なるデータセットに重複した画像が存在するという二重ラベル問題によるものであると推測する。
関連論文リスト
- On the Image-Based Detection of Tomato and Corn leaves Diseases : An
in-depth comparative experiments [0.0]
本研究は、植物画像分類のための畳み込みニューラルネットワーク(CNN)に基づく、新しい植物病検出モデルを提案する。
このモデルは2つの異なる植物病を4つのカテゴリに分類し、植物病の同定のための新しいテクニックを提示する。
論文 参考訳(メタデータ) (2023-12-14T05:11:30Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - Invariant Learning via Diffusion Dreamed Distribution Shifts [121.71383835729848]
拡散ドリーム分布シフト(D3S)と呼ばれるデータセットを提案する。
D3Sは、テキストプロンプトを用いてStableDiffusionを通じて生成された合成画像と、サンプルフォアグラウンドイメージを背景テンプレートイメージにペーストした画像ガイドから構成される。
拡散モデルの驚くべきフォトリアリズムのため、我々の画像は以前の合成データセットよりも自然な画像に近い。
論文 参考訳(メタデータ) (2022-11-18T17:07:43Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - MIO : Mutual Information Optimization using Self-Supervised Binary Contrastive Learning [12.365801596593936]
我々は、事前学習タスクを二項分類問題としてモデル化し、暗黙的なコントラスト効果を誘導する。
既存の手法とは異なり、提案した損失関数は正対と負対の相互情報を最適化する。
提案手法は,ベンチマークデータセット上でのSOTA自己教師型コントラストフレームワークよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - Correlated Input-Dependent Label Noise in Large-Scale Image
Classification [4.979361059762468]
我々は、データセット内のラベルノイズとしてヘテロセダスティック(herescedastic, label noise)として知られる入力依存のモデリングに対して、原則的な確率論的アプローチをとる。
学習された共分散構造は、意味的に類似したクラスと共起するクラスの間のラベルノイズの既知の情報源をキャプチャする。
We set a new-of-the-art results on WebVision 1.0 with 76.6% top-1 accuracy。
論文 参考訳(メタデータ) (2021-05-19T17:30:59Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Pervasive Label Errors in Test Sets Destabilize Machine Learning
Benchmarks [12.992191397900806]
我々は、最もよく使われるコンピュータビジョン、自然言語、音声データセットの10のテストセットでラベルエラーを識別する。
例えば、2916のラベルエラーは、ImageNet検証セットの6%を占めています。
論文 参考訳(メタデータ) (2021-03-26T21:54:36Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。