論文の概要: Approaches of large-scale images recognition with more than 50,000
categoris
- arxiv url: http://arxiv.org/abs/2007.13072v1
- Date: Sun, 26 Jul 2020 07:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 20:04:24.310047
- Title: Approaches of large-scale images recognition with more than 50,000
categoris
- Title(参考訳): 50,000カテゴリス以上の大規模画像認識のアプローチ
- Authors: Wanhong Huang, Rui Geng
- Abstract要約: 本稿では,従来のCV技術を用いて,大規模種のデータセットを分類するための有効なソリューションを提供する。
我々は50,000以上のカテゴリを持つデータセットを使用し、すべての操作は、l 6GB RAMとCPUが3.OGHzの一般的なコンピュータ上で実行される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though current CV models have been able to achieve high levels of accuracy on
small-scale images classification dataset with hundreds or thousands of
categories, many models become infeasible in computational or space consumption
when it comes to large-scale dataset with more than 50,000 categories. In this
paper, we provide a viable solution for classifying large-scale species
datasets using traditional CV techniques such as.features extraction and
processing, BOVW(Bag of Visual Words) and some statistical learning technics
like Mini-Batch K-Means,SVM which are used in our works. And then mixed with a
neural network model. When applying these techniques, we have done some
optimization in time and memory consumption, so that it can be feasible for
large-scale dataset. And we also use some technics to reduce the impact of
mislabeling data. We use a dataset with more than 50, 000 categories, and all
operations are done on common computer with l 6GB RAM and a CPU of 3. OGHz. Our
contributions are: 1) analysis what problems may meet in the training
processes, and presents several feasible ways to solve these problems. 2) Make
traditional CV models combined with neural network models provide some feasible
scenarios for training large-scale classified datasets within the constraints
of time and spatial resources.
- Abstract(参考訳): 現在のCVモデルは、数百から数千のカテゴリの小さな画像分類データセットで高い精度を達成することができたが、50,000以上のカテゴリの大規模データセットに関しては、計算や空間消費では不可能になっている。
本稿では,従来のCV技術である.features extract and processing, BOVW(Bag of Visual Words),およびMini-Batch K-Means,SVMなどの統計学習技術を用いて,大規模種のデータセットを分類するための有効なソリューションを提案する。
そして、ニューラルネットワークモデルと混同する。
これらの手法を適用する際、我々は時間とメモリ消費を最適化し、大規模なデータセットで実現できるようにしました。
また、誤ったラベルデータの影響を減らすために、いくつかのテクニクスも使用しています。
私たちは、50,000以上のカテゴリのデータセットを使用し、すべての操作は、l6gb ramと3.3cpuの共通コンピュータ上で行われます。
OGHz。
私たちの貢献は
1) 学習過程においてどのような問題が生じるか分析し, これらの問題を解決するための実現可能な方法をいくつか提示する。
2) 従来のCVモデルとニューラルネットワークモデルを組み合わせることで、時間と空間資源の制約の中で大規模な分類データセットをトレーニングするためのシナリオが実現可能である。
関連論文リスト
- Quanv4EO: Empowering Earth Observation by means of Quanvolutional Neural Networks [62.12107686529827]
本稿は、大量のリモートセンシングデータの処理において、量子コンピューティング技術を活用することへの大きなシフトを取り上げる。
提案したQuanv4EOモデルでは,多次元EOデータを前処理するための準進化法が導入された。
主要な知見は,提案モデルが画像分類の精度を維持するだけでなく,EOのユースケースの約5%の精度向上を図っていることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T09:11:34Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - One Model is All You Need: Multi-Task Learning Enables Simultaneous
Histology Image Segmentation and Classification [3.8725005247905386]
組織領域のセグメンテーションと分類のためのマルチタスク学習手法を提案する。
一つのネットワークで同時予測を可能にする。
また,機能共有の結果,学習した表現が下流タスクの改善に有効であることを示す。
論文 参考訳(メタデータ) (2022-02-28T20:22:39Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - An introduction to distributed training of deep neural networks for
segmentation tasks with large seismic datasets [0.0]
本稿では,大規模ニューラルネットワークのトレーニングにおける2つの主な課題,メモリ制限と非現実的なトレーニング時間について述べる。
750GB以上のデータを、トレーニングバッチに必要なデータのみをメモリに格納するデータジェネレータアプローチを用いて、モデルトレーニングにどのように使用できるかを示す。
さらに、入力データ次元4096,4096の7層unetのトレーニングにより、大規模モデルに対する効率的なトレーニングを示す。
論文 参考訳(メタデータ) (2021-02-25T17:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。