論文の概要: Classification of Beer Bottles using Object Detection and Transfer
Learning
- arxiv url: http://arxiv.org/abs/2201.03791v1
- Date: Tue, 11 Jan 2022 05:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 18:59:54.217800
- Title: Classification of Beer Bottles using Object Detection and Transfer
Learning
- Title(参考訳): 物体検出と移動学習を用いたビールボトルの分類
- Authors: Philipp Hohlfeld, Tobias Ostermeier, Dominik Brandl
- Abstract要約: 本稿では,ビールボトルの画像を2段階のアプローチで分類する深層学習モデルを提案する。
挑戦が終わった後、100%の正確さを達成できた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification problems are common in Computer Vision. Despite this, there is
no dedicated work for the classification of beer bottles. As part of the
challenge of the master course Deep Learning, a dataset of 5207 beer bottle
images and brand labels was created. An image contains exactly one beer bottle.
In this paper we present a deep learning model which classifies pictures of
beer bottles in a two step approach. As the first step, a Faster-R-CNN detects
image sections relevant for classification independently of the brand. In the
second step, the relevant image sections are classified by a ResNet-18. The
image section with the highest confidence is returned as class label. We
propose a model, with which we surpass the classic one step transfer learning
approach and reached an accuracy of 99.86% during the challenge on the final
test dataset. We were able to achieve 100% accuracy after the challenge ended
- Abstract(参考訳): 分類問題はコンピュータビジョンでよく見られる。
それにもかかわらず、ビール瓶の分類には専用の作業はない。
マスターコースのDeep Learningの課題の一環として、5207個のビールボトルの画像とブランドラベルのデータセットが作成された。
画像にはちょうど1つのビールボトルが含まれています。
本稿では,ビールボトルの画像を2段階のアプローチで分類する深層学習モデルを提案する。
最初のステップとして、Faster-R-CNNはブランドとは独立して分類に関連する画像区間を検出する。
第2ステップでは、関連する画像セクションをResNet-18で分類する。
最も信頼度の高い画像セクションはクラスラベルとして返される。
最終テストデータセットの課題において、古典的な1ステップのトランスファー学習アプローチを超越し、99.86%の精度に達したモデルを提案する。
挑戦が終わった後、100%の精度で達成できた
関連論文リスト
- Distilling Datasets Into Less Than One Image [39.08927346274156]
データセットの蒸留の境界を押し、データセットをクラスごとの画像以下に圧縮する。
本手法は, CIFAR-10, CIFAR-100, CUB200に対して, 0.3画像/クラスで新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-18T17:59:49Z) - Few-shot Class-Incremental Semantic Segmentation via Pseudo-Labeling and
Knowledge Distillation [3.4436201325139737]
セマンティックセグメンテーションモデルのための新しいクラスをいくつかの例から学習する問題に対処する。
限られたデータから学習するために、数発のトレーニングアノテーションを増強する擬似ラベル方式を提案する。
上記のステップを、統一的な学習目標を持つ単一の畳み込みニューラルネットワークに統合する。
論文 参考訳(メタデータ) (2023-08-05T05:05:37Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - From colouring-in to pointillism: revisiting semantic segmentation
supervision [48.637031591058175]
本稿では,意味的セグメンテーションアノテーションに対するポジリスト的アプローチを提案する。
Open Imagesデータセットで4,171のクラスに2260万のポイントラベルを収集してリリースしました。
論文 参考訳(メタデータ) (2022-10-25T16:42:03Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。