論文の概要: deepNIR: Datasets for generating synthetic NIR images and improved fruit
detection system using deep learning techniques
- arxiv url: http://arxiv.org/abs/2203.09091v1
- Date: Thu, 17 Mar 2022 05:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 04:23:34.998894
- Title: deepNIR: Datasets for generating synthetic NIR images and improved fruit
detection system using deep learning techniques
- Title(参考訳): DeepNIR: 合成NIR画像生成のためのデータセットと深層学習技術を用いた果実検出システムの改良
- Authors: Inkyu Sa, JongYoon Lim, Ho Seok Ahn, Bruce MacDonald
- Abstract要約: 本稿では,合成近赤外(NIR)画像生成とバウンディングボックスレベルの果物検出システムに利用したデータセットを提案する。
11.36,26.53,40.15のFrechet Inception Distance(FID)をNirscene1,SEN12MS,甘辛料データセットでそれぞれ達成した。
データセットのバウンディングボックスの総数は162kで、クラウドサービスから使用可能である。
- 参考スコア(独自算出の注目度): 2.5191300830630126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents datasets utilised for synthetic near-infrared (NIR) image
generation and bounding-box level fruit detection systems. It is undeniable
that high-calibre machine learning frameworks such as Tensorflow or Pytorch,
and large-scale ImageNet or COCO datasets with the aid of accelerated GPU
hardware have pushed the limit of machine learning techniques for more than
decades. Among these breakthroughs, a high-quality dataset is one of the
essential building blocks that can lead to success in model generalisation and
the deployment of data-driven deep neural networks. In particular, synthetic
data generation tasks often require more training samples than other supervised
approaches. Therefore, in this paper, we share the NIR+RGB datasets that are
re-processed from two public datasets (i.e., nirscene and SEN12MS) and our
novel NIR+RGB sweet pepper(capsicum) dataset. We quantitatively and
qualitatively demonstrate that these NIR+RGB datasets are sufficient to be used
for synthetic NIR image generation. We achieved Frechet Inception Distance
(FID) of 11.36, 26.53, and 40.15 for nirscene1, SEN12MS, and sweet pepper
datasets respectively. In addition, we release manual annotations of 11 fruit
bounding boxes that can be exported as various formats using cloud service.
Four newly added fruits [blueberry, cherry, kiwi, and wheat] compound 11 novel
bounding box datasets on top of our previous work presented in the deepFruits
project [apple, avocado, capsicum, mango, orange, rockmelon, strawberry]. The
total number of bounding box instances of the dataset is 162k and it is ready
to use from cloud service. For the evaluation of the dataset, Yolov5 single
stage detector is exploited and reported impressive
mean-average-precision,mAP[0.5:0.95] results of[min:0.49, max:0.812]. We hope
these datasets are useful and serve as a baseline for the future studies.
- Abstract(参考訳): 本稿では,合成近赤外(NIR)画像生成とバウンディングボックスレベルの果物検出システムに用いるデータセットを提案する。
TensorflowやPytorchといった高度な機械学習フレームワークや、GPUハードウェアの高速化による大規模なImageNetやCOCOデータセットが、機械学習技術の限界を数十年以上押し上げたことは、疑いようもない。
これらのブレークスルーの中で、高品質なデータセットは、モデル一般化とデータ駆動のディープニューラルネットワークのデプロイの成功に繋がる重要なビルディングブロックの1つである。
特に、合成データ生成タスクは、他の教師付きアプローチよりも多くのトレーニングサンプルを必要とする。
そこで本論文では,NIR+RGB データセットを2つの公開データセット(例えば,Nircene と SEN12MS)と新規な NIR+RGB スイートペッパー(capsicum)データセットから再処理する。
我々は,これらのNIR+RGBデータセットが合成NIR画像生成に十分であることを示す。
11.36,26.53,40.15のFrechet Inception Distance(FID)をNirscene1,SEN12MS,甘辛料データセットでそれぞれ達成した。
さらに、クラウドサービスを使ってさまざまなフォーマットでエクスポートできる11のフルーツバウンディングボックスのマニュアルアノテーションもリリースしています。
deepfruitsプロジェクト(アップル、アボカド、カプシカム、マンゴー、オレンジ、ロックメロン、イチゴ)で紹介された以前の作業に加えて、新たに4つの果物(ブルーベリー、チェリー、キウイ、小麦)が新たに追加された。
データセットのバウンディングボックスインスタンスの総数は162kで、クラウドサービスから使用可能である。
データセットの評価には,Yolov5単段検出器を用い,平均精度,mAP[0.5:0.95],[min:0.49, max:0.812]の結果を報告する。
これらのデータセットが有用であり、将来の研究のベースラインになることを期待しています。
関連論文リスト
- Msmsfnet: a multi-stream and multi-scale fusion net for edge detection [6.1932429715357165]
エッジ検出は、コンピュータビジョンにおける長年の問題である。
最近のディープラーニングベースのアルゴリズムは、公開データセットで最先端のパフォーマンスを実現する。
しかし、それらのパフォーマンスは、ImageNetデータセット上のバックボーンネットワークのトレーニング済みの重みに大きく依存している。
論文 参考訳(メタデータ) (2024-04-07T08:03:42Z) - Textureless Object Recognition: An Edge-based Approach [0.0]
初期不均衡な小さなデータセットから堅牢な拡張データセットを作成します。
エッジ機能、機能の組み合わせ、機能/機能の組み合わせで強化されたRGBイメージを抽出して、15のデータセットを生成します。
実験と解析の結果から,RGB画像は3つのエッジ特徴を組み合わせて向上し,他の画像と比較した。
論文 参考訳(メタデータ) (2024-03-10T06:27:04Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - Image Classification on Small Datasets via Masked Feature Mixing [22.105356244579745]
ChimeraMixと呼ばれるアーキテクチャは、インスタンスの合成を生成することによってデータ拡張を学習する。
生成モデルは、画像をペアにエンコードし、マスクでガイドされた特徴を組み合わせて、新しいサンプルを作成する。
評価のために、すべてのメソッドは追加データなしでスクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-02-23T16:51:22Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - Dataset Distillation with Infinitely Wide Convolutional Networks [18.837952916998947]
分散カーネルをベースとしたメタラーニングフレームワークを用いて,データセット蒸留の最先端結果を実現する。
CIFAR-10画像分類タスクでは64%以上のテスト精度が得られた。
我々の現状は、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、SVHNの他の多くの設定にも及んでいる。
論文 参考訳(メタデータ) (2021-07-27T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。