論文の概要: MelNet: A Real-Time Deep Learning Algorithm for Object Detection
- arxiv url: http://arxiv.org/abs/2401.17972v1
- Date: Wed, 31 Jan 2024 16:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:49:53.307534
- Title: MelNet: A Real-Time Deep Learning Algorithm for Object Detection
- Title(参考訳): MelNet:オブジェクト検出のためのリアルタイムディープラーニングアルゴリズム
- Authors: Yashar Azadvatan and Murat Kurt
- Abstract要約: MelNetはオブジェクト検出のための新しいディープラーニングアルゴリズムである。
KITTIデータセット専用のトレーニングも150時間後にEfficientDetを超えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, a novel deep learning algorithm for object detection, named
MelNet, was introduced. MelNet underwent training utilizing the KITTI dataset
for object detection. Following 300 training epochs, MelNet attained an mAP
(mean average precision) score of 0.732. Additionally, three alternative models
-YOLOv5, EfficientDet, and Faster-RCNN-MobileNetv3- were trained on the KITTI
dataset and juxtaposed with MelNet for object detection.
The outcomes underscore the efficacy of employing transfer learning in
certain instances. Notably, preexisting models trained on prominent datasets
(e.g., ImageNet, COCO, and Pascal VOC) yield superior results. Another finding
underscores the viability of creating a new model tailored to a specific
scenario and training it on a specific dataset. This investigation demonstrates
that training MelNet exclusively on the KITTI dataset also surpasses
EfficientDet after 150 epochs. Consequently, post-training, MelNet's
performance closely aligns with that of other pre-trained models.
- Abstract(参考訳): 本研究では,オブジェクト検出のための新しいディープラーニングアルゴリズムであるMelNetを紹介した。
MelNetは、オブジェクト検出にKITTIデータセットを使用したトレーニングを実施した。
300回のトレーニングの後、MelNetは平均精度0.732のmAPスコアを得た。
さらに、3つの代替モデル(YOLOv5、EfficientDet、Faster-RCNN-MobileNetv3)がKITTIデータセットでトレーニングされ、オブジェクト検出のためにMelNetと調整された。
その結果,特定事例における転帰学習の有効性が示唆された。
特に、著名なデータセット(ImageNet、COCO、Pascal VOCなど)でトレーニングされた既存のモデルの方が、優れた結果が得られる。
別の発見は、特定のシナリオに適した新しいモデルを作成し、特定のデータセットでそれをトレーニングする可能性を示している。
この調査は、KITTIデータセットでのみMelNetをトレーニングすることが150エポックの後にEfficientDetを上回ることを示している。
その結果、MelNetのパフォーマンスは他のトレーニング済みモデルと密接に一致している。
関連論文リスト
- KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Active Transfer Prototypical Network: An Efficient Labeling Algorithm
for Time-Series Data [1.7205106391379026]
本稿では,プロトタイプネットワーク(ProtoNet)をALイテレーションに組み込むことで,トレードオフ問題に対処する新しいFew-Shot Learning(FSL)ベースのALフレームワークを提案する。
このフレームワークは、UCI HAR/HAPTデータセットと現実世界のブレーキ操作データセットに基づいて検証された。
学習性能は、両方のデータセットにおける従来のALアルゴリズムを大幅に上回り、それぞれ10%と5%のラベル付け作業で90%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-09-28T16:14:40Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - TANet++: Triple Attention Network with Filtered Pointcloud on 3D
Detection [7.64943832687184]
TANetはKITTIおよびJRDBベンチマークにおける最先端の3Dオブジェクト検出手法の1つである。
本稿では,TANet++による3次元検出の性能向上を提案する。
弱いサンプルによる負の影響を減らすために、トレーニング戦略は以前トレーニングデータをフィルタリングし、TANet++は残りのデータによってトレーニングされる。
論文 参考訳(メタデータ) (2021-06-26T16:56:35Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - An analysis of deep neural networks for predicting trends in time series
data [0.0]
TreNetは、時系列データのトレンドを予測するためのハイブリッドディープニューラルネットワーク(DNN)アルゴリズムである。
ウォークフォワード検証法を用いて,同じデータセット上でTreNet実験を再現し,複数の独立したランで最適モデルを検証し,モデルの安定性を評価した。
一般的には、TreNetはバニラDNNモデルよりもパフォーマンスが良いが、オリジナルのTreNet研究で報告されたように、すべてのデータセット上では動作しない。
論文 参考訳(メタデータ) (2020-09-16T21:24:20Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。