論文の概要: MelNet: A Real-Time Deep Learning Algorithm for Object Detection
- arxiv url: http://arxiv.org/abs/2401.17972v1
- Date: Wed, 31 Jan 2024 16:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:49:53.307534
- Title: MelNet: A Real-Time Deep Learning Algorithm for Object Detection
- Title(参考訳): MelNet:オブジェクト検出のためのリアルタイムディープラーニングアルゴリズム
- Authors: Yashar Azadvatan and Murat Kurt
- Abstract要約: MelNetはオブジェクト検出のための新しいディープラーニングアルゴリズムである。
KITTIデータセット専用のトレーニングも150時間後にEfficientDetを超えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, a novel deep learning algorithm for object detection, named
MelNet, was introduced. MelNet underwent training utilizing the KITTI dataset
for object detection. Following 300 training epochs, MelNet attained an mAP
(mean average precision) score of 0.732. Additionally, three alternative models
-YOLOv5, EfficientDet, and Faster-RCNN-MobileNetv3- were trained on the KITTI
dataset and juxtaposed with MelNet for object detection.
The outcomes underscore the efficacy of employing transfer learning in
certain instances. Notably, preexisting models trained on prominent datasets
(e.g., ImageNet, COCO, and Pascal VOC) yield superior results. Another finding
underscores the viability of creating a new model tailored to a specific
scenario and training it on a specific dataset. This investigation demonstrates
that training MelNet exclusively on the KITTI dataset also surpasses
EfficientDet after 150 epochs. Consequently, post-training, MelNet's
performance closely aligns with that of other pre-trained models.
- Abstract(参考訳): 本研究では,オブジェクト検出のための新しいディープラーニングアルゴリズムであるMelNetを紹介した。
MelNetは、オブジェクト検出にKITTIデータセットを使用したトレーニングを実施した。
300回のトレーニングの後、MelNetは平均精度0.732のmAPスコアを得た。
さらに、3つの代替モデル(YOLOv5、EfficientDet、Faster-RCNN-MobileNetv3)がKITTIデータセットでトレーニングされ、オブジェクト検出のためにMelNetと調整された。
その結果,特定事例における転帰学習の有効性が示唆された。
特に、著名なデータセット(ImageNet、COCO、Pascal VOCなど)でトレーニングされた既存のモデルの方が、優れた結果が得られる。
別の発見は、特定のシナリオに適した新しいモデルを作成し、特定のデータセットでそれをトレーニングする可能性を示している。
この調査は、KITTIデータセットでのみMelNetをトレーニングすることが150エポックの後にEfficientDetを上回ることを示している。
その結果、MelNetのパフォーマンスは他のトレーニング済みモデルと密接に一致している。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Transfer Learning for Wildlife Classification: Evaluating YOLOv8 against DenseNet, ResNet, and VGGNet on a Custom Dataset [0.0]
この研究は、データセット上で事前学習されたモデルを微調整するために転送学習を利用する。
YOLOv8は他のモデルより優れており、トレーニング精度97.39%、バリデーションF1スコア96.50%である。
論文 参考訳(メタデータ) (2024-07-10T15:03:00Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - TANet++: Triple Attention Network with Filtered Pointcloud on 3D
Detection [7.64943832687184]
TANetはKITTIおよびJRDBベンチマークにおける最先端の3Dオブジェクト検出手法の1つである。
本稿では,TANet++による3次元検出の性能向上を提案する。
弱いサンプルによる負の影響を減らすために、トレーニング戦略は以前トレーニングデータをフィルタリングし、TANet++は残りのデータによってトレーニングされる。
論文 参考訳(メタデータ) (2021-06-26T16:56:35Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - An analysis of deep neural networks for predicting trends in time series
data [0.0]
TreNetは、時系列データのトレンドを予測するためのハイブリッドディープニューラルネットワーク(DNN)アルゴリズムである。
ウォークフォワード検証法を用いて,同じデータセット上でTreNet実験を再現し,複数の独立したランで最適モデルを検証し,モデルの安定性を評価した。
一般的には、TreNetはバニラDNNモデルよりもパフォーマンスが良いが、オリジナルのTreNet研究で報告されたように、すべてのデータセット上では動作しない。
論文 参考訳(メタデータ) (2020-09-16T21:24:20Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。