論文の概要: Improved detection of discarded fish species through BoxAL active learning
- arxiv url: http://arxiv.org/abs/2410.04880v1
- Date: Mon, 7 Oct 2024 10:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 01:27:55.642741
- Title: Improved detection of discarded fish species through BoxAL active learning
- Title(参考訳): BoxAL 能動学習による廃棄魚種の検出の改善
- Authors: Maria Sokolova, Pieter M. Blok, Angelo Mencarelli, Arjan Vroegop, Aloysius van Helmond, Gert Kootstra,
- Abstract要約: 本研究では,より高速なR-CNNオブジェクト検出モデルの認識精度を推定する,BoxALという能動的学習手法を提案する。
この方法では、未ラベルのプールから最も不確実なトレーニングイメージを選択し、オブジェクト検出モデルのトレーニングに使用することができる。
また,本研究では,サンプル化した新データが,未ラベルデータよりもトレーニングに有用であることが確認された。
- 参考スコア(独自算出の注目度): 0.2544632696242629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, powerful data-driven deep-learning techniques have been developed and applied for automated catch registration. However, these methods are dependent on the labelled data, which is time-consuming, labour-intensive, expensive to collect and need expert knowledge. In this study, we present an active learning technique, named BoxAL, which includes estimation of epistemic certainty of the Faster R-CNN object-detection model. The method allows selecting the most uncertain training images from an unlabeled pool, which are then used to train the object-detection model. To evaluate the method, we used an open-source image dataset obtained with a dedicated image-acquisition system developed for commercial trawlers targeting demersal species. We demonstrated, that our approach allows reaching the same object-detection performance as with the random sampling using 400 fewer labelled images. Besides, mean AP score was significantly higher at the last training iteration with 1100 training images, specifically, 39.0±1.6 and 34.8±1.8 for certainty-based sampling and random sampling, respectively. Additionally, we showed that epistemic certainty is a suitable method to sample images that the current iteration of the model cannot deal with yet. Our study additionally showed that the sampled new data is more valuable for training than the remaining unlabeled data. Our software is available on https://github.com/pieterblok/boxal.
- Abstract(参考訳): 近年,データ駆動型ディープラーニング技術が開発され,自動キャッチ登録に応用されている。
しかし、これらの手法はラベル付きデータに依存しており、それは時間がかかり、労働集約的であり、専門家の知識を集め、必要とするのに高価である。
本研究では,より高速なR-CNNオブジェクト検出モデルの認識精度を推定する,BoxALという能動的学習手法を提案する。
この方法では、未ラベルのプールから最も不確実なトレーニングイメージを選択し、オブジェクト検出モデルのトレーニングに使用することができる。
提案手法を評価するために,デマーサル種をターゲットとした商業トロール用専用画像取得システムを用いて得られたオープンソース画像データセットを用いた。
提案手法により,400個のラベル付き画像を用いたランダムサンプリングと同様の物体検出性能が得られることを示した。
さらに、前回のトレーニングでは平均APスコアが39.0±1.6と34.8±1.8と1100のトレーニングイメージで有意に高かった。
さらに,本モデルではまだ処理できない画像のサンプル化には,疫学的な確実性が適していることを示した。
また,本研究では,サンプル化した新データが,未ラベルデータよりもトレーニングに有用であることが確認された。
私たちのソフトウェアはhttps://github.com/pieterblok/boxal.comで利用可能です。
関連論文リスト
- CPSample: Classifier Protected Sampling for Guarding Training Data During Diffusion [58.64822817224639]
拡散モデルはトレーニングデータを正確に再現する傾向がある。
CPSampleは,画像品質を保ちながら,トレーニングデータの複製を防止するためにサンプリングプロセスを変更する手法である。
CPSample は CIFAR-10 と CelebA-64 でそれぞれ 4.97 と 2.97 の FID スコアを達成している。
論文 参考訳(メタデータ) (2024-09-11T05:42:01Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Image Outlier Detection Without Training using RANSAC [0.2302001830524133]
RANSAC-NNと呼ばれる新しい画像異常検出アルゴリズムを提案する。
既存のアプローチとは異なり、RANSAC-NNはデータのサブセットをサンプリングして比較することで、アウトレーヤを含むデータセットに直接適用することができる。
提案アルゴリズムは, 既存のベンチマーク手法と比較して, 良好な性能を保っている。
論文 参考訳(メタデータ) (2023-07-23T11:50:27Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - DEAL: Deep Evidential Active Learning for Image Classification [0.0]
アクティブラーニング(AL)は、限られたラベル付きデータの問題を緩和するためのアプローチである。
CNNの最近のAL手法は、ラベル付けするインスタンスの選択に異なる解決策を提案する。
本稿では,ラベルのないデータから高い予測不確かさを捕捉して効率よく学習する新しいALアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-22T11:14:23Z) - Temperate Fish Detection and Classification: a Deep Learning based
Approach [6.282069822653608]
本研究では,2段階の深層学習手法を提案する。
最初のステップは、種や性別によらず、画像中の各魚を検出することです。
第2のステップでは、画像中の各魚を事前フィルタリングせずに分類するために、Squeeze-and-Excitation (SE)アーキテクチャを備えた畳み込みニューラルネットワーク(CNN)を採用する。
論文 参考訳(メタデータ) (2020-05-14T12:40:57Z) - Radioactive data: tracing through training [130.2266320167683]
本稿では,このデータセットに認識不能な変化を生じさせる新しい手法であるEmphradioactive dataを提案する。
訓練されたモデルにより, 放射能データの利用を検知し, 信頼度(p-値)のレベルを提供する。
提案手法はディープネットワーク最適化におけるデータ拡張とバックドア性に対して堅牢である。
論文 参考訳(メタデータ) (2020-02-03T18:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。