論文の概要: Feedback-driven object detection and iterative model improvement
- arxiv url: http://arxiv.org/abs/2411.19835v2
- Date: Tue, 14 Jan 2025 14:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:29.489238
- Title: Feedback-driven object detection and iterative model improvement
- Title(参考訳): フィードバック駆動型物体検出と反復モデルの改良
- Authors: Sönke Tenckhoff, Mario Koddenbrock, Erik Rodner,
- Abstract要約: 本稿では,オブジェクト検出モデルの改良を目的としたプラットフォームの開発と評価について述べる。
このプラットフォームでは、イメージのアップロードとアノテートに加えて、微調整されたオブジェクト検出モデルも可能だ。
手動アノテーションと比較して,半自動で最大53%の時間短縮効果を示す。
- 参考スコア(独自算出の注目度): 2.3700911865675187
- License:
- Abstract: Automated object detection has become increasingly valuable across diverse applications, yet efficient, high-quality annotation remains a persistent challenge. In this paper, we present the development and evaluation of a platform designed to interactively improve object detection models. The platform allows uploading and annotating images as well as fine-tuning object detection models. Users can then manually review and refine annotations, further creating improved snapshots that are used for automatic object detection on subsequent image uploads - a process we refer to as semi-automatic annotation resulting in a significant gain in annotation efficiency. Whereas iterative refinement of model results to speed up annotation has become common practice, we are the first to quantitatively evaluate its benefits with respect to time, effort, and interaction savings. Our experimental results show clear evidence for a significant time reduction of up to 53% for semi-automatic compared to manual annotation. Importantly, these efficiency gains did not compromise annotation quality, while matching or occasionally even exceeding the accuracy of manual annotations. These findings demonstrate the potential of our lightweight annotation platform for creating high-quality object detection datasets and provide best practices to guide future development of annotation platforms. The platform is open-source, with the frontend and backend repositories available on GitHub (https://github.com/ml-lab-htw/iterative-annotate). To support the understanding of our labeling process, we have created an explanatory video demonstrating the methodology using microscopy images of E. coli bacteria as an example. The video is available on YouTube (https://www.youtube.com/watch?v=CM9uhE8NN5E).
- Abstract(参考訳): オブジェクトの自動検出は、様々なアプリケーションでますます重要になっていますが、効率的で高品質なアノテーションは永続的な課題です。
本稿では,オブジェクト検出モデルの改良を目的としたプラットフォームの開発と評価について述べる。
このプラットフォームでは、イメージのアップロードとアノテートに加えて、微調整されたオブジェクト検出モデルも可能だ。
ユーザは手動でアノテーションをレビューして精査し、さらに改良されたスナップショットを作成して、その後のイメージアップロードで自動オブジェクト検出に使用します。
アノテーションをスピードアップするためのモデル結果の反復的改善が一般的であるのに対して、私たちは、時間、労力、相互作用の節約に関して、その利点を定量的に評価する最初の方法です。
実験の結果,手動アノテーションと比較して,半自動で最大53%の時間短縮が認められた。
重要なことは、これらの効率向上はアノテーションの品質を損なうことなく、マニュアルアノテーションの正確さにマッチしたり、時には超えたりすることさえある。
これらの知見は,高品質なオブジェクト検出データセットを作成するための軽量アノテーションプラットフォームの可能性を示し,アノテーションプラットフォームの将来開発を導くためのベストプラクティスを提供する。
プラットフォームはオープンソースで、フロントエンドとバックエンドのリポジトリはGitHubで入手できる(https://github.com/ml-lab-htw/iterative-annotate)。
ラベル付けプロセスの理解を支援するために,大腸菌細菌の顕微鏡像を例に,その方法論を実証した説明ビデオを作成した。
ビデオはYouTubeで公開されている(https://www.youtube.com/watch?v=CM9uhE8NN5E)。
関連論文リスト
- Automatic Image Annotation for Mapped Features Detection [6.300346102366891]
道路機能は、自動運転とローカライゼーションの鍵となる。
現代のディープラーニングに基づく知覚システムは、大量の注釈付きデータを必要とする。
本稿では,画像中の3つの自動アノテーション手法の融合について考察する。
論文 参考訳(メタデータ) (2024-12-11T09:06:52Z) - Rethinking Image-to-Video Adaptation: An Object-centric Perspective [61.833533295978484]
本稿では,オブジェクト中心の視点から,画像から映像への適応戦略を提案する。
人間の知覚に触発されて、物体発見のプロキシタスクを画像-映像間移動学習に統合する。
論文 参考訳(メタデータ) (2024-07-09T13:58:10Z) - On-the-Fly Point Annotation for Fast Medical Video Labeling [1.890063512530524]
医学研究において、ディープラーニングモデルは高品質な注釈付きデータに依存している。
2つのコーナーを調整する必要があるため、プロセスは本質的にフレーム単位で行われる。
そこで本研究では,ライブビデオアノテーションのオンザフライ方式を提案し,アノテーションの効率を向上させる。
論文 参考訳(メタデータ) (2024-04-22T16:59:43Z) - Helping Hands: An Object-Aware Ego-Centric Video Recognition Model [60.350851196619296]
オブジェクト認識デコーダを導入し、エゴ中心の動画におけるエゴ中心の表現の性能を向上させる。
このモデルは,エゴ認識ビデオモデルの代替として機能し,視覚テキストのグラウンド化による性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-15T17:58:11Z) - Quality and Efficiency of Manual Annotation: Pre-annotation Bias [1.949293198748152]
この実験の目的は、事前アノテーションを用いた場合の最終的なアノテーション品質を判断することである。
実験により、事前アノテーションはより高速な手動構文アノテーションのための効率的なツールであることが確認された。
論文 参考訳(メタデータ) (2023-06-15T17:41:14Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Omni-DETR: Omni-Supervised Object Detection with Transformers [165.4190908259015]
我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2022-03-30T06:36:09Z) - Weakly Supervised Video Salient Object Detection [79.51227350937721]
本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T09:48:38Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Cross-Model Image Annotation Platform with Active Learning [0.0]
オブジェクトアノテーションと認識のためのEnd-to-Endパイプラインツールを提供する。
我々は,画像アノテーション,アクティブラーニング,モデルトレーニング,評価をシームレスに組み込んだモジュール型画像アノテーションプラットフォームを開発した。
最高精度は74%。
論文 参考訳(メタデータ) (2020-08-06T01:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。