論文の概要: You Only Train Once (YOTO): A Retraining-Free Object Detection Framework
- arxiv url: http://arxiv.org/abs/2512.04888v1
- Date: Thu, 04 Dec 2025 15:15:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.239064
- Title: You Only Train Once (YOTO): A Retraining-Free Object Detection Framework
- Title(参考訳): You Only Train Once (YOTO): Retraining-free Object Detection Framework
- Authors: Priyanto Hidayatullah, Nurjannah Syakrani, Yudi Widhiyasana, Muhammad Rizqi Sholahuddin, Refdinal Tubagus, Zahri Al Adzani Hidayat, Hanri Fajar Ramadhan, Dafa Alfarizki Pratama, Farhan Muhammad Yasin,
- Abstract要約: この研究は、破滅的な忘れ物の問題に対処する方法論であるYou Only Train Once (YOTO)を紹介した。
分類には,対象物の埋め込み特徴とQdrantベクトルデータベースにおけるコサイン類似性を利用する。
従来の物体検出手法に比べて, 学習時間の効率は3倍に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object detection constitutes the primary task within the domain of computer vision. It is utilized in numerous domains. Nonetheless, object detection continues to encounter the issue of catastrophic forgetting. The model must be retrained whenever new products are introduced, utilizing not only the new products dataset but also the entirety of the previous dataset. The outcome is obvious: increasing model training expenses and significant time consumption. In numerous sectors, particularly retail checkout, the frequent introduction of new products presents a great challenge. This study introduces You Only Train Once (YOTO), a methodology designed to address the issue of catastrophic forgetting by integrating YOLO11n for object localization with DeIT and Proxy Anchor Loss for feature extraction and metric learning. For classification, we utilize cosine similarity between the embedding features of the target product and those in the Qdrant vector database. In a case study conducted in a retail store with 140 products, the experimental results demonstrate that our proposed framework achieves encouraging accuracy, whether for detecting new or existing products. Furthermore, without retraining, the training duration difference is significant. We achieve almost 3 times the training time efficiency compared to classical object detection approaches. This efficiency escalates as additional new products are added to the product database. The average inference time is 580 ms per image containing multiple products, on an edge device, validating the proposed framework's feasibility for practical use.
- Abstract(参考訳): 物体検出はコンピュータビジョンの領域における主要なタスクを構成する。
多くの藩で使われている。
それでも、オブジェクト検出は破滅的な忘れの問題に直面し続けている。
モデルは、新製品データセットだけでなく、以前のデータセット全体を活用して、新製品が導入されるたびに再トレーニングされなければならない。
その結果は明らかです – モデルのトレーニングコストの増加と,大幅な時間消費です。
多くの分野、特に小売店のチェックアウトにおいて、新製品の頻繁な導入が大きな課題となっている。
本研究は,DIT と Proxy Anchor Loss とのオブジェクトローカライゼーションに YOLO11n を統合し,特徴抽出とメートル法学習に活用することで,破滅的な忘れを解消する手法である You Only Train Once (YOTO) を紹介する。
分類には,対象物の埋め込み特徴とQdrantベクトルデータベースにおけるコサイン類似性を利用する。
本研究は,140品目を有する小売店舗で実施したケーススタディにおいて,提案手法が新規品目や既存品目の検出に有効であることを示すものである。
さらに、再トレーニングを行わない場合、トレーニング期間の差が顕著である。
従来の物体検出手法に比べて, 学習時間の効率は3倍に向上した。
この効率は、追加の新製品が製品データベースに追加されるにつれて増大します。
エッジデバイス上の複数の製品を含む画像毎の平均推定時間は580ミリ秒であり、提案したフレームワークの実用性を検証する。
関連論文リスト
- Zero-shot Degree of Ill-posedness Estimation for Active Small Object Change Detection [8.977792536037956]
日常的な屋内ナビゲーションでは、ロボットは区別できない小さな変化物体を検出する必要がある。
既存の技術は、変更検出モデルを正規化するために、高品質なクラス固有オブジェクトに依存している。
本研究では,受動とアクティブビジョンの両方を改善するために,DoIの概念を検討する。
論文 参考訳(メタデータ) (2024-05-10T01:56:39Z) - Proposal-Contrastive Pretraining for Object Detection from Fewer Data [11.416621957617334]
本稿では,新しい教師なし総合事前学習手法ProSeCoを提案する。
ProSeCoは、コントラスト学習のために検出器によって生成される多数のオブジェクト提案を使用する。
本手法は,標準および新しいベンチマークにおいて,対象検出のための教師なし事前学習において,最先端の手法であることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:59:26Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - BigDetection: A Large-scale Benchmark for Improved Object Detector
Pre-training [44.32782190757813]
我々はBigDetectionと呼ばれる新しい大規模ベンチマークを構築した。
私たちのデータセットには600のオブジェクトカテゴリがあり、3.4M以上のトレーニングイメージと36Mのバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2022-03-24T17:57:29Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。