論文の概要: Fine-Tuning Without Forgetting: Adaptation of YOLOv8 Preserves COCO Performance
- arxiv url: http://arxiv.org/abs/2505.01016v1
- Date: Fri, 02 May 2025 05:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.920523
- Title: Fine-Tuning Without Forgetting: Adaptation of YOLOv8 Preserves COCO Performance
- Title(参考訳): 忘れずに微調整:COCOパフォーマンスを保ったYOLOv8の適応
- Authors: Vishal Gandhi, Sagar Gandhi,
- Abstract要約: 標準のYOLOv8nモデルをきめ細かい果実検出データセットに適用する。
対象の果実データセットとCOCOバリデーションセットの両方で性能を厳格に評価した。
我々は,中~後期のバックボーンの特徴を適応させることが,きめ細かな特殊化に極めて有効であると結論付けた。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The success of large pre-trained object detectors hinges on their adaptability to diverse downstream tasks. While fine-tuning is the standard adaptation method, specializing these models for challenging fine-grained domains necessitates careful consideration of feature granularity. The critical question remains: how deeply should the pre-trained backbone be fine-tuned to optimize for the specialized task without incurring catastrophic forgetting of the original general capabilities? Addressing this, we present a systematic empirical study evaluating the impact of fine-tuning depth. We adapt a standard YOLOv8n model to a custom, fine-grained fruit detection dataset by progressively unfreezing backbone layers (freeze points at layers 22, 15, and 10) and training. Performance was rigorously evaluated on both the target fruit dataset and, using a dual-head evaluation architecture, on the original COCO validation set. Our results demonstrate unequivocally that deeper fine-tuning (unfreezing down to layer 10) yields substantial performance gains (e.g., +10\% absolute mAP50) on the fine-grained fruit task compared to only training the head. Strikingly, this significant adaptation and specialization resulted in negligible performance degradation (<0.1\% absolute mAP difference) on the COCO benchmark across all tested freeze levels. We conclude that adapting mid-to-late backbone features is highly effective for fine-grained specialization. Critically, our results demonstrate this adaptation can be achieved without the commonly expected penalty of catastrophic forgetting, presenting a compelling case for exploring deeper fine-tuning strategies, particularly when targeting complex domains or when maximizing specialized performance is paramount.
- Abstract(参考訳): 大きな事前訓練された物体検出器の成功は、下流の様々なタスクへの適応性に依存している。
ファインチューニングは標準的な適応手法であるが、細粒度ドメインに挑戦するためにこれらのモデルを専門化するには、特徴の粒度を慎重に考慮する必要がある。
重要な疑問が残る: トレーニング済みのバックボーンは、元の一般的な能力を破滅的に忘れることなく、特定のタスクを最適化するために、どの程度の深さで調整されるべきなのか?
そこで本研究では,微調整深度の影響を定量的に評価した。
標準のYOLOv8nモデルを、バックボーン層(22,15,10の凍結点)を徐々に解凍し、トレーニングすることで、カスタマイズされたきめ細かい果実検出データセットに適用する。
対象の果実データセットと2つの頭部評価アーキテクチャを用いてCOCO検証セットの性能を厳格に評価した。
以上の結果から, より深い微調整(層10まで凍結しない)が, 微粒果タスクにおいて, 頭部のみのトレーニングよりも顕著な性能向上(eg, +10\%絶対mAP50)をもたらすことが明らかとなった。
厳密には、この顕著な適応と特殊化は、COCOベンチマークにおける全ての試験凍結レベルにおける無視可能な性能劣化(0.1%絶対mAP差)をもたらす。
我々は,中~後期のバックボーンの特徴を適応させることが,きめ細かな特殊化に極めて有効であると結論付けた。
以上の結果から,特に複雑なドメインを対象とする場合や,特に特殊性能の最大化が最重要である場合に,より深い微調整戦略を探求するための説得力のある事例が提示される。
関連論文リスト
- Typicalness-Aware Learning for Failure Detection [26.23185979968123]
ディープニューラルネットワーク(DNN)は、しばしば自信過剰な問題に悩まされる。
そこで本研究では,本問題に対処し,故障検出性能を向上させるために,S typicalness-Aware Learning (TAL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T11:09:47Z) - Hybrid Classification-Regression Adaptive Loss for Dense Object Detection [19.180514552400883]
HCRALと呼ばれるハイブリッド分類回帰適応損失を提案する。
本稿では,タスク間の監視,タスクの不整合に対処するためのResidual of Classification and IoU (RCI)モジュールと,各タスク内の難読化サンプルに焦点をあてる Conditioning Factor (CF) を紹介する。
また, 適応型トレーニングサンプル選択(EATSS)という新たな戦略を導入し, 分類と回帰の不整合を示すサンプルを新たに提供した。
論文 参考訳(メタデータ) (2024-08-30T10:31:39Z) - Next Generation Loss Function for Image Classification [0.0]
我々は、遺伝的プログラミング(GP)アプローチを利用して、クロスエントロピー(CE)損失を含むよく知られた損失関数に挑戦する。
NGL(Next Generation Loss)と呼ばれる1つの関数は、テストされたすべてのデータセットで、同じか、より優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-04-19T15:26:36Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - The Break-Even Point on Optimization Trajectories of Deep Neural
Networks [64.7563588124004]
この軌道上の「破滅的な」点の存在を論じる。
トレーニングの初期段階での大きな学習率を用いることで、勾配のばらつきが軽減されることを示す。
また, バッチ正規化層を有するニューラルネットワークにおいても, 低学習率を用いることで損失面の条件が悪くなることを示す。
論文 参考訳(メタデータ) (2020-02-21T22:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。