論文の概要: Exploring Transfer Learning for Deep Learning Polyp Detection in Colonoscopy Images Using YOLOv8
- arxiv url: http://arxiv.org/abs/2502.00133v1
- Date: Fri, 31 Jan 2025 19:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:03:36.012856
- Title: Exploring Transfer Learning for Deep Learning Polyp Detection in Colonoscopy Images Using YOLOv8
- Title(参考訳): YOLOv8を用いた大腸内視鏡画像における深層学習ポリープ検出のための移動学習の探索
- Authors: Fabian Vazquez, Jose Angel Nuñez, Xiaoyan Fu, Pengfei Gu, Bin Fu,
- Abstract要約: 転送学習技術は、関連するデータセットの事前学習から知識を活用する。
事前トレーニングのための適切なデータセットを見つけることは、移行学習の成功を決定する上で重要な役割を果たす。
関連するデータセットで事前トレーニングされたモデルは、スクラッチからトレーニングされたモデルよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 4.596575711979469
- License:
- Abstract: Deep learning methods have demonstrated strong performance in objection tasks; however, their ability to learn domain-specific applications with limited training data remains a significant challenge. Transfer learning techniques address this issue by leveraging knowledge from pre-training on related datasets, enabling faster and more efficient learning for new tasks. Finding the right dataset for pre-training can play a critical role in determining the success of transfer learning and overall model performance. In this paper, we investigate the impact of pre-training a YOLOv8n model on seven distinct datasets, evaluating their effectiveness when transferred to the task of polyp detection. We compare whether large, general-purpose datasets with diverse objects outperform niche datasets with characteristics similar to polyps. In addition, we assess the influence of the size of the dataset on the efficacy of transfer learning. Experiments on the polyp datasets show that models pre-trained on relevant datasets consistently outperform those trained from scratch, highlighting the benefit of pre-training on datasets with shared domain-specific features.
- Abstract(参考訳): ディープラーニング手法は、反対タスクにおいて強力なパフォーマンスを示してきたが、訓練データに制限のあるドメイン固有のアプリケーションを学ぶ能力は、依然として大きな課題である。
転送学習技術は、関連するデータセットの事前トレーニングから知識を活用することで、この問題に対処する。
事前トレーニングのための適切なデータセットを見つけることは、移行学習の成功と全体的なモデルパフォーマンスを決定する上で重要な役割を果たします。
本稿では, YOLOv8nモデルが7つの異なるデータセットに対する事前学習の効果について検討し, ポリプ検出タスクに移行した場合の有効性を評価する。
我々は,多種多様なオブジェクトを持つ大規模汎用データセットが,ポリープに類似した特徴を持つニッチデータセットより優れているか否かを比較した。
さらに,データセットのサイズが伝達学習の有効性に与える影響を評価する。
ポリプデータセットの実験では、関連するデータセットで事前トレーニングされたモデルは、スクラッチからトレーニングされたデータセットよりも一貫して優れており、共有ドメイン固有の機能を持つデータセットで事前トレーニングするメリットが強調されている。
関連論文リスト
- Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Intra-domain and cross-domain transfer learning for time series data --
How transferable are the features? [0.0]
本研究の目的は,時系列データの異なる領域間において,転送可能がどのような特徴を持つかを評価することである。
伝達学習の効果は,モデルの予測性能と学習時の収束率の観点から観察される。
論文 参考訳(メタデータ) (2022-01-12T12:55:21Z) - Representation Matters: Assessing the Importance of Subgroup Allocations
in Training Data [85.43008636875345]
訓練データにおける多様な表現は,サブグループのパフォーマンス向上と集団レベルの目標達成の鍵である。
分析と実験は、データセット構成がパフォーマンスにどのように影響するかを説明し、既存のデータにおけるトレンドとドメイン知識を用いて、意図的かつ客観的なデータセット設計を導くのに役立つ構成結果を提供する。
論文 参考訳(メタデータ) (2021-03-05T00:27:08Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。