論文の概要: Bio-inspired fine-tuning for selective transfer learning in image classification
- arxiv url: http://arxiv.org/abs/2601.11235v1
- Date: Fri, 16 Jan 2026 12:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.485223
- Title: Bio-inspired fine-tuning for selective transfer learning in image classification
- Title(参考訳): バイオインスパイアされた微調整による画像分類における選択的転写学習
- Authors: Ana Davila, Jacinto Colan, Yasuhisa Hasegawa,
- Abstract要約: 進化的最適化を利用した適応型微調整技術であるBioTuneを紹介する。
BioTuneは、凍結していないレイヤに対して、どのレイヤを凍結するかを最適に選択し、学習率を調整することで、転送学習を強化する。
BioTuneは、4つの異なるCNNアーキテクチャで一貫したパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 1.1371756033920992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has significantly advanced image analysis across diverse domains but often depends on large, annotated datasets for success. Transfer learning addresses this challenge by utilizing pre-trained models to tackle new tasks with limited labeled data. However, discrepancies between source and target domains can hinder effective transfer learning. We introduce BioTune, a novel adaptive fine-tuning technique utilizing evolutionary optimization. BioTune enhances transfer learning by optimally choosing which layers to freeze and adjusting learning rates for unfrozen layers. Through extensive evaluation on nine image classification datasets, spanning natural and specialized domains such as medical imaging, BioTune demonstrates superior accuracy and efficiency over state-of-the-art fine-tuning methods, including AutoRGN and LoRA, highlighting its adaptability to various data characteristics and distribution changes. Additionally, BioTune consistently achieves top performance across four different CNN architectures, underscoring its flexibility. Ablation studies provide valuable insights into the impact of BioTune's key components on overall performance. The source code is available at https://github.com/davilac/BioTune.
- Abstract(参考訳): ディープラーニングには、さまざまな領域にわたる画像解析が大幅に進歩しているが、成功のためには、大きな注釈付きデータセットに依存することが多い。
Transfer Learningは、トレーニング済みのモデルを使用してラベル付きデータに制限のある新しいタスクに取り組むことで、この課題に対処する。
しかし、ソースドメインとターゲットドメインの相違は、効果的な転送学習を妨げる可能性がある。
進化的最適化を利用した適応型微調整技術であるBioTuneを紹介する。
BioTuneは、凍結していないレイヤに対して、どのレイヤを凍結するかを最適に選択し、学習率を調整することで、転送学習を強化する。
医用画像などの自然領域と専門領域にまたがる9つの画像分類データセットを広範囲に評価することにより、AutoRGNやLoRAといった最先端の微調整手法よりも精度と効率性が向上し、様々なデータ特性や分布変化への適応性を強調している。
さらに、BioTuneは4つの異なるCNNアーキテクチャの最高のパフォーマンスを継続的に達成し、柔軟性を強調している。
アブレーション研究は、BioTuneの重要なコンポーネントが全体的なパフォーマンスに与える影響についての貴重な洞察を提供する。
ソースコードはhttps://github.com/davilac/BioTune.comで入手できる。
関連論文リスト
- Harnessing Large Language Models for Biomedical Named Entity Recognition [4.376764535031509]
BioNERは医療情報学の基礎的なタスクであり、薬物発見や臨床試験のマッチングといった下流の応用に不可欠である。
提案するBioSelectTuneは,汎用言語モデルを微調整するための,高効率でデータ中心のフレームワークである。
我々のモデルは、正の正のデータのうち50%しか訓練されていないが、完全に訓練されたベースラインを超えている。
論文 参考訳(メタデータ) (2025-12-28T01:34:23Z) - CellPainTR: Generalizable Representation Learning for Cross-Dataset Cell Painting Analysis [51.56484100374058]
本稿では,細胞形態の基本的な表現を学習するためのトランスフォーマーベースのアーキテクチャであるCellPainTRを紹介する。
私たちの研究は、画像ベースのプロファイリングのための真の基盤モデルを作成するための重要なステップであり、より信頼性が高くスケーラブルなクロススタディ生物学的分析を可能にします。
論文 参考訳(メタデータ) (2025-09-02T03:30:07Z) - Transfer learning optimization based on evolutionary selective fine tuning [2.271776292902496]
トランスファーラーニングは、トレーニング済みのモデルを新しいタスクに適応するための戦略を提供する。
従来の微調整は、しばしばすべてのモデルパラメータを更新する。
BioTuneは転写学習効率を高めるために選択的に微細構造層である。
論文 参考訳(メタデータ) (2025-08-21T08:51:43Z) - Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - Active Learning Based Domain Adaptation for Tissue Segmentation of
Histopathological Images [1.4724454726700604]
対象ドメインからラベル付きデータの小さなセットを使用して,次にラベル付けする最も情報性の高いサンプルを選択する,事前学習されたディープニューラルネットワークを提案する。
従来のF1スコアを用いた教師あり学習手法と比較して,本手法はラベル付きサンプルよりもはるかに少ない性能を示す。
論文 参考訳(メタデータ) (2023-03-09T13:03:01Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Domain Adaptation and Active Learning for Fine-Grained Recognition in
the Field of Biodiversity [7.24935792316121]
教師なしドメイン適応は、生物多様性の文脈におけるきめ細かい認識に使用できる。
ドメイン適応と転送可能正規化を用いることで、分類器の精度を最大12.35%向上させることができる。
驚いたことに、2つのデータセットのうち1つだけがランダム選択ベースラインよりも洗練された戦略がより良い結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-10-22T13:34:13Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。