論文の概要: Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework
- arxiv url: http://arxiv.org/abs/2405.05853v1
- Date: Thu, 9 May 2024 15:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 12:53:04.711665
- Title: Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework
- Title(参考訳): 伝達学習を用いたロバストかつ説明可能な細粒度視覚分類:デュアルキャリアー・フレームワーク
- Authors: Zheming Zuo, Joseph Smith, Jonathan Stonehouse, Boguslaw Obara,
- Abstract要約: 我々は、Dual-Carriageway Framework (DCF) という自動ベストスーツトレーニングソリューション検索フレームワークを提案する。
3つの畳み込みニューラルネットワーク(ResNet18、ResNet34、Inception-v3)を用いてDCFの有効性を検証する。
その結果、既存のデータセットと新しいデータセットでそれぞれ2.13%、1.23%の微調整パスのパフォーマンスが向上した。
- 参考スコア(独自算出の注目度): 0.799543372823325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the realm of practical fine-grained visual classification applications rooted in deep learning, a common scenario involves training a model using a pre-existing dataset. Subsequently, a new dataset becomes available, prompting the desire to make a pivotal decision for achieving enhanced and leveraged inference performance on both sides: Should one opt to train datasets from scratch or fine-tune the model trained on the initial dataset using the newly released dataset? The existing literature reveals a lack of methods to systematically determine the optimal training strategy, necessitating explainability. To this end, we present an automatic best-suit training solution searching framework, the Dual-Carriageway Framework (DCF), to fill this gap. DCF benefits from the design of a dual-direction search (starting from the pre-existing or the newly released dataset) where five different training settings are enforced. In addition, DCF is not only capable of figuring out the optimal training strategy with the capability of avoiding overfitting but also yields built-in quantitative and visual explanations derived from the actual input and weights of the trained model. We validated DCF's effectiveness through experiments with three convolutional neural networks (ResNet18, ResNet34 and Inception-v3) on two temporally continued commercial product datasets. Results showed fine-tuning pathways outperformed training-from-scratch ones by up to 2.13% and 1.23% on the pre-existing and new datasets, respectively, in terms of mean accuracy. Furthermore, DCF identified reflection padding as the superior padding method, enhancing testing accuracy by 3.72% on average. This framework stands out for its potential to guide the development of robust and explainable AI solutions in fine-grained visual classification tasks.
- Abstract(参考訳): ディープラーニングに根ざした実用的なきめ細かな視覚分類アプリケーションという領域では、一般的なシナリオは、既存のデータセットを使用してモデルをトレーニングすることである。
その後、新しいデータセットが利用可能になり、強化とレバレッジされた推論パフォーマンスを達成するための重要な決定を両サイドで行うことが望まれる。 新たにリリースされたデータセットを使用して、データセットをスクラッチからトレーニングするか、あるいは初期データセットでトレーニングされたモデルを微調整するか?
既存の文献では、最適トレーニング戦略を体系的に決定する手法が欠如しており、説明可能性を必要としている。
この目的のために、このギャップを埋めるために、自動ベストスーツトレーニングソリューション探索フレームワークであるDual-Carriageway Framework(DCF)を提案する。
DCFは、5つの異なるトレーニング設定が強制されるデュアルダイレクト検索(既存のデータセットまたは新しくリリースされたデータセットから始まる)の設計の恩恵を受ける。
さらに、DCFは、過度な適合を避ける能力によって最適なトレーニング戦略を解明できるだけでなく、トレーニングされたモデルの実際の入力と重みから得られた定量的かつ視覚的な説明を組み込むことができる。
3つの畳み込みニューラルネットワーク(ResNet18,ResNet34,Inception-v3)を用いて、時間的に継続する2つの商用製品データセット上で、DCFの有効性を検証する。
その結果、既存のデータセットと新しいデータセットでは、それぞれ平均精度で2.13%、1.23%の微調整パスが向上した。
さらに、DCFは反射パディングを優れたパディング法として同定し、試験精度を平均3.72%向上させた。
このフレームワークは、きめ細かい視覚的分類タスクにおいて、堅牢で説明可能なAIソリューションの開発をガイドする可能性で際立っている。
関連論文リスト
- Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - AlignDet: Aligning Pre-training and Fine-tuning in Object Detection [38.256555424079664]
AlignDetは統合された事前トレーニングフレームワークで、様々な既存の検出器に適応して、相違を緩和することができる。
検出アルゴリズム、モデルバックボーン、データ設定、トレーニングスケジュールなど、さまざまなプロトコル間で大幅な改善が達成できる。
論文 参考訳(メタデータ) (2023-07-20T17:55:14Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。