論文の概要: Boosting High Resolution Image Classification with Scaling-up
Transformers
- arxiv url: http://arxiv.org/abs/2309.15277v2
- Date: Fri, 13 Oct 2023 19:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 03:16:44.915463
- Title: Boosting High Resolution Image Classification with Scaling-up
Transformers
- Title(参考訳): スケールアップトランスフォーマによる高分解能画像分類の高速化
- Authors: Yi Wang
- Abstract要約: ICCV/CVPPA2023 Deep Nutrient Deficiency Challengeで2位を獲得した高解像度画像分類のための総合的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.987378367017207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a holistic approach for high resolution image classification that
won second place in the ICCV/CVPPA2023 Deep Nutrient Deficiency Challenge. The
approach consists of a full pipeline of: 1) data distribution analysis to check
potential domain shift, 2) backbone selection for a strong baseline model that
scales up for high resolution input, 3) transfer learning that utilizes
published pretrained models and continuous fine-tuning on small sub-datasets,
4) data augmentation for the diversity of training data and to prevent
overfitting, 5) test-time augmentation to improve the prediction's robustness,
and 6) "data soups" that conducts cross-fold model prediction average for
smoothened final test results.
- Abstract(参考訳): ICCV/CVPPA2023 Deep Nutrient Deficiency Challengeで2位を獲得した高解像度画像分類のための総合的なアプローチを提案する。
アプローチは以下の完全なパイプラインから成り立っている。
1)潜在的な領域シフトをチェックするためのデータ分布解析
2)高分解能入力のためにスケールアップする強いベースラインモデルに対するバックボーン選択。
3) 公開事前学習モデルと小サブデータセットの連続微調整を利用した転送学習
4) トレーニングデータの多様性と過剰適合防止のためのデータ強化
5) 予測のロバスト性を改善するためのテスト時間補完
6) 最終試験結果の平滑化を目的としたクロスフォールドモデル予測平均を行う「データスープ」。
関連論文リスト
- Enhancing Generalization in Medical Visual Question Answering Tasks via
Gradient-Guided Model Perturbation [16.22199565010318]
本稿では,事前学習と微調整の両段階における多モードモデルの視覚エンコーダに勾配誘導摂動を組み込む手法を提案する。
その結果,訓練前の画像キャプションデータセットが大幅に小さくても,本手法は競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-03-05T06:57:37Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。