論文の概要: Exploring Cross-Domain Pretrained Model for Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/2204.03144v1
- Date: Thu, 7 Apr 2022 01:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:33:05.827463
- Title: Exploring Cross-Domain Pretrained Model for Hyperspectral Image
Classification
- Title(参考訳): ハイパースペクトル画像分類のためのクロスドメイン事前学習モデルの検討
- Authors: Hyungtae Lee and Sungmin Eum and Heesung Kwon
- Abstract要約: プレトレイン-ファインチューン戦略は、CNNトレーニングにデータが不十分な場合に発生するオーバーフィッティングを減らすために広く用いられている。
我々は、後に様々なスペクトル領域に展開できる普遍的クロスドメインモデルをトレーニングすることを目指している。
提案手法は,精度と訓練効率の両方において優れていることがわかった。
- 参考スコア(独自算出の注目度): 30.10527300601721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A pretrain-finetune strategy is widely used to reduce the overfitting that
can occur when data is insufficient for CNN training. First few layers of a CNN
pretrained on a large-scale RGB dataset are capable of acquiring general image
characteristics which are remarkably effective in tasks targeted for different
RGB datasets. However, when it comes down to hyperspectral domain where each
domain has its unique spectral properties, the pretrain-finetune strategy no
longer can be deployed in a conventional way while presenting three major
issues: 1) inconsistent spectral characteristics among the domains (e.g.,
frequency range), 2) inconsistent number of data channels among the domains,
and 3) absence of large-scale hyperspectral dataset.
We seek to train a universal cross-domain model which can later be deployed
for various spectral domains. To achieve, we physically furnish multiple inlets
to the model while having a universal portion which is designed to handle the
inconsistent spectral characteristics among different domains. Note that only
the universal portion is used in the finetune process. This approach naturally
enables the learning of our model on multiple domains simultaneously which acts
as an effective workaround for the issue of the absence of large-scale dataset.
We have carried out a study to extensively compare models that were trained
using cross-domain approach with ones trained from scratch. Our approach was
found to be superior both in accuracy and in training efficiency. In addition,
we have verified that our approach effectively reduces the overfitting issue,
enabling us to deepen the model up to 13 layers (from 9) without compromising
the accuracy.
- Abstract(参考訳): プレトレイン-ファインチューン戦略は、CNNトレーニングにデータが不十分な場合に発生するオーバーフィッティングを減らすために広く用いられている。
大規模RGBデータセットで事前訓練されたCNNの最初の数層は、異なるRGBデータセットをターゲットにしたタスクにおいて著しく効果的である一般的な画像特性を取得することができる。
しかし、各ドメインが独自のスペクトル特性を持つハイパースペクトル領域に目を向けると、プレトレイン-ファネチューン戦略は従来の方法で展開できなくなり、3つの大きな問題が提示される。
1)領域間の矛盾したスペクトル特性(周波数範囲など)
2)ドメイン間のデータチャネル数の不整合、及び
3) 大規模ハイパースペクトルデータセットの欠如。
我々は、後に様々なスペクトル領域に展開できる普遍的クロスドメインモデルをトレーニングすることを目指している。
異なる領域間の矛盾するスペクトル特性を扱うように設計された普遍的な部分を備えつつ、モデルに複数の入口を物理的に設ける。
普遍部分のみをファインチューン過程で用いることに注意。
このアプローチは,大規模データセットが存在しない問題に対する効果的な回避策として,複数のドメインでのモデル学習を可能にする。
クロスドメインアプローチでトレーニングされたモデルをスクラッチからトレーニングしたモデルと比較する研究を行った。
提案手法は精度と訓練効率の両方において優れていることがわかった。
さらに,本手法がオーバーフィッティング問題を効果的に軽減し,精度を損なうことなく,13層 (9層) までモデルを深化できることを確認した。
関連論文リスト
- Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
一般時系列解析のためのオープンモデルであるOTiSを紹介する。
本稿では,学習可能なドメイン固有シグネチャを持つトークンマイザを含む,新しい事前学習パラダイムを提案する。
我々のモデルは、8つの異なるドメインにまたがる640,187個のサンプルと11億個のタイムポイントからなる大規模なコーパスで事前訓練されている。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - CNN Feature Map Augmentation for Single-Source Domain Generalization [6.053629733936548]
ドメイン・ジェネリゼーション(DG)はここ数年で大きな注目を集めている。
DGの目標は、トレーニング中に利用可能なものと異なるデータ分散を提示した場合、引き続き正常に機能するモデルを作成することだ。
単一ソースDG画像分類設定における畳み込みニューラルネットワークアーキテクチャの代替正則化手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T08:48:17Z) - SUG: Single-dataset Unified Generalization for 3D Point Cloud
Classification [44.27324696068285]
トレーニング済みのソースモデルが直面する予期せぬ領域差を軽減するために,単一データセット統一一般化(SUG)フレームワークを提案する。
具体的には、まず、学習した表現をドメインに依存しない識別性に制約できるマルチグラニュアルサブドメインアライメント(MSA)法を設計する。
次にSDA(Sample-level Domain-Aware Attention)戦略を示し、異なるサブドメインから簡単に適応できるサンプルを選択的に強化する。
論文 参考訳(メタデータ) (2023-05-16T04:36:04Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Style-transfer GANs for bridging the domain gap in synthetic pose
estimator training [8.508403388002133]
画素レベルの画像変換に汎用的なGANモデルを採用することを提案する。
得られたモデルは、トレーニング中または推論時に、ドメインギャップをブリッジするために使用される。
ドメインランダム化の程度で訓練されたモデルと比較すると,モデルの性能は大幅に向上した。
論文 参考訳(メタデータ) (2020-04-28T17:35:03Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。