論文の概要: A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2106.15453v1
- Date: Tue, 29 Jun 2021 14:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 20:46:37.944891
- Title: A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition
- Title(参考訳): 表情認識における領域適応の体系的評価
- Authors: Yan San Kong, Varsha Suresh, Jonathan Soh, Desmond C. Ong
- Abstract要約: 本稿では,表情認識における領域適応の体系的評価について述べる。
我々は、最先端のトランスファー学習技術と、6つの一般的な顔表情データセットを使用する。
その結果,移動学習の精度は高くなく,目的のデータセットと慣用的に異なることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial Expression Recognition is a commercially important application, but
one common limitation is that applications often require making predictions on
out-of-sample distributions, where target images may have very different
properties from the images that the model was trained on. How well, or badly,
do these models do on unseen target domains? In this paper, we provide a
systematic evaluation of domain adaptation in facial expression recognition.
Using state-of-the-art transfer learning techniques and six commonly-used
facial expression datasets (three collected in the lab and three
"in-the-wild"), we conduct extensive round-robin experiments to examine the
classification accuracies for a state-of-the-art CNN model. We also perform
multi-source experiments where we examine a model's ability to transfer from
multiple source datasets, including (i) within-setting (e.g., lab to lab), (ii)
cross-setting (e.g., in-the-wild to lab), (iii) mixed-setting (e.g., lab and
wild to lab) transfer learning experiments. We find sobering results that the
accuracy of transfer learning is not high, and varies idiosyncratically with
the target dataset, and to a lesser extent the source dataset. Generally, the
best settings for transfer include fine-tuning the weights of a pre-trained
model, and we find that training with more datasets, regardless of setting,
improves transfer performance. We end with a discussion of the need for more --
and regular -- systematic investigations into the generalizability of FER
models, especially for deployed applications.
- Abstract(参考訳): 顔認識は商業的に重要な応用であるが、一般的な制限の一つは、ターゲット画像がモデルがトレーニングした画像とは全く異なる特性を持つ可能性がある、サンプル外分布の予測を必要とする場合が多いことである。
これらのモデルは、見当たらないターゲットドメインに対して、どの程度うまく、または悪いか?
本稿では,表情認識における領域適応の体系的評価について述べる。
最先端の伝達学習技術と6つの一般的な表情データセット(実験室で収集された3つと「内部3つ」)を用いて、最先端CNNモデルの分類精度を調べるために、広範囲なラウンドロビン実験を行った。
我々はまた、モデルが複数のソースデータセットから転送する能力を調べるマルチソース実験を行い、例えば、(i)内部設定(例えば、実験室から実験室)、(ii)クロスセット(例えば、実験室から実験室へ)、(iii)混合設定(例えば、実験室と野生から実験室へ)トランスファー学習実験を含む。
その結果,移動学習の精度は高くなく,対象のデータセットと慣用的に変化し,より少ない範囲のソースデータセットが得られることがわかった。
一般的に、転送に最適な設定は、事前訓練されたモデルの重みを微調整することであり、設定にかかわらず、より多くのデータセットによるトレーニングが転送性能を向上させることが分かる。
最後に、特にデプロイされたアプリケーションにおいて、ferモデルの一般化可能性に関するより(そして定期的な)系統的な調査の必要性について論じる。
関連論文リスト
- Validation of Practicality for CSI Sensing Utilizing Machine Learning [0.0]
我々は、人間の姿勢を認識するための5つの異なる機械学習モデルを開発し、評価する。
これらのモデルの精度は、異なるトレーニングデータでどのように変化するかを分析する。
データ収集に使用するモデルと異なる設定でモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T09:25:08Z) - Regularized Training with Generated Datasets for Name-Only Transfer of Vision-Language Models [36.59260354292177]
近年のテキスト・画像生成の進歩により、研究者は生成モデルを用いて知覚モデルに適したデータセットを生成するようになった。
我々は、実際の画像にアクセスせずに、視覚言語モデルを特定の分類モデルに微調整することを目指している。
生成した画像の忠実度が高いにもかかわらず、生成したデータセットを用いてモデルを微調整すると、顕著な性能劣化が観測された。
論文 参考訳(メタデータ) (2024-06-08T10:43:49Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Transfer Learning between Motor Imagery Datasets using Deep Learning --
Validation of Framework and Comparison of Datasets [0.0]
本稿では,コンピュータビジョンによく用いられる,シンプルなディープラーニングベースのフレームワークを提案する。
精神画像復号処理におけるデータセット間変換学習の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-04T20:58:57Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Self-Supervised In-Domain Representation Learning for Remote Sensing
Image Scene Classification [1.0152838128195465]
ImageNetのトレーニング済み重量を様々なリモートセンシングタスクに転送すると、許容できる結果が得られる。
近年の研究では、自己教師あり学習手法が、より差別的で伝達しやすい視覚的特徴を捉えていることが示されている。
我々はこれらの事実に動機付けられ、対照的な自己教師付き学習を用いて、リモートセンシング画像のドメイン内表現を事前訓練する。
論文 参考訳(メタデータ) (2023-02-03T15:03:07Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Intra-domain and cross-domain transfer learning for time series data --
How transferable are the features? [0.0]
本研究の目的は,時系列データの異なる領域間において,転送可能がどのような特徴を持つかを評価することである。
伝達学習の効果は,モデルの予測性能と学習時の収束率の観点から観察される。
論文 参考訳(メタデータ) (2022-01-12T12:55:21Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。