論文の概要: Choose Settings Carefully: Comparing Action Unit detection at Different
Settings Using a Large-Scale Dataset
- arxiv url: http://arxiv.org/abs/2111.08324v1
- Date: Tue, 16 Nov 2021 09:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:04:10.201627
- Title: Choose Settings Carefully: Comparing Action Unit detection at Different
Settings Using a Large-Scale Dataset
- Title(参考訳): 注意深い設定の選択:大規模データセットを用いた異なる設定でのアクションユニット検出の比較
- Authors: Mina Bishay, Ahmed Ghoneim, Mohamed Ashraf and Mohammad Mavadati
- Abstract要約: 本稿では,顔画像の前処理によく使用される設定が,AU検出性能と複雑性に与える影響について検討する。
調査では、商業広告を見る参加者のために、野生で収集された55Kのビデオからなる大規模なデータセットを使用します。
- 参考スコア(独自算出の注目度): 3.2575001434344286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the impact of some of the commonly used
settings for (a) preprocessing face images, and (b) classification and
training, on Action Unit (AU) detection performance and complexity. We use in
our investigation a large-scale dataset, consisting of ~55K videos collected in
the wild for participants watching commercial ads. The preprocessing settings
include scaling the face to a fixed resolution, changing the color information
(RGB to gray-scale), aligning the face, and cropping AU regions, while the
classification and training settings include the kind of classifier
(multi-label vs. binary) and the amount of data used for training models. To
the best of our knowledge, no work had investigated the effect of those
settings on AU detection. In our analysis we use CNNs as our baseline
classification model.
- Abstract(参考訳): 本稿では,一般的な設定が与える影響について検討する。
(a)顔画像の事前処理、及び
b) 分類と訓練,行動単位(AU)検出性能と複雑性。
調査では、広告を見る参加者のために、野生で収集された約55Kのビデオからなる大規模なデータセットを使用しています。
事前処理設定には、顔の固定解像度へのスケーリング、色情報(RGBからグレースケール)の変更、顔の整列、AU領域のトリミング、分類とトレーニング設定には、分類器の種類(複数ラベル対バイナリ)とトレーニングモデルに使用されるデータ量が含まれる。
我々の知る限りでは、これらの設定がAU検出に与える影響は研究されていない。
分析では,ベースライン分類モデルとしてCNNを用いる。
関連論文リスト
- Outliers resistant image classification by anomaly detection [0.0]
本研究では,分類と異常検出を同時に行うモデルを提案する。
距離学習を用いて多次元空間における画像のベクトル表現を生成し、次にクロスエントロピーを用いた分類を行う。
様々なコンピュータビジョンモデルアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-11-15T12:43:38Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Improved Benthic Classification using Resolution Scaling and SymmNet
Unsupervised Domain Adaptation [8.35780131268962]
空間分解能の正規化のために,SymmNetの最先端Unsupervised Domain Adaptation法を,効率的な双線形プール層と画像スケーリングにより適用する。
その結果, トレーニング画像と異なるAUVサーベイから, 画像の精度を大幅に向上させるため, 汎用領域適応を向上できることが示唆された。
論文 参考訳(メタデータ) (2023-03-20T09:33:47Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Which CNNs and Training Settings to Choose for Action Unit Detection? A
Study Based on a Large-Scale Dataset [3.2575001434344286]
AU(Action Unit)検出では,10種類の浅いCNNと深いCNNを比較した。
第2に、異なるトレーニング設定(例えば、入力の集中/正規化、異なる拡張精度の使用、データのバランス)がAU検出の性能に与える影響について検討する。
第3に、トレーニングセットにおけるラベル付き被検体とフレームの数がAU検出性能に与える影響について検討する。
論文 参考訳(メタデータ) (2021-11-16T09:28:32Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。