論文の概要: Evaluating Temporal Patterns in Applied Infant Affect Recognition
- arxiv url: http://arxiv.org/abs/2209.03496v1
- Date: Wed, 7 Sep 2022 23:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:18:54.185899
- Title: Evaluating Temporal Patterns in Applied Infant Affect Recognition
- Title(参考訳): 乳幼児の感情認識における時間パターンの評価
- Authors: Allen Chang, Lauren Klein, Marcelo R. Rosales, Weiyang Deng, Beth A.
Smith, Maja J. Matari\'c
- Abstract要約: 本稿では,幼児とロボットの相互作用の文脈における分類性能に影響を及ぼす時間的パターンについて述べる。
乳幼児は顔と体の特徴の両方を用いて認識分類器に影響を及ぼすよう訓練した。
パフォーマンスが経時的にどのように変化したかを評価するため,ベストパフォーマンスモデルについて詳細な分析を行った。
- 参考スコア(独自算出の注目度): 5.312541762281102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agents must monitor their partners' affective states continuously in order to
understand and engage in social interactions. However, methods for evaluating
affect recognition do not account for changes in classification performance
that may occur during occlusions or transitions between affective states. This
paper addresses temporal patterns in affect classification performance in the
context of an infant-robot interaction, where infants' affective states
contribute to their ability to participate in a therapeutic leg movement
activity. To support robustness to facial occlusions in video recordings, we
trained infant affect recognition classifiers using both facial and body
features. Next, we conducted an in-depth analysis of our best-performing models
to evaluate how performance changed over time as the models encountered missing
data and changing infant affect. During time windows when features were
extracted with high confidence, a unimodal model trained on facial features
achieved the same optimal performance as multimodal models trained on both
facial and body features. However, multimodal models outperformed unimodal
models when evaluated on the entire dataset. Additionally, model performance
was weakest when predicting an affective state transition and improved after
multiple predictions of the same affective state. These findings emphasize the
benefits of incorporating body features in continuous affect recognition for
infants. Our work highlights the importance of evaluating variability in model
performance both over time and in the presence of missing data when applying
affect recognition to social interactions.
- Abstract(参考訳): エージェントは、社会的相互作用を理解し、関与するために、パートナーの情緒状態を継続的に監視しなければならない。
しかしながら、感情認識を評価する方法は、咬合や感情状態間の遷移時に生じる分類性能の変化を考慮しない。
本稿では,乳児の情動状態が治療脚運動活動に参加する能力に寄与する乳幼児とロボットの相互作用の文脈における分類性能に影響する時間的パターンについて述べる。
映像記録における顔の閉塞に対する堅牢性を支援するため,幼児の顔の特徴と身体の特徴を併用した認識分類を訓練した。
次に,データ不足や幼児への影響の変化に遭遇したモデルが,時間とともにどのように変化するかを評価するために,ベストパフォーマンスモデルの詳細な分析を行った。
高い信頼度で特徴を抽出する時間窓において、顔の特徴を訓練したユニモーダルモデルは、顔と身体の両方の特徴を訓練したマルチモーダルモデルと同等の性能を達成した。
しかし、マルチモーダルモデルはデータセット全体の評価においてユニモーダルモデルよりも優れています。
さらに,情動状態遷移を予測した場合のモデル性能は最も弱く,同情的状態の複数の予測により改善した。
これらの知見は, 幼児の継続的影響認識に身体特徴を取り入れることの利点を強調した。
本研究は,社会的相互作用に感情認識を適用した際の,時間的および欠落データの有無の両方において,モデル性能の変動を評価することの重要性を強調した。
関連論文リスト
- Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Temporal Effects on Pre-trained Models for Language Processing Tasks [9.819970078135343]
本稿では, 時間的モデル劣化がそれほど大きな問題ではないことを示すために, 大規模なニューラルプレトレーニング表現を用いた実験を行った。
しかし、時間的領域適応が有益であり、より最近の時間的データに基づいてシステムが訓練された場合、所定の時間に対してより優れた性能が得られる。
論文 参考訳(メタデータ) (2021-11-24T20:44:12Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild [0.2216657815393579]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
論文 参考訳(メタデータ) (2020-09-29T09:24:29Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。