論文の概要: Evaluation and Comparison of Emotionally Evocative Image Augmentation Methods
- arxiv url: http://arxiv.org/abs/2406.16187v1
- Date: Sun, 23 Jun 2024 18:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:34:57.498092
- Title: Evaluation and Comparison of Emotionally Evocative Image Augmentation Methods
- Title(参考訳): 感情誘発画像強調法の評価と比較
- Authors: Jan Ignatowicz, Krzysztof Kutt, Grzegorz J. Nalepa,
- Abstract要約: GANを用いた感情コンピューティングのための刺激データセット作成手法について検討する。
従来のデータセット作成手法はコストと時間を要するため、代替案の調査が進められます。
我々は、データ拡張および転送学習技術とともに、Deep Convolutional GAN、Con Conditional Conditional Augmentation GAN、Wasserstein GANなど、さまざまなGANアーキテクチャを用いて実験を行った。
- 参考スコア(独自算出の注目度): 8.732274235941974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experiments in affective computing are based on stimulus datasets that, in the process of standardization, receive metadata describing which emotions each stimulus evokes. In this paper, we explore an approach to creating stimulus datasets for affective computing using generative adversarial networks (GANs). Traditional dataset preparation methods are costly and time consuming, prompting our investigation of alternatives. We conducted experiments with various GAN architectures, including Deep Convolutional GAN, Conditional GAN, Auxiliary Classifier GAN, Progressive Augmentation GAN, and Wasserstein GAN, alongside data augmentation and transfer learning techniques. Our findings highlight promising advances in the generation of emotionally evocative synthetic images, suggesting significant potential for future research and improvements in this domain.
- Abstract(参考訳): 感情コンピューティングの実験は、刺激データセットに基づいており、標準化の過程で、各刺激が引き起こす感情を記述するメタデータを受け取る。
本稿では,GAN(Generative Adversarial Network)を用いた感情コンピューティングのための刺激データセット作成手法について検討する。
従来のデータセット作成手法はコストと時間を要するため、代替案の調査が進められます。
我々は、データ拡張および転送学習技術とともに、Deep Convolutional GAN、Conditional GAN、Auxiliary Classifier GAN、Progressive Augmentation GAN、Wasserstein GANなど、さまざまなGANアーキテクチャを用いて実験を行った。
以上の結果から,情緒的に誘発される合成画像の創出が期待できるものとなり,今後の研究や改善の可能性が示唆された。
関連論文リスト
- Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Emotion Recognition Using Transformers with Masked Learning [7.650385662008779]
本研究では、視覚変換器(ViT)と変換器(Transformer)のモデルを用いて、Valence-Arousal(VA)の推定に焦点をあてる。
このアプローチは、従来の畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)ベースのメソッドを超越し、新しいTransformerベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-19T12:26:53Z) - EEG-based Cognitive Load Classification using Feature Masked
Autoencoding and Emotion Transfer Learning [13.404503606887715]
脳波(EEG)を用いた認知負荷の新しい分類法を提案する。
感情関連脳波データセットの自己教師付きマスクによる自動エンコーディングを用いて、我々のモデルを事前学習する。
実験の結果,提案手法は従来の単段階完全教師付き学習よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-01T02:59:19Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Data Augmentation for Enhancing EEG-based Emotion Recognition with Deep
Generative Models [13.56090099952884]
本稿では、感情認識モデルの性能を高めるために、脳波トレーニングデータを増強する3つの方法を提案する。
フル利用戦略では、生成されたすべてのデータが、生成されたデータの品質を判断することなく、トレーニングデータセットに拡張される。
実験結果から,脳波を用いた感情認識モデルの性能向上を図った。
論文 参考訳(メタデータ) (2020-06-04T21:23:09Z) - Joint Deep Cross-Domain Transfer Learning for Emotion Recognition [46.322012908885775]
本稿では、リッチデータセットから学習した知識をソース・プールデータセットに共同で転送する学習戦略を提案する。
また,本手法は,認識性能の向上につながるクロスドメインな特徴を学習することができる。
論文 参考訳(メタデータ) (2020-03-24T22:30:42Z) - Adversarial-based neural networks for affect estimations in the wild [3.3335236123901995]
本研究では,本研究で提案した対戦型ネットワークによる潜在機能の利用について検討する。
具体的には,判別器にいくつかのモードをアグリゲートすることで,生成器が抽出した潜在特性にさらに適応する。
最近リリースされたSEWAデータセットの実験は、結果の進歩的な改善を示唆している。
論文 参考訳(メタデータ) (2020-02-03T16:52:49Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。