論文の概要: Facial Emotion Recognition using CNN in PyTorch
- arxiv url: http://arxiv.org/abs/2312.10818v1
- Date: Sun, 17 Dec 2023 21:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:20:37.424308
- Title: Facial Emotion Recognition using CNN in PyTorch
- Title(参考訳): CNNを用いたPyTorchにおける顔表情認識
- Authors: Deyuan Qu, Sudip Dhakal, Dominic Carrillo
- Abstract要約: カメラ画像からリアルタイムの顔の感情を認識するモデルを実装した。
我々のモデルはPyTorchライブラリを利用した畳み込みニューラルネットワークに基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this project, we have implemented a model to recognize real-time facial
emotions given the camera images. Current approaches would read all data and
input it into their model, which has high space complexity. Our model is based
on the Convolutional Neural Network utilizing the PyTorch library. We believe
our implementation will significantly improve the space complexity and provide
a useful contribution to facial emotion recognition. Our motivation is to
understanding clearly about deep learning, particularly in CNNs, and analysis
real-life scenarios. Therefore, we tunned the hyper parameter of model such as
learning rate, batch size, and number of epochs to meet our needs. In addition,
we also used techniques to optimize the networks, such as activation function,
dropout and max pooling. Finally, we analyzed the result from two optimizer to
observe the relationship between number of epochs and accuracy.
- Abstract(参考訳): 本プロジェクトでは,カメラ画像からリアルタイム顔の感情を認識できるモデルを構築した。
現在のアプローチでは、すべてのデータを読み込み、それをモデルに入力する。
我々のモデルはPyTorchライブラリを利用した畳み込みニューラルネットワークに基づいている。
われわれの実装は空間の複雑さを大幅に改善し、顔の感情認識に有用な貢献をもたらすと信じている。
私たちのモチベーションは、ディープラーニング、特にCNNで明確に理解し、実際のシナリオを分析することです。
そこで我々は,学習率,バッチサイズ,エポック数といったモデルのハイパーパラメータを調整し,ニーズを満たすように調整した。
さらに,アクティベーション関数やドロップアウト,maxプーリングなど,ネットワークを最適化する手法も使用しました。
最後に、2つのオプティマイザからの結果を分析し,エポック数と精度の関係を観察した。
関連論文リスト
- SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Facial Emotion Recognition using Deep Residual Networks in Real-World
Environments [5.834678345946704]
そこで本研究では,Wild内および大規模に収集されたビデオデータセットに基づいて訓練された顔特徴抽出モデルを提案する。
データセットは100万のラベル付きフレームと2,616万の被験者で構成されている。
感情認識領域において時間情報は重要であるため、LSTM細胞を用いてデータの時間的ダイナミクスを捉える。
論文 参考訳(メタデータ) (2021-11-04T10:08:22Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - BRAIN2DEPTH: Lightweight CNN Model for Classification of Cognitive
States from EEG Recordings [0.0]
本稿では,脳波記録から認知状態を分類するための簡易軽量CNNモデルを提案する。
そこで我々は,2段階からなる認知表現を学習するための新しいパイプラインを開発した。
他のモデルのパラメータの4%未満を活用して、同等のパフォーマンスを実現しました。
論文 参考訳(メタデータ) (2021-06-12T05:06:20Z) - Progressive Spatio-Temporal Bilinear Network with Monte Carlo Dropout
for Landmark-based Facial Expression Recognition with Uncertainty Estimation [93.73198973454944]
提案手法の性能は, 広く使用されている3つのデータセットで評価される。
ビデオベースの最先端の手法に匹敵するが、複雑さははるかに少ない。
論文 参考訳(メタデータ) (2021-06-08T13:40:30Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Emotion Recognition on large video dataset based on Convolutional
Feature Extractor and Recurrent Neural Network [0.2855485723554975]
我々のモデルは、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせて、ビデオデータ上での次元的感情を予測する。
実験は、最新のAff-Wild2データベースを含む、公開データセットで実施されている。
論文 参考訳(メタデータ) (2020-06-19T14:54:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。