論文の概要: Investigating Emotion-Color Association in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2011.11058v1
- Date: Sun, 22 Nov 2020 16:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 08:52:29.736096
- Title: Investigating Emotion-Color Association in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける感情色関連の研究
- Authors: Shivi Gupta, Shashi Kant Gupta
- Abstract要約: ディープニューラルネットワークによって学習された表現は、実際に感情と色彩の関連を示すことができる。
また,本手法は感情分類タスク,特にモデルをトレーニングする例が少ない場合にも有効であることを示す。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been found that representations learned by Deep Neural Networks (DNNs)
correlate very well to neural responses measured in primates' brains and
psychological representations exhibited by human similarity judgment. On
another hand, past studies have shown that particular colors can be associated
with specific emotion arousal in humans. Do deep neural networks also learn
this behavior? In this study, we investigate if DNNs can learn implicit
associations in stimuli, particularly, an emotion-color association between
image stimuli. Our study was conducted in two parts. First, we collected human
responses on a forced-choice decision task in which subjects were asked to
select a color for a specified emotion-inducing image. Next, we modeled this
decision task on neural networks using the similarity between deep
representation (extracted using DNNs trained on object classification tasks) of
the images and images of colors used in the task. We found that our model
showed a fuzzy linear relationship between the two decision probabilities. This
results in two interesting findings, 1. The representations learned by deep
neural networks can indeed show an emotion-color association 2. The
emotion-color association is not just random but involves some cognitive
phenomena. Finally, we also show that this method can help us in the emotion
classification task, specifically when there are very few examples to train the
model. This analysis can be relevant to psychologists studying emotion-color
associations and artificial intelligence researchers modeling emotional
intelligence in machines or studying representations learned by deep neural
networks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)によって学習された表現は、霊長類の脳で測定された神経反応と人間の類似性判定によって示された心理的表現と非常によく相関していることがわかった。
一方、過去の研究では、特定の色が人間の特定の感情に関連があることが示されている。
ディープニューラルネットワークもこの行動を学ぶのか?
本研究では,DNNがイメージ刺激の暗黙的関連,特にイメージ刺激の感情色関連を学習できるかを検討する。
私たちの研究は2つに分けて行われた。
まず,特定感情誘発画像の色彩選択を被験者に依頼した強制コリン決定タスクに対して,人間の反応を収集した。
次に、ニューラルネットワーク上のこの決定タスクを、画像の深度表現(オブジェクト分類タスクで訓練されたDNNを用いて抽出)とタスクで使用される色の画像との類似性を用いてモデル化した。
その結果,本モデルは2つの決定確率の間にファジィ線形関係を示した。
これは2つの興味深い発見をもたらす。
1.ディープニューラルネットワークで学習した表現は、実際に感情と色彩の関連を示すことができる
2.感情と色彩の関連性はランダムではなく,認知現象を伴う。
最後に、この方法が感情分類タスクにおいて、特にモデルをトレーニングするサンプルが極めて少ない場合に役に立つことも示します。
この分析は、感情-色関係を研究する心理学者や、機械の感情知能をモデル化したり、ディープニューラルネットワークによって学習された表現を研究する人工知能研究者と関係がある。
関連論文リスト
- Parallel Backpropagation for Shared-Feature Visualization [36.31730251757713]
最近の研究は、いくつかのカテゴリー外刺激が高レベルの視覚脳領域のニューロンを活性化することを示した。
これは、他の画像にもある好みのクラスに共通する視覚的特徴のためかもしれない。
本稿では,これらの特徴を可視化するためのディープラーニングに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-16T05:56:03Z) - Identifying Interpretable Visual Features in Artificial and Biological
Neural Systems [3.604033202771937]
ニューラルネットワークの単一ニューロンはしばしば、個々の直感的に意味のある特徴を表すものとして解釈される。
多くのニューロンは$textitmixed selectivity$、すなわち複数の無関係な特徴を示す。
本稿では、視覚的解釈可能性の定量化と、ネットワークアクティベーション空間における意味のある方向を見つけるためのアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-17T17:41:28Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Deep Auto-encoder with Neural Response [8.797970797884023]
ニューラルレスポンス(DAE-NR)を用いたディープオートエンコーダと呼ばれるハイブリッドモデルを提案する。
DAE-NRは、視覚野からの情報をANNに組み込んで、より優れた画像再構成と、生物学的および人工ニューロン間の高い神経表現類似性を実現する。
DAE-NRは, 共同学習によって(画像再構成の性能の向上) 生体ニューロンと人工ニューロンとの表現的類似性の向上が可能であることを実証した。
論文 参考訳(メタデータ) (2021-11-30T11:44:17Z) - Emotion recognition in talking-face videos using persistent entropy and
neural networks [0.5156484100374059]
私たちは、会話ビデオから感情を認識し、分類するための主要なツールとして、永続的エントロピーとニューラルネットワークを使用します。
ビデオの小さな変化は、署名に小さな変化をもたらすことを証明している。
これらのトポロジカルなシグネチャは、ニューラル・ネットワークに、中立、穏やか、幸せ、悲しみ、怒り、恐怖、嫌悪、驚きの感情を区別するために使用される。
論文 参考訳(メタデータ) (2021-10-26T11:08:56Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Genetic Feature Selection Based Two-stream Neural Network for Anger
Veracity Recognition [3.885779089924737]
我々は,映像刺激の行動と真の怒りを観察する観察者の時系列瞳孔特徴を選択するために,遺伝子に基づく特徴選択法(GFS)を用いた。
次に、選択した機能を使って、単純な完全に接続されたニューラルネットワークと2ストリームのニューラルネットワークをトレーニングします。
その結果,両眼の瞳孔反応の精度は93.58%であった。
論文 参考訳(メタデータ) (2020-09-06T05:52:41Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。