論文の概要: Affect-Aware Deep Belief Network Representations for Multimodal
Unsupervised Deception Detection
- arxiv url: http://arxiv.org/abs/2108.07897v1
- Date: Tue, 17 Aug 2021 22:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:50:56.058342
- Title: Affect-Aware Deep Belief Network Representations for Multimodal
Unsupervised Deception Detection
- Title(参考訳): マルチモーダル非教師付きデセプション検出のための感情認識型深層信念ネットワーク表現
- Authors: Leena Mathur and Maja J Matari\'c
- Abstract要約: ラベルを必要とせず、ビデオの現実世界、高い盗難を検出するための教師なしのアプローチ。
本稿では,感情を意識しないDeep Belief Networks (DBN) の新たなアプローチを提案する。
また、DBNモデルを訓練する機能として顔の感情を使用するだけでなく、音声・視覚表現の整列器として顔の感情を利用するDBN訓練手順も導入する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated systems that detect the social behavior of deception can enhance
human well-being across medical, social work, and legal domains. Labeled
datasets to train supervised deception detection models can rarely be collected
for real-world, high-stakes contexts. To address this challenge, we propose the
first unsupervised approach for detecting real-world, high-stakes deception in
videos without requiring labels. This paper presents our novel approach for
affect-aware unsupervised Deep Belief Networks (DBN) to learn discriminative
representations of deceptive and truthful behavior. Drawing on psychology
theories that link affect and deception, we experimented with unimodal and
multimodal DBN-based approaches trained on facial valence, facial arousal,
audio, and visual features. In addition to using facial affect as a feature on
which DBN models are trained, we also introduce a DBN training procedure that
uses facial affect as an aligner of audio-visual representations. We conducted
classification experiments with unsupervised Gaussian Mixture Model clustering
to evaluate our approaches. Our best unsupervised approach (trained on facial
valence and visual features) achieved an AUC of 80%, outperforming human
ability and performing comparably to fully-supervised models. Our results
motivate future work on unsupervised, affect-aware computational approaches for
detecting deception and other social behaviors in the wild.
- Abstract(参考訳): 虚偽の社会的行動を検出する自動システムは、医療、社会労働、法的領域における人間の幸福を高めることができる。
教師付きデセプション検出モデルをトレーニングするためのラベル付きデータセットは、現実の高スループットコンテキストで収集されることは滅多にない。
この課題に対処するために,我々はラベルを必要とせず,実世界のハイステイク・デセプションを検出するための最初の教師なし手法を提案する。
本稿では,非教師付き深層信念ネットワーク(dbn)に対して,欺きと真理の行動の識別表現を学ぶための新しいアプローチを提案する。
本研究は, 感情と虚偽をリンクする心理学理論に基づいて, 顔の原子価, 顔の覚醒, 音声, 視覚的特徴を訓練した, 単調でマルチモーダルなDBNベースのアプローチの実験を行った。
dbnモデルがトレーニングされる機能として、顔の影響を利用するのに加えて、顔の影響をオーディオ・ビジュアル表現のアライナーとして使用するdbnトレーニング手順も導入する。
提案手法を評価するために,教師なしガウス混合モデルクラスタリングを用いた分類実験を行った。
我々の最高の教師なしアプローチ(顔の原子価と視覚的特徴に基づく)は、80%のAUCを達成し、人間の能力より優れ、完全に教師されたモデルに相容れない性能を実現しました。
本研究の結果は,非教師付き感情認識型計算手法の今後の研究を動機づけるものである。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Unsupervised Video Anomaly Detection for Stereotypical Behaviours in
Autism [20.09315869162054]
本稿では,コンピュータビジョン技術を用いてステレオタイプ行動を自動的に検出することに焦点を当てる。
本研究では、人間のポーズの時間的軌跡と人間の行動の反復パターンに基づいて、ステレオタイプ行動検出のためのデュアルストリーム深度モデル(DS-SBD)を提案する。
論文 参考訳(メタデータ) (2023-02-27T13:24:08Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Behind the Machine's Gaze: Biologically Constrained Neural Networks
Exhibit Human-like Visual Attention [40.878963450471026]
トップダウン方式でビジュアル・スキャンパスを生成するニューラル・ビジュアル・アテンション(NeVA)アルゴリズムを提案する。
提案手法は,人間の走査パスと類似性の観点から,最先端の非監視的注意モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-04-19T18:57:47Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Unsupervised Audio-Visual Subspace Alignment for High-Stakes Deception
Detection [3.04585143845864]
高い状況下で詐欺を検知する自動システムは、医療、社会労働、法的領域における社会的幸福を高めることができる。
ビデオにおける高い盗難を検出する既存のモデルが監視されているが、ラベル付きデータセットを使用してモデルをトレーニングすることは、ほとんどの現実世界のアプリケーションで収集されることは滅多にない。
本稿では,ハイテイクラベルを使わずに,実世界のハイテイクな虚偽を検知する,最初のマルチモーダルな非教師ありトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-02-06T21:53:12Z) - Introducing Representations of Facial Affect in Automated Multimodal
Deception Detection [18.16596562087374]
自動偽造検知システムは、社会の健康、正義、安全を高めることができる。
本稿では,顔認識における顔の感情の次元表現力の新たな解析法を提案する。
私たちは、現実世界の、高額な法廷状況で、真実または偽装的にコミュニケーションする人々のビデオデータセットを使用しました。
論文 参考訳(メタデータ) (2020-08-31T05:12:57Z) - Noisy Agents: Self-supervised Exploration by Predicting Auditory Events [127.82594819117753]
本稿では, エージェントが行動の因果的影響を理解することを奨励する, 強化学習(Reinforcement Learning, RL)の本質的なモチベーションを提案する。
ニューラルネットワークを用いて聴覚事象を予測し、予測誤差を本質的な報奨として利用し、RL探索を誘導する。
Atariゲームの実験結果から、我々の新しい本質的な動機は、最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:59:08Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。