論文の概要: ArtCognition: A Multimodal AI Framework for Affective State Sensing from Visual and Kinematic Drawing Cues
- arxiv url: http://arxiv.org/abs/2601.04297v1
- Date: Wed, 07 Jan 2026 17:35:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.870063
- Title: ArtCognition: A Multimodal AI Framework for Affective State Sensing from Visual and Kinematic Drawing Cues
- Title(参考訳): ArtCognition:ビジュアルおよびキネマティック描画キューから影響のある状態センシングのためのマルチモーダルAIフレームワーク
- Authors: Behrad Binaei-Haghighi, Nafiseh Sadat Sajadi, Mehrad Liviyan, Reyhane Akhavan Kharazi, Fatemeh Amirkhani, Behnam Bahrak,
- Abstract要約: 本稿では、感情知覚のための豊かで未探索なモダリティとしてデジタル描画を紹介する。
本稿では,House-Tree-Personテストの自動解析のための新しいマルチモーダルフレームワークArtCognitionを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The objective assessment of human affective and psychological states presents a significant challenge, particularly through non-verbal channels. This paper introduces digital drawing as a rich and underexplored modality for affective sensing. We present a novel multimodal framework, named ArtCognition, for the automated analysis of the House-Tree-Person (HTP) test, a widely used psychological instrument. ArtCognition uniquely fuses two distinct data streams: static visual features from the final artwork, captured by computer vision models, and dynamic behavioral kinematic cues derived from the drawing process itself, such as stroke speed, pauses, and smoothness. To bridge the gap between low-level features and high-level psychological interpretation, we employ a Retrieval-Augmented Generation (RAG) architecture. This grounds the analysis in established psychological knowledge, enhancing explainability and reducing the potential for model hallucination. Our results demonstrate that the fusion of visual and behavioral kinematic cues provides a more nuanced assessment than either modality alone. We show significant correlations between the extracted multimodal features and standardized psychological metrics, validating the framework's potential as a scalable tool to support clinicians. This work contributes a new methodology for non-intrusive affective state assessment and opens new avenues for technology-assisted mental healthcare.
- Abstract(参考訳): ヒトの感情的および心理的状態の客観的評価は、特に非言語的チャネルを通して重要な課題を示す。
本稿では、感情知覚のための豊かで未探索なモダリティとしてデジタル描画を紹介する。
本稿では,広く使用されている心理機器であるHouse-Tree-Person (HTP) テストの自動解析のための,ArtCognitionという新しいマルチモーダルフレームワークを提案する。
ArtCognitionは、コンピュータビジョンモデルによってキャプチャされた最後のアートワークからの静的な視覚的特徴と、ストロークスピード、一時停止、滑らかさなど、描画プロセス自体から派生した動的挙動のキネマティックキューという、2つの異なるデータストリームをユニークに融合させる。
低レベルの特徴と高レベルの心理的解釈のギャップを埋めるために、検索型拡張世代(RAG)アーキテクチャを用いる。
これは、確立された心理学的知識の分析、説明可能性の向上、モデル幻覚の可能性を減少させる。
以上の結果から,視覚的および行動的手技の融合は,モダリティ単独よりも微妙な評価をもたらすことが示唆された。
抽出したマルチモーダル特徴と標準化された心理指標との間に有意な相関関係を示し,臨床医を支援するためのスケーラブルなツールとしてのフレームワークの可能性を検証する。
本研究は、非侵襲的情緒的状態評価のための新しい方法論を提供し、技術支援精神医療のための新たな道を開く。
関連論文リスト
- Bridging Cognitive Gap: Hierarchical Description Learning for Artistic Image Aesthetics Assessment [51.40989269202702]
審美的品質評価タスクは,AIGCの定量的評価システムの開発に不可欠である。
本研究では,記述生成による美的次元の分離を図った芸術的画像の美的評価フレームワークであるArtQuantを提案する。
提案手法は,従来のトレーニングの33%しか必要とせず,いくつかのデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-12-29T12:18:26Z) - Interpretable Neuropsychiatric Diagnosis via Concept-Guided Graph Neural Networks [56.75602443936853]
青少年の5人に1人は、不安、うつ病、行動障害などの精神状態または行動の健康状態と診断されている。
従来の研究では、障害予測にグラフニューラルネットワーク(GNN)アプローチを使用していたが、ブラックボックスのままであり、信頼性と臨床翻訳を制限している。
本研究では,解釈可能な機能接続の概念を符号化する概念に基づく診断フレームワークを提案する。
我々の設計は臨床的に意味のある接続パターンを通じて予測を保証し、解釈可能性と強い予測性能の両方を可能にする。
論文 参考訳(メタデータ) (2025-10-02T19:38:46Z) - AI Models for Depressive Disorder Detection and Diagnosis: A Review [0.9012198585960441]
うつ病性障害は世界中で障害の原因の1つとなっているが、診断は主観的臨床評価に大きく依存している。
本稿では,55の鍵研究の体系的レビューに基づいて,最先端のAI手法の発見と診断に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-08-16T11:46:48Z) - Early Detection of Mental Health Issues Using Social Media Posts [0.0]
Redditのようなソーシャルメディアプラットフォームは、ユーザー生成コンテンツの豊富なソースを表している。
メンタルヘルス危機の早期発見に言語的特徴と時間的特徴を統合したマルチモーダルディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-06T23:08:08Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Brain3D: Generating 3D Objects from fMRI [78.46936519561298]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Unidirectional brain-computer interface: Artificial neural network
encoding natural images to fMRI response in the visual cortex [12.1427193917406]
本稿では,人間の脳を模倣する人工ニューラルネットワークVISIONを提案する。
VISIONは、人間の血行動態の反応をfMRIボクセル値として、最先端の性能を超える精度で45%の精度で予測することに成功した。
論文 参考訳(メタデータ) (2023-09-26T15:38:26Z) - Dynamic Graph Representation Learning for Depression Screening with
Transformer [13.551342607089184]
ソーシャルメディアプラットフォームは、メンタルヘルスを調査し、精神疾患の事例を検出する研究機会を提供する。
既存の抑うつ検出手法は,特徴工学への依存と時間的要因の考慮の欠如により制約される。
提案するContrastEgoは,各ユーザを動的時間進化型属性グラフ(ego-network)として扱う。
ContrastEgoは、様々な実験環境におけるすべての有効性指標において、最先端の手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-10T20:34:40Z) - MEDUSA: Multi-scale Encoder-Decoder Self-Attention Deep Neural Network
Architecture for Medical Image Analysis [71.2022403915147]
医用画像解析に適したマルチスケールエンコーダデコーダ自己保持機構であるMEDUSAを紹介する。
我々は、COVIDx、RSNA RICORD、RSNA Pneumonia Challengeなどの医療画像分析ベンチマークの最先端性能を得た。
論文 参考訳(メタデータ) (2021-10-12T15:05:15Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。