論文の概要: What You Feel Is Not What They See: On Predicting Self-Reported Emotion from Third-Party Observer Labels
- arxiv url: http://arxiv.org/abs/2601.21130v1
- Date: Thu, 29 Jan 2026 00:07:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.483421
- Title: What You Feel Is Not What They See: On Predicting Self-Reported Emotion from Third-Party Observer Labels
- Title(参考訳): サードパーティのオブザーバラベルからの自己報告による感情予測について
- Authors: Yara El-Tawil, Aneesha Sampath, Emily Mower Provost,
- Abstract要約: 自己報告された感情ラベルは内部体験を捉え、サードパーティラベルは外部知覚を反映する。
このギャップは、介入を導くのに正確な自己報告モデリングが不可欠であるメンタルヘルスにおいて重要である。
本稿では,自己申告者を対象とした第三者学習モデルのクロスコーパス評価について述べる。
- 参考スコア(独自算出の注目度): 9.016750201407897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-reported emotion labels capture internal experience, while third-party labels reflect external perception. These perspectives often diverge, limiting the applicability of third-party-trained models to self-report contexts. This gap is critical in mental health, where accurate self-report modeling is essential for guiding intervention. We present the first cross-corpus evaluation of third-party-trained models on self-reports. We find activation unpredictable (CCC approximately 0) and valence moderately predictable (CCC approximately 0.3). Crucially, when content is personally significant to the speaker, models achieve high performance for valence (CCC approximately 0.6-0.8). Our findings point to personal significance as a key pathway for aligning external perception with internal experience and underscore the challenge of self-report activation modeling.
- Abstract(参考訳): 自己報告された感情ラベルは内部体験を捉え、サードパーティラベルは外部知覚を反映する。
これらの視点はしばしば多様化し、第三者が訓練したモデルの自己報告コンテキストへの適用性を制限する。
このギャップは、介入を導くのに正確な自己報告モデリングが不可欠であるメンタルヘルスにおいて重要である。
本稿では,自己申告者を対象とした第三者学習モデルのクロスコーパス評価について述べる。
その結果,アクティベーション予測不能 (CCC約0) と原子価予測不能 (CCC約0.3) が認められた。
重要なことに、話者に対してコンテンツが個人的に重要な場合、モデルは価値(CCC約0.6-0.8)に対して高い性能を達成する。
本研究は,外的知覚と内的経験の整合を図り,自己報告型アクティベーションモデリングの課題を浮き彫りにするための重要な経路として,個人的意義を指摘する。
関連論文リスト
- Robust Egocentric Referring Video Object Segmentation via Dual-Modal Causal Intervention [58.05340906967343]
Egocentric Referring Video Object (Ego-RVOS)は、言語クエリで説明されているように、人間のアクションに積極的に関与する特定のオブジェクトを、一人称ビデオに分割することを目的としている。
既存の手法はしばしば苦労し、データセット内の歪んだオブジェクト-アクションのペアリングから急激な相関を学習する。
本稿では,強力なトレーニング済みRVOSをエゴセントリックドメインに適応させるプラグイン因果フレームワークであるCausal-Referring(CERES)を紹介する。
論文 参考訳(メタデータ) (2025-12-30T16:22:14Z) - Automated Detection of Visual Attribute Reliance with a Self-Reflective Agent [58.90049897180927]
視覚モデルにおける視覚的特徴の意図しない依存を検出するための自動フレームワークを提案する。
自己反射エージェントは、モデルが依存する可能性のある視覚特性に関する仮説を生成し、テストする。
我々は,視覚特性の多様さを示すために設計された130モデルの新しいベンチマークに対して,我々のアプローチを評価した。
論文 参考訳(メタデータ) (2025-10-24T17:59:02Z) - Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs [60.15472325639723]
人格特性は、人間の行動の予測因子として長い間研究されてきた。
近年のLarge Language Models (LLM) は, 人工システムに類似したパターンが出現する可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-03T21:27:10Z) - Beyond Self-Reports: Multi-Observer Agents for Personality Assessment in Large Language Models [2.7010154811483167]
本稿では,LLMエージェントの性格特性評価のための新しいマルチ・オブザーバ・フレームワークを提案する。
自己評価に頼る代わりに、複数のオブザーバエージェントを採用する。
これらの評価は従来の自己評価よりも人間の判断と密接に一致していることを示す。
論文 参考訳(メタデータ) (2025-04-11T10:03:55Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition [10.59440995582639]
パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T14:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。