論文の概要: Inside Out or Not: Privacy Implications of Emotional Disclosure
- arxiv url: http://arxiv.org/abs/2409.11805v1
- Date: Wed, 18 Sep 2024 08:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 18:34:01.712371
- Title: Inside Out or Not: Privacy Implications of Emotional Disclosure
- Title(参考訳): 内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面・内面
- Authors: Elham Naghizade, Kaixin Ji, Benjamin Tag, Flora Salim,
- Abstract要約: 個人の情報共有行動の促進における感情の役割について,特に都市部や社会的結びつきとの関連について検討した。
我々は、位置と時間、感情、および個人情報共有行動を統合する新しい方法論を採用する。
その結果、自己報告された感情は、遠い社会集団との個人的情報共有行動に影響を及ぼし、一方中立的な感情は、個人が密接な社会サークルとより正確な情報を共有することにつながることが明らかとなった。
- 参考スコア(独自算出の注目度): 6.667345087444936
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Privacy is dynamic, sensitive, and contextual, much like our emotions. Previous studies have explored the interplay between privacy and context, privacy and emotion, and emotion and context. However, there remains a significant gap in understanding the interplay of these aspects simultaneously. In this paper, we present a preliminary study investigating the role of emotions in driving individuals' information sharing behaviour, particularly in relation to urban locations and social ties. We adopt a novel methodology that integrates context (location and time), emotion, and personal information sharing behaviour, providing a comprehensive analysis of how contextual emotions affect privacy. The emotions are assessed with both self-reporting and electrodermal activity (EDA). Our findings reveal that self-reported emotions influence personal information-sharing behaviour with distant social groups, while neutral emotions lead individuals to share less precise information with close social circles, a pattern is potentially detectable with wrist-worn EDA. Our study helps lay the foundation for personalised emotion-aware strategies to mitigate oversharing risks and enhance user privacy in the digital age.
- Abstract(参考訳): プライバシーは動的で、敏感で、文脈的です。
これまでの研究では、プライバシとコンテキスト、プライバシと感情、感情とコンテキストの相互作用について検討されてきた。
しかし、これらの側面の相互作用を同時に理解することには、大きなギャップが残っている。
本稿では,個人の情報共有行動,特に都市部や社会関係における感情の役割について予備的検討を行う。
我々は、文脈(位置と時間)、感情、個人の情報共有行動を統合する新しい方法論を採用し、文脈的感情がプライバシーにどのように影響するかを包括的に分析する。
感情は自己申告と電磁気活動(EDA)の両方で評価される。
以上の結果から,自己申告感情が遠隔社会集団と個人の情報共有行動に影響を及ぼすことが明らかとなった。一方,中立感情は個人に近縁な社会サークルとより正確でない情報を共有させる一方で,手首のEDAではパターンが検出できる可能性が示唆された。
我々の研究は、過度に共有されるリスクを軽減し、デジタル時代のユーザのプライバシーを高めるために、パーソナライズされた感情認識戦略の基礎を築くのに役立ちます。
関連論文リスト
- Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Emotion in Cognitive Architecture: Emergent Properties from Interactions
with Human Emotion [0.0]
この文書は、計算認知アーキテクチャにおける感情を表現するための取り組みを示す。
認知的人間とエージェントの相互作用のアプローチの利点は、人間の内的状態とプロセスを表現することである。
論文 参考訳(メタデータ) (2022-12-28T23:50:27Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z) - EmoDNN: Understanding emotions from short texts through a deep neural
network ensemble [2.459874436804819]
本稿では,短い内容から潜伏した個々の側面を推定する枠組みを提案する。
また,テキストコンテキストから感情を抽出する動的ドロップアウト共振器を備えた新しいアンサンブル分類器を提案する。
提案モデルでは,ノイズのある内容から感情を認識する上で,高い性能を実現することができる。
論文 参考訳(メタデータ) (2021-06-03T09:17:34Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - K-EmoCon, a multimodal sensor dataset for continuous emotion recognition
in naturalistic conversations [19.350031493515562]
K-EmoConは、自然主義的会話における継続的な感情の包括的なアノテーションを備えた、新しいデータセットである。
データセットには、オーディオ視覚記録、脳波、周辺生理信号を含むマルチモーダル計測が含まれている。
これには、自己、議論パートナー、外部オブザーバーという3つの利用可能な視点からの感情アノテーションが含まれている。
論文 参考訳(メタデータ) (2020-05-08T15:51:12Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。