論文の概要: AudioInsight: Detecting Social Contexts Relevant to Social Anxiety from Speech
- arxiv url: http://arxiv.org/abs/2407.14458v1
- Date: Fri, 19 Jul 2024 17:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 16:55:32.265125
- Title: AudioInsight: Detecting Social Contexts Relevant to Social Anxiety from Speech
- Title(参考訳): AudioInsight:音声から社会的不安に関連する社会的文脈を検出する
- Authors: Varun Reddy, Zhiyuan Wang, Emma Toner, Max Larrazabal, Mehdi Boukhechba, Bethany A. Teachman, Laura E. Barnes,
- Abstract要約: 本研究では,環境音節を利用して社会的脅威の文脈を検出する手法を提案する。
我々は、相互作用パートナーの数(ダイアディック対グループ)と評価脅威の度合いの2つの重要な側面に焦点を当てる。
試料幅5倍のCross Validation (CV) では,90%の精度でグループ間相互作用からDyadicを識別し,83%で評価的脅威を検出できた。
- 参考スコア(独自算出の注目度): 10.648118103594586
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: During social interactions, understanding the intricacies of the context can be vital, particularly for socially anxious individuals. While previous research has found that the presence of a social interaction can be detected from ambient audio, the nuances within social contexts, which influence how anxiety provoking interactions are, remain largely unexplored. As an alternative to traditional, burdensome methods like self-report, this study presents a novel approach that harnesses ambient audio segments to detect social threat contexts. We focus on two key dimensions: number of interaction partners (dyadic vs. group) and degree of evaluative threat (explicitly evaluative vs. not explicitly evaluative). Building on data from a Zoom-based social interaction study (N=52 college students, of whom the majority N=45 are socially anxious), we employ deep learning methods to achieve strong detection performance. Under sample-wide 5-fold Cross Validation (CV), our model distinguished dyadic from group interactions with 90\% accuracy and detected evaluative threat at 83\%. Using a leave-one-group-out CV, accuracies were 82\% and 77\%, respectively. While our data are based on virtual interactions due to pandemic constraints, our method has the potential to extend to diverse real-world settings. This research underscores the potential of passive sensing and AI to differentiate intricate social contexts, and may ultimately advance the ability of context-aware digital interventions to offer personalized mental health support.
- Abstract(参考訳): 社会的相互作用の間、文脈の複雑さを理解することは、特に社会的に不安な個人にとって不可欠である。
これまでの研究では、周囲のオーディオから社会的相互作用の存在が検出できることがわかったが、不安を引き起こす相互作用がどう影響するかに影響を及ぼす社会的文脈内のニュアンスはほとんど未解明のままである。
本研究は、従来の自己報告のような負担のかかる手法に代わるものとして、周囲の音声セグメントを利用して社会的脅威のコンテキストを検出する新しいアプローチを提案する。
相互作用パートナーの数(ダイアディック対グループ)と評価脅威の度合い(明示的評価対明示的評価)という2つの重要な側面に注目します。
Zoomベースのソーシャルインタラクション研究(N=52大学生、N=45は社会的に不安)のデータに基づいて、我々は強力な検出性能を達成するために深層学習手法を採用している。
試料幅5倍のCross Validation (CV) では,90%の精度でグループ間相互作用を区別し,83倍の精度で評価的脅威を検出できた。
分離群別CVでは, それぞれ82 %, 77 %であった。
我々のデータはパンデミックの制約による仮想的相互作用に基づいているが、我々の手法は様々な現実世界の設定にまで拡張できる可能性がある。
この研究は、複雑な社会的文脈を区別する受動的知覚とAIの可能性を強調し、究極的には、個別のメンタルヘルスサポートを提供するためにコンテキスト対応のデジタル介入の能力を促進する可能性がある。
関連論文リスト
- Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Heterogeneous Subgraph Network with Prompt Learning for Interpretable Depression Detection on Social Media [5.570905441172371]
ソーシャルメディアにおける早期うつ病検出に関する既存の研究は、解釈可能性に欠けていた。
本稿では,プロンプト学習を用いた異種サブグラフネットワークを利用した新しい手法を提案する。
提案手法はソーシャルメディア上での抑うつ検出の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-07-12T06:20:59Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Personalized State Anxiety Detection: An Empirical Study with Linguistic
Biomarkers and A Machine Learning Pipeline [7.512067061195175]
社会不安の症状が高い人は、しばしば社会的状況における状態不安の上昇を示す。
デジタルバイオマーカーと機械学習技術を利用して、状態の不安を検出することが可能である。
論文 参考訳(メタデータ) (2023-04-19T19:06:42Z) - Wearable Sensor-based Multimodal Physiological Responses of Socially
Anxious Individuals across Social Contexts [7.85990334927929]
本研究では,様々な社会的文脈で生理的応答を評価する実験を対象とし,受動的に収集したデータを用いて実験を行った。
以上の結果から,社会的文脈は社会的相,集団規模,社会的脅威のレベルよりも確実に識別可能であることが示唆された。
論文 参考訳(メタデータ) (2023-04-03T18:34:54Z) - Self-supervised Hypergraph Representation Learning for Sociological
Analysis [52.514283292498405]
本稿では,データマイニング技術と社会学的行動基準のさらなる融合を支援するための基本的な方法論を提案する。
まず,効率的なハイパーグラフ認識と高速グラフ構築フレームワークを提案する。
第2に,ユーザからユーザへのソーシャルインフルエンスを学習するためのハイパーグラフベースニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T01:20:29Z) - Bodily Behaviors in Social Interaction: Novel Annotations and
State-of-the-Art Evaluation [0.0]
本稿では,社会相互作用に埋め込まれた複雑な身体行動の最初のアノテーションであるBBSIについて述べる。
心理学における過去の研究に基づいて,26時間の自発的な行動について手動で注釈を付けた。
我々は、人間の行動検出のための最先端のアプローチであるピラミッド拡張注意ネットワーク(PDAN)を適応する。
論文 参考訳(メタデータ) (2022-07-26T11:24:00Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。