論文の概要: Predicting Affective States from Screen Text Sentiment
- arxiv url: http://arxiv.org/abs/2408.12844v1
- Date: Fri, 23 Aug 2024 05:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 15:59:33.666554
- Title: Predicting Affective States from Screen Text Sentiment
- Title(参考訳): 画面テキストセンシングによる影響状態の予測
- Authors: Songyan Teng, Tianyi Zhang, Simon D'Alfonso, Vassilis Kostakos,
- Abstract要約: スマートフォンで見るテキストコンテンツを分析して感情状態を予測する可能性については、まだ解明されていない。
画面テキストと感情状態の関係を解析するために,線形回帰,ゼロショット,マルチショットを用いた。
以上の結果から,マルチショットプロンプトは線形回帰とゼロショットプロンプトの両方で著しく優れていた。
- 参考スコア(独自算出の注目度): 11.375704805270171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of mobile sensing technologies has enabled the study of various physiological and behavioural phenomena through unobtrusive data collection from smartphone sensors. This approach offers real-time insights into individuals' physical and mental states, creating opportunities for personalised treatment and interventions. However, the potential of analysing the textual content viewed on smartphones to predict affective states remains underexplored. To better understand how the screen text that users are exposed to and interact with can influence their affects, we investigated a subset of data obtained from a digital phenotyping study of Australian university students conducted in 2023. We employed linear regression, zero-shot, and multi-shot prompting using a large language model (LLM) to analyse relationships between screen text and affective states. Our findings indicate that multi-shot prompting substantially outperforms both linear regression and zero-shot prompting, highlighting the importance of context in affect prediction. We discuss the value of incorporating textual and sentiment data for improving affect prediction, providing a basis for future advancements in understanding smartphone use and wellbeing.
- Abstract(参考訳): モバイルセンシング技術の普及により、スマートフォンセンサからの邪魔にならないデータ収集を通じて、様々な生理的、行動的現象の研究が可能になった。
このアプローチは、個人の身体状態と精神状態に対するリアルタイムな洞察を提供し、パーソナライズされた治療と介入の機会を生み出す。
しかし、スマートフォンで見るテキストコンテンツを感情状態を予測する可能性については、まだ解明されていない。
2023年に行われた大学生のデジタル表現型調査から得られたデータの一部について,ユーザが露出し,対話する画面テキストが,その影響にどのように影響するかを,よりよく理解するために検討した。
画面テキストと感情状態の関係を解析するために,大規模言語モデル(LLM)を用いた線形回帰,ゼロショット,マルチショットプロンプトを用いた。
その結果,マルチショットプロンプトは線形回帰とゼロショットプロンプトの両方に大きく優れており,影響予測における文脈の重要性が強調された。
本稿では、感情予測を改善するためにテキストデータと感情データを組み込むことの価値について論じ、スマートフォン利用と幸福の理解における今後の進歩の基盤を提供する。
関連論文リスト
- AWARE Narrator and the Utilization of Large Language Models to Extract Behavioral Insights from Smartphone Sensing Data [6.110013784860154]
スマートフォンは健康関連行動や状況の追跡を促進し、デジタル表現に大きく貢献する。
本稿では,スマートフォンから収集したデータを構造化した時系列物語に体系的に変換する手法を提案する。
この枠組みを1週間にわたって大学生の収集したデータに適用し,個々の行動の要約に物語を活用する可能性を実証した。
論文 参考訳(メタデータ) (2024-11-07T13:23:57Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Leveraging LLMs to Predict Affective States via Smartphone Sensor Features [6.1930355276269875]
デジタル表現型は、行動やメンタルヘルスを推測するために、パーソナルデジタルデバイスからデータを収集して分析する。
大型言語モデル(LLM)の出現は、スマートフォンのセンシングデータを理解するための新しいアプローチを提供する。
本研究は, 大学生のスマートフォンセンシングデータに基づいて, LLMを用いて影響を予測し, このギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-07-11T07:37:52Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - When to generate hedges in peer-tutoring interactions [1.0466434989449724]
この研究は、自然言語のターン、会話戦略、学習戦略、非言語行動に注釈を付けた、自然主義的な対面データセットを使用している。
その結果、前のターンのセマンティック情報をキャプチャする埋め込み層は、モデルの性能を著しく向上させることがわかった。
教師の視線とタテの視線がヘッジ予測に大きく影響していることが判明した。
論文 参考訳(メタデータ) (2023-07-28T14:29:19Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - A Brief Survey of Machine Learning Methods for Emotion Prediction using
Physiological Data [0.974672460306765]
本稿では,スマートフォンや生理データをリアルタイムに予測するための機械学習手法について検討する。
本稿では,正確な感情予測を実現するための機械学習手法の多様性を示す。
今後の作業では、以下の問題を考慮し、パフォーマンスを改善することができる。
論文 参考訳(メタデータ) (2022-01-17T19:46:12Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。