論文の概要: Sentiment Matters: An Analysis of 200 Human-SAV Interactions
- arxiv url: http://arxiv.org/abs/2510.08202v1
- Date: Thu, 09 Oct 2025 13:30:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.094309
- Title: Sentiment Matters: An Analysis of 200 Human-SAV Interactions
- Title(参考訳): 感傷的事項:200人の人間-SAVインタラクションの分析
- Authors: Lirui Guo, Michael G. Burke, Wynita M. Griggs,
- Abstract要約: 共有自動運転車(SAV)は交通システムにおいて重要な部分を占める可能性が高い。
本稿では,200人の人間-SAVインタラクションのデータセットを紹介する。
本稿では,オープンソースの人間-SAV対話データセットを提案する。
- 参考スコア(独自算出の注目度): 1.0195618602298684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shared Autonomous Vehicles (SAVs) are likely to become an important part of the transportation system, making effective human-SAV interactions an important area of research. This paper introduces a dataset of 200 human-SAV interactions to further this area of study. We present an open-source human-SAV conversational dataset, comprising both textual data (e.g., 2,136 human-SAV exchanges) and empirical data (e.g., post-interaction survey results on a range of psychological factors). The dataset's utility is demonstrated through two benchmark case studies: First, using random forest modeling and chord diagrams, we identify key predictors of SAV acceptance and perceived service quality, highlighting the critical influence of response sentiment polarity (i.e., perceived positivity). Second, we benchmark the performance of an LLM-based sentiment analysis tool against the traditional lexicon-based TextBlob method. Results indicate that even simple zero-shot LLM prompts more closely align with user-reported sentiment, though limitations remain. This study provides novel insights for designing conversational SAV interfaces and establishes a foundation for further exploration into advanced sentiment modeling, adaptive user interactions, and multimodal conversational systems.
- Abstract(参考訳): 共有自動運転車(SAV)は輸送システムにおいて重要な部分となり、効果的な人間とSAVの相互作用が重要な研究領域となる。
本稿では,200人の人間-SAVインタラクションのデータセットについて紹介する。
本稿では、テキストデータ(例:2,136件の人-SAV交換)と経験データ(例:さまざまな心理的要因に関する反応後調査結果)からなるオープンソースのヒューマン-SAV会話データセットを提案する。
まず、ランダムな森林モデリングとコードダイアグラムを使用して、SAVの受容とサービス品質の知覚の重要な予測因子を特定し、応答感性極性(すなわち、肯定的な知覚)の批判的影響を強調します。
第2に,従来の語彙ベースのTextBlob法に対して,LLMに基づく感情分析ツールの性能をベンチマークする。
結果は、単純なゼロショットLLMでさえ、制限はあるものの、ユーザー報告された感情とより緊密に一致していることを示している。
本研究は,対話型SAVインタフェースの設計のための新たな知見を提供し,高度な感情モデリング,適応型ユーザインタラクション,マルチモーダルな会話システムに関するさらなる研究の基盤を確立する。
関連論文リスト
- OASST-ETC Dataset: Alignment Signals from Eye-tracking Analysis of LLM Responses [3.6046810704919063]
OASST-ETCは、24人の参加者の読書パターンを捉えた新しいアイトラッキングコーパスである。
分析の結果,好ましくない反応と好ましくない反応の読解パターンが明らかとなった。
論文 参考訳(メタデータ) (2025-03-13T22:28:38Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Automated Speaking Assessment of Conversation Tests with Novel Graph-based Modeling on Spoken Response Coherence [11.217656140423207]
ASACは、1つ以上の候補者と対話する環境でL2話者の全体的な発話能力を評価することを目的としている。
本稿では,広い応答間相互作用とニュアンス付き意味情報の両方を適切に組み込んだ階層グラフモデルを提案する。
NICT-JLEベンチマークデータセットの大規模な実験結果から,提案手法が予測精度を大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-11T07:24:07Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Multi-modal Facial Affective Analysis based on Masked Autoencoder [7.17338843593134]
CVPR 2023: ABAW5 competition: Affective Behavior Analysis in-the-wild について紹介する。
まず,大規模顔画像データセット上で事前学習したMasked Autoencoder(MAE)モデルの視覚情報を利用する。
ABAW5では,平均F1スコアが55.49%,EXPRトラックが41.21%であった。
論文 参考訳(メタデータ) (2023-03-20T03:58:03Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。