論文の概要: Utilizing Mood-Inducing Background Music in Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2308.14269v1
- Date: Mon, 28 Aug 2023 02:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:56:36.902999
- Title: Utilizing Mood-Inducing Background Music in Human-Robot Interaction
- Title(参考訳): 人間-ロボットインタラクションにおけるムード誘発背景音楽の利用
- Authors: Elad Liebman, Peter Stone
- Abstract要約: 本稿では,人間の被験者がバックグラウンド音楽を聴きながら自律的なエージェントの存在下でのタスクを完了させる実験の結果を報告する。
この結果から,このような背景情報をエージェントの世界表現に効果的に組み込むことで,人々の行動をより正確に予測できることが示唆された。
- 参考スコア(独自算出の注目度): 46.05195048997979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Past research has clearly established that music can affect mood and that
mood affects emotional and cognitive processing, and thus decision-making. It
follows that if a robot interacting with a person needs to predict the person's
behavior, knowledge of the music the person is listening to when acting is a
potentially relevant feature. To date, however, there has not been any concrete
evidence that a robot can improve its human-interactive decision-making by
taking into account what the person is listening to. This research fills this
gap by reporting the results of an experiment in which human participants were
required to complete a task in the presence of an autonomous agent while
listening to background music. Specifically, the participants drove a simulated
car through an intersection while listening to music. The intersection was not
empty, as another simulated vehicle, controlled autonomously, was also crossing
the intersection in a different direction. Our results clearly indicate that
such background information can be effectively incorporated in an agent's world
representation in order to better predict people's behavior. We subsequently
analyze how knowledge of music impacted both participant behavior and the
resulting learned policy.\setcounter{footnote}{2}\footnote{An earlier version
of part of the material in this paper appeared originally in the first author's
Ph.D. Dissertation~\cite{liebman2020sequential} but it has not appeared in any
pear-reviewed conference or journal.}
- Abstract(参考訳): 過去の研究は、音楽が気分に影響を与え、気分が感情や認知の処理に影響を与え、意思決定に影響を及ぼすことを明確に証明してきた。
また、人間と対話するロボットが、その人の行動を予測する必要がある場合、演技時に聴いている音楽の知識は、潜在的に関連性のある特徴である。
しかし、現在に至るまで、ロボットが聴いているものを考慮し、人間の対話的意思決定を改善するという具体的な証拠は存在していない。
本研究は、人間の被験者がバックグラウンド音楽を聴きながら自律的なエージェントの存在下でタスクを完了させる実験の結果を報告することにより、このギャップを埋めるものである。
具体的には、参加者は音楽を聴きながら交差点をシミュレートした車を運転した。
交差点は空ではなかったが、別の模擬車両が自律的に制御され、異なる方向に交差点を横断していた。
これらの背景情報をエージェントの世界表現に効果的に組み込むことにより,人々の行動をより正確に予測できることを示す。
その後,音楽の知識が参加者行動と学習方針の両方に与える影響を分析した。
この論文の素材の初期のバージョンは、もともと最初の著者のPh.D.に登場した。
Dissertation~\cite{liebman 2020sequential} しかし、pear-reviewedカンファレンスやジャーナルには登場していない。
}
関連論文リスト
- SIFToM: Robust Spoken Instruction Following through Theory of Mind [51.326266354164716]
本稿では,認知にインスパイアされた音声指導モデルであるSIFToMを提案し,多様な音声条件下でロボットが人間の指示を実践的に追従できるようにする。
結果から,SIFToMモデルは現状の音声モデルや言語モデルよりも優れており,課題に追従する音声命令に対する人間レベルの精度に近づいていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T02:36:10Z) - Exploring and Applying Audio-Based Sentiment Analysis in Music [0.0]
音楽的感情を解釈する計算モデルの能力は、ほとんど解明されていない。
本研究は,(1)音楽クリップの感情を時間とともに予測し,(2)時系列の次の感情値を決定し,シームレスな遷移を保証することを目的とする。
論文 参考訳(メタデータ) (2024-02-22T22:34:06Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Towards a Real-time Measure of the Perception of Anthropomorphism in
Human-robot Interaction [5.112850258732114]
我々は,オンラインの人間とロボットのインタラクション実験を,教育現場で実施した。
この研究には43人の英語話者が参加した。
その結果,擬人化の主観的・客観的知覚の程度は,音響・韻律的エントレメントと正の相関が認められた。
論文 参考訳(メタデータ) (2022-01-24T11:10:37Z) - Responsive Listening Head Generation: A Benchmark Dataset and Baseline [58.168958284290156]
本研究では、応答型リスニングヘッド生成タスクを、複数の入力に応答する動きと表現を持つ非言語ヘッドの合成として定義する。
音声によるジェスチャーや音声のヘッド生成とは違って,いくつかの研究分野の恩恵を期待して,このタスクにより多くのモーダルを導入する。
論文 参考訳(メタデータ) (2021-12-27T07:18:50Z) - Emotion Recognition of the Singing Voice: Toward a Real-Time Analysis
Tool for Singers [0.0]
現在の計算感情研究は、感情が数学的に知覚される方法を分析するために音響特性を適用することに焦点を当てている。
本稿は,関連する研究の知見を反映し,拡張し,この目標に向けての一歩を踏み出す。
論文 参考訳(メタデータ) (2021-05-01T05:47:15Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。