論文の概要: Two Sonification Methods for the MindCube
- arxiv url: http://arxiv.org/abs/2506.18196v1
- Date: Sun, 22 Jun 2025 23:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.801685
- Title: Two Sonification Methods for the MindCube
- Title(参考訳): MindCubeの2つの音化法
- Authors: Fangzheng Liu, Lancelot Blanchard, Don D. Haddad, Joseph A. Paradiso,
- Abstract要約: AIを使わずにMindCubeに2つの異なるマッピングを提示する。
本研究では,潜在空間内に意味を注入する手法と,外部コントローラを用いてその意味をナビゲートする手法を提案する。
- 参考スコア(独自算出の注目度): 3.072613488269674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we explore the musical interface potential of the MindCube, an interactive device designed to study emotions. Embedding diverse sensors and input devices, this interface resembles a fidget cube toy commonly used to help users relieve their stress and anxiety. As such, it is a particularly well-suited controller for musical systems that aim to help with emotion regulation. In this regard, we present two different mappings for the MindCube, with and without AI. With our generative AI mapping, we propose a way to infuse meaning within a latent space and techniques to navigate through it with an external controller. We discuss our results and propose directions for future work.
- Abstract(参考訳): 本研究では、感情を研究するための対話型デバイスであるMindCubeの、音楽インターフェースの可能性について検討する。
多様なセンサーと入力デバイスを組み込んだこのインターフェイスは、ユーザーがストレスや不安を和らげるのによく使われるフィデットキューブのおもちゃに似ている。
このように、感情制御を支援することを目的とした、特に音楽システムに適したコントローラである。
この点に関して、AIの有無に関わらず、MindCubeに2つの異なるマッピングを提示する。
生成するAIマッピングを用いて、潜伏空間内で意味を注入する方法と、外部コントローラでそれをナビゲートする技術を提案する。
我々はその結果を議論し、今後の研究の方向性を提案する。
関連論文リスト
- Creativity and Visual Communication from Machine to Musician: Sharing a Score through a Robotic Camera [4.9485163144728235]
本稿では,「誘導ハーモニー」音楽ゲーム内にロボットカメラを実装することで,視覚コミュニケーションと音楽インタラクションの統合について検討する。
ロボットシステムは、ミュージシャンの非言語的手がかりを解釈し、応答し、協調的で適応的な音楽体験を作り出す。
論文 参考訳(メタデータ) (2024-09-09T16:34:36Z) - Robot Synesthesia: In-Hand Manipulation with Visuotactile Sensing [15.970078821894758]
視覚的・触覚的な感覚入力を活用して手動操作を可能にするシステムを提案する。
ロボット・シンセシス(Robot Synesthesia)は、人間の触覚と視覚の合成にインスパイアされた、新しい点の雲に基づく触覚表現である。
論文 参考訳(メタデータ) (2023-12-04T12:35:43Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Teaching Robots to Span the Space of Functional Expressive Motion [46.00279663161918]
トラジェクトリがValence-Arousal-Dominance (VAD) にどのようにマッピングされるかのモデルを学ぶ。
すべてのユーザフィードバックは、すべての感情について学ぶのに役立ちます。
ロボットは、ユーザーが生成した自然言語に動機的に反応することができる。
論文 参考訳(メタデータ) (2022-03-04T02:02:02Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。