論文の概要: Exploring the Diversity of Music Experiences for Deaf and Hard of
Hearing People
- arxiv url: http://arxiv.org/abs/2401.09025v1
- Date: Wed, 17 Jan 2024 07:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:36:58.371718
- Title: Exploring the Diversity of Music Experiences for Deaf and Hard of
Hearing People
- Title(参考訳): 聴覚障害者の聴覚障害に対する音楽体験の多様性を探る
- Authors: Kyrie Zhixuan Zhou, Weirui Peng, Yuhan Liu, Rachel F. Adler
- Abstract要約: 難聴者や難聴者(DHH)が音楽を聴いたり、作曲したりするための感覚置換や強化技術が提案されている。
Redditコミュニティの難聴者および難聴者を対象に,質的・定量的にソーシャルメディア分析を行った。
内容分析の結果,DHHの人々は手話や視覚的/触覚的手がかりを利用して音楽を感じ,親しみやすく,非リアリカルで,楽器を重く,大声で楽しんだ。
- 参考スコア(独自算出の注目度): 14.287042083260204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensory substitution or enhancement techniques have been proposed to enable
deaf or hard of hearing (DHH) people to listen to and even compose music.
However, little is known about how such techniques enhance DHH people's music
experience. Since deafness is a spectrum -- as are DHH people's preferences and
perceptions of music -- a more situated understanding of their interaction with
music is needed. To understand the music experience of this population, we
conducted social media analyses, both qualitatively and quantitatively, in the
deaf and hard of hearing Reddit communities. Our content analysis revealed that
DHH people leveraged sign language and visual/haptic cues to feel the music and
preferred familiar, non-lyrical, instrument-heavy, and loud music. In addition,
hearing aids were not customized for music, and the visual/haptic techniques
developed were not widely adopted by DHH people, leading to their suboptimal
music experiences. The DHH community embodied mutual support among music
lovers, evidenced by active information sharing and Q&A around music and
hearing loss. We reflect on design justice for DHH people's music experience
and propose practical design implications to create a more accessible music
experience for them.
- Abstract(参考訳): 難聴者や難聴者(DHH)が音楽を聴いたり、作曲したりするための感覚置換や強化技術が提案されている。
しかし、これらの技法がDHHの人々の音楽体験をいかに向上させるかについてはほとんど分かっていない。
聴覚障害は、DHHの人々の音楽に対する好みや知覚と同様にスペクトルであるので、音楽との相互作用をより確実に理解する必要がある。
この人口の音楽体験を理解するため,Redditコミュニティの聴覚障害と聴覚障害の両面において,質的・定量的にソーシャルメディア分析を行った。
内容分析の結果,DHHの人々は手話や視覚的/触覚的手がかりを利用して音楽を感じ,親しみやすく,非リアリカルで,楽器を重く,大声で楽しんだ。
さらに、補聴器は音楽用にカスタマイズされず、発達した視覚的/触覚的技法はDHHの人々によって広く採用されず、その準最適音楽体験へと繋がった。
DHHコミュニティは、音楽愛好家の相互支援を具現化し、アクティブな情報共有と音楽と聴力喪失に関するQ&Aによって証明された。
我々は、DHHの人々の音楽体験に対するデザインの正義を反映し、よりアクセシブルな音楽体験を生み出すために、実用的なデザインの意義を提案する。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - The First Cadenza Signal Processing Challenge: Improving Music for Those
With a Hearing Loss [14.911901995353157]
Cadenzaプロジェクトは、聴覚障害のある人のために、音楽の音質を改善することを目的としている。
これは、より優れた、より包括的な技術を促進するために、一連の信号処理の課題を通じて行われる。
主観評価のための聴力評価指標(HAAQI)と、主観評価のための聴力障害のある人のパネルを用いて、提案書の音質を評価する。
論文 参考訳(メタデータ) (2023-10-09T15:36:15Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - Psychologically-Inspired Music Recommendation System [3.032299122358857]
感情認識型MSSを構築するために,聴取者の性格と現在の感情状態と音声特徴を関連づけることを模索する。
この結果とSpotify APIデータに基づく従来のMSSの出力とを定量的に定性的に比較し,音楽レコメンデーションの質に大きな影響を与えるかどうかを検証した。
論文 参考訳(メタデータ) (2022-05-06T19:38:26Z) - Bi-Sampling Approach to Classify Music Mood leveraging Raga-Rasa
Association in Indian Classical Music [0.0]
インド古典音楽では、ラガ(Ragas)は音楽の様々なスタイルと形式を定義するメロディックな構造である。
本稿では,インド古典音楽におけるラガ・ラサ・アソシエーションを活用した新しい枠組みについて検討する。
インテリジェントな分類器を構築し、ユーザの現在の気分と彼らが望む気分に基づいて、音楽レコメンデーションシステムに応用する。
論文 参考訳(メタデータ) (2022-03-13T06:12:27Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。