論文の概要: Sonus Texere! Automated Dense Soundtrack Construction for Books using
Movie Adaptations
- arxiv url: http://arxiv.org/abs/2212.01033v1
- Date: Fri, 2 Dec 2022 08:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:43:44.689136
- Title: Sonus Texere! Automated Dense Soundtrack Construction for Books using
Movie Adaptations
- Title(参考訳): ソヌス・テクセレ!
映画適応化による書籍の自動集音構造
- Authors: Jaidev Shriram and Makarand Tapaswi and Vinoo Alluri
- Abstract要約: 書籍に密集したサウンドトラックを構築するための,最初の完全自動手法を提案する。
本研究では,章中のシーンの文脈と情緒的構成を決定する,ユニークなテキスト処理と音楽織りパイプラインを用いている。
本書のサウンドトラックは、映画の作曲家の職人技に頼って、専門家が作ったモチーフや、その他のシーン固有の音楽的特徴を取り入れています。
- 参考スコア(独自算出の注目度): 9.368590075496149
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reading, much like music listening, is an immersive experience that
transports readers while taking them on an emotional journey. Listening to
complementary music has the potential to amplify the reading experience,
especially when the music is stylistically cohesive and emotionally relevant.
In this paper, we propose the first fully automatic method to build a dense
soundtrack for books, which can play high-quality instrumental music for the
entirety of the reading duration. Our work employs a unique text processing and
music weaving pipeline that determines the context and emotional composition of
scenes in a chapter. This allows our method to identify and play relevant
excerpts from the soundtrack of the book's movie adaptation. By relying on the
movie composer's craftsmanship, our book soundtracks include expert-made motifs
and other scene-specific musical characteristics. We validate the design
decisions of our approach through a perceptual study. Our readers note that the
book soundtrack greatly enhanced their reading experience, due to high
immersiveness granted via uninterrupted and style-consistent music, and a
heightened emotional state attained via high precision emotion and scene
context recognition.
- Abstract(参考訳): 音楽の聴き方と同じように、読書は没入的な体験であり、読者を感情的な旅に乗せながら輸送する。
補完音楽への聴取は、特に音楽がスタイリスティックに結合し、感情的に関係がある場合に、読書体験を増幅する可能性がある。
そこで本研究では,本を読む時間の全期間にわたって高品質のインストゥルメンタル・ミュージックを奏でることのできる,本のための高密度なサウンドトラックを構築するための最初の完全自動手法を提案する。
本研究では,章中のシーンの文脈と情緒的構成を決定する,ユニークなテキスト処理と音楽織りパイプラインを用いている。
これにより、本書の映画化のサウンドトラックから関連する抜粋を識別し、再生することができる。
本書のサウンドトラックは、映画の作曲家の職人技に頼って、専門家が作ったモチーフやその他のシーン固有の音楽的特徴を含む。
我々はこのアプローチの設計判断を知覚研究を通じて検証する。
本書のサウンドトラックは,不断・スタイル整合性音楽による没入感の向上と,高精度な感情認識とシーンコンテキスト認識による感情状態の向上により,その読書体験を大幅に向上させた。
関連論文リスト
- Emotion-Aware Music Recommendation System: Enhancing User Experience
Through Real-Time Emotional Context [1.3812010983144802]
本研究では,従来の音楽レコメンデーションシステムにおいて,ユーザの音楽選択を形作る上で,感情が重要な役割を担っていることに焦点をあてる。
歌のレコメンデーションプロセスに感情的コンテキストを取り入れたAIモデルを導入する。
リアルタイムの感情を正確に検出することで、モデルはユーザーの感情状態に合わせてパーソナライズされた歌のレコメンデーションを生成することができる。
論文 参考訳(メタデータ) (2023-11-17T05:55:36Z) - Are Words Enough? On the semantic conditioning of affective music
generation [1.534667887016089]
このスコーピングレビューは、感情によって条件付けられた音楽生成の可能性を分析し、議論することを目的としている。
本稿では,ルールベースモデルと機械学習モデルという,自動音楽生成において採用される2つの主要なパラダイムについて概観する。
音楽を通して感情を表現する言葉の限界とあいまいさを克服することは、創造産業に影響を及ぼす可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-11-07T00:19:09Z) - REMAST: Real-time Emotion-based Music Arrangement with Soft Transition [30.214222004199442]
感情的な介入媒体としての音楽は、音楽療法、ゲーム、映画などのシナリオに重要な応用がある。
感情のリアルタイム適合とスムーズな遷移を同時に達成するためのREMASTを提案する。
評価結果によると,REMASTは客観的および主観的指標において最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-05-14T00:09:48Z) - Proceedings of the 3rd International Workshop on Reading Music Systems [84.56633924613456]
第3回リーディング・ミュージック・システムズ国際ワークショップ - 2021年7月23日にアリカンテで開催された。
ワークショップは、音楽を読むためのシステムを開発する研究者と、そのようなシステムから恩恵を受けることができる他の研究者や実践者とを結びつけることを目的としている。
論文 参考訳(メタデータ) (2022-12-01T09:18:24Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Comparison and Analysis of Deep Audio Embeddings for Music Emotion
Recognition [1.6143012623830792]
音楽感情認識タスクに使用するために,最先端の事前学習した深層音声埋め込み手法を用いる。
深い音声埋め込みは、人間工学を使わずにmerタスクのための音楽的感情意味論を表す。
論文 参考訳(メタデータ) (2021-04-13T21:09:54Z) - Emotion Carrier Recognition from Personal Narratives [74.24768079275222]
パーソナル・ナラティブズ(Personal Narratives、PN)は、自分の経験から事実、出来事、思考を回想するものである。
感情キャリア認識(ECR)のための新しい課題を提案する。
論文 参考訳(メタデータ) (2020-08-17T17:16:08Z) - Annotation of Emotion Carriers in Personal Narratives [69.07034604580214]
我々は、個人的物語(PN) - 話されたり書かれたり - 事実、出来事、思考の記憶 - を理解する問題に興味を持っている。
PNでは、感情担体(英: emotion carriers)は、ユーザの感情状態を最もよく説明する音声またはテキストセグメントである。
本研究は,音声対話における感情担持者を特定するためのアノテーションモデルを提案し,評価する。
論文 参考訳(メタデータ) (2020-02-27T15:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。