論文の概要: Sonus Texere! Automated Dense Soundtrack Construction for Books using
Movie Adaptations
- arxiv url: http://arxiv.org/abs/2212.01033v1
- Date: Fri, 2 Dec 2022 08:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:43:44.689136
- Title: Sonus Texere! Automated Dense Soundtrack Construction for Books using
Movie Adaptations
- Title(参考訳): ソヌス・テクセレ!
映画適応化による書籍の自動集音構造
- Authors: Jaidev Shriram and Makarand Tapaswi and Vinoo Alluri
- Abstract要約: 書籍に密集したサウンドトラックを構築するための,最初の完全自動手法を提案する。
本研究では,章中のシーンの文脈と情緒的構成を決定する,ユニークなテキスト処理と音楽織りパイプラインを用いている。
本書のサウンドトラックは、映画の作曲家の職人技に頼って、専門家が作ったモチーフや、その他のシーン固有の音楽的特徴を取り入れています。
- 参考スコア(独自算出の注目度): 9.368590075496149
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reading, much like music listening, is an immersive experience that
transports readers while taking them on an emotional journey. Listening to
complementary music has the potential to amplify the reading experience,
especially when the music is stylistically cohesive and emotionally relevant.
In this paper, we propose the first fully automatic method to build a dense
soundtrack for books, which can play high-quality instrumental music for the
entirety of the reading duration. Our work employs a unique text processing and
music weaving pipeline that determines the context and emotional composition of
scenes in a chapter. This allows our method to identify and play relevant
excerpts from the soundtrack of the book's movie adaptation. By relying on the
movie composer's craftsmanship, our book soundtracks include expert-made motifs
and other scene-specific musical characteristics. We validate the design
decisions of our approach through a perceptual study. Our readers note that the
book soundtrack greatly enhanced their reading experience, due to high
immersiveness granted via uninterrupted and style-consistent music, and a
heightened emotional state attained via high precision emotion and scene
context recognition.
- Abstract(参考訳): 音楽の聴き方と同じように、読書は没入的な体験であり、読者を感情的な旅に乗せながら輸送する。
補完音楽への聴取は、特に音楽がスタイリスティックに結合し、感情的に関係がある場合に、読書体験を増幅する可能性がある。
そこで本研究では,本を読む時間の全期間にわたって高品質のインストゥルメンタル・ミュージックを奏でることのできる,本のための高密度なサウンドトラックを構築するための最初の完全自動手法を提案する。
本研究では,章中のシーンの文脈と情緒的構成を決定する,ユニークなテキスト処理と音楽織りパイプラインを用いている。
これにより、本書の映画化のサウンドトラックから関連する抜粋を識別し、再生することができる。
本書のサウンドトラックは、映画の作曲家の職人技に頼って、専門家が作ったモチーフやその他のシーン固有の音楽的特徴を含む。
我々はこのアプローチの設計判断を知覚研究を通じて検証する。
本書のサウンドトラックは,不断・スタイル整合性音楽による没入感の向上と,高精度な感情認識とシーンコンテキスト認識による感情状態の向上により,その読書体験を大幅に向上させた。
関連論文リスト
- MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Emotion Manipulation Through Music -- A Deep Learning Interactive Visual Approach [0.0]
我々は,AIツールを用いて歌の感情的内容を操作する新しい方法を提案する。
私たちのゴールは、元のメロディをできるだけそのままにして、望ましい感情を達成することです。
この研究は、オンデマンドのカスタム音楽生成、既存の作品の自動リミックス、感情の進行に合わせて調整された音楽プレイリストに寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-12T20:12:29Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Exploring and Applying Audio-Based Sentiment Analysis in Music [0.0]
音楽的感情を解釈する計算モデルの能力は、ほとんど解明されていない。
本研究は,(1)音楽クリップの感情を時間とともに予測し,(2)時系列の次の感情値を決定し,シームレスな遷移を保証することを目的とする。
論文 参考訳(メタデータ) (2024-02-22T22:34:06Z) - Emotion-Aware Music Recommendation System: Enhancing User Experience
Through Real-Time Emotional Context [1.3812010983144802]
本研究では,従来の音楽レコメンデーションシステムにおいて,ユーザの音楽選択を形作る上で,感情が重要な役割を担っていることに焦点をあてる。
歌のレコメンデーションプロセスに感情的コンテキストを取り入れたAIモデルを導入する。
リアルタイムの感情を正確に検出することで、モデルはユーザーの感情状態に合わせてパーソナライズされた歌のレコメンデーションを生成することができる。
論文 参考訳(メタデータ) (2023-11-17T05:55:36Z) - Are Words Enough? On the semantic conditioning of affective music
generation [1.534667887016089]
このスコーピングレビューは、感情によって条件付けられた音楽生成の可能性を分析し、議論することを目的としている。
本稿では,ルールベースモデルと機械学習モデルという,自動音楽生成において採用される2つの主要なパラダイムについて概観する。
音楽を通して感情を表現する言葉の限界とあいまいさを克服することは、創造産業に影響を及ぼす可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-11-07T00:19:09Z) - REMAST: Real-time Emotion-based Music Arrangement with Soft Transition [29.34094293561448]
感情的な介入媒体としての音楽は、音楽療法、ゲーム、映画などのシナリオに重要な応用がある。
感情のリアルタイム適合とスムーズな遷移を同時に達成するためのREMASTを提案する。
評価結果によると,REMASTは客観的および主観的指標において最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-05-14T00:09:48Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Annotation of Emotion Carriers in Personal Narratives [69.07034604580214]
我々は、個人的物語(PN) - 話されたり書かれたり - 事実、出来事、思考の記憶 - を理解する問題に興味を持っている。
PNでは、感情担体(英: emotion carriers)は、ユーザの感情状態を最もよく説明する音声またはテキストセグメントである。
本研究は,音声対話における感情担持者を特定するためのアノテーションモデルを提案し,評価する。
論文 参考訳(メタデータ) (2020-02-27T15:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。