論文の概要: The Beyond the Fence Musical and Computer Says Show Documentary
- arxiv url: http://arxiv.org/abs/2206.03224v1
- Date: Wed, 11 May 2022 13:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 12:13:33.031772
- Title: The Beyond the Fence Musical and Computer Says Show Documentary
- Title(参考訳): Fence MusicalとComputerがドキュメンタリーを公開
- Authors: Simon Colton, Maria Teresa Llano, Rose Hepworth, John Charnley,
Catherine V. Gale, Archie Baron, Francois Pachet, Pierre Roy, Pablo Gervas,
Nick Collins, Bob Sturm, Tillman Weyde, Daniel Wolff, James Robert Lloyd
- Abstract要約: このプロジェクトの構想と実行の詳細は、ミュージカルを書く上で創造的な責任を負ったシステムの詳細を含む。
また、音楽の創造的側面を総合的に制御する2人の(人間)作家からの視点を含む、このプロジェクトの影響の詳細も提示する。
- 参考スコア(独自算出の注目度): 3.5755453976373435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During 2015 and early 2016, the cultural application of Computational
Creativity research and practice took a big leap forward, with a project where
multiple computational systems were used to provide advice and material for a
new musical theatre production. Billed as the world's first 'computer
musical... conceived by computer and substantially crafted by computer', Beyond
The Fence was staged in the Arts Theatre in London's West End during February
and March of 2016. Various computational approaches to analytical and
generative sub-projects were used to bring about the musical, and these efforts
were recorded in two 1-hour documentary films made by Wingspan Productions,
which were aired on SkyArts under the title Computer Says Show. We provide
details here of the project conception and execution, including details of the
systems which took on some of the creative responsibility in writing the
musical, and the contributions they made. We also provide details of the impact
of the project, including a perspective from the two (human) writers with
overall control of the creative aspects the musical.
- Abstract(参考訳): 2015年から2016年初頭にかけて、コンピュテーショナル・クリエイティビティの研究と実践の文化的な応用が飛躍的に進み、複数の計算システムが新しいミュージカル・プロダクションのためのアドバイスと資料を提供するプロジェクトとなった。
2016年2月から3月にかけて、ロンドンのウエスト・エンドにあるアーツ・シアターで「コンピュータによって考案され、コンピュータによって実質的に製作された世界初のコンピュータミュージカル」として上演された。
分析的および生成的サブプロジェクトへの様々な計算的アプローチがミュージカル化に使われ、これらの取り組みは『Computer Says Show』というタイトルでSkyArtsで放送されたウィンスパン・プロダクションのドキュメンタリー映画2本に収録された。
このプロジェクトの概念と実行の詳細には、ミュージカルを書く上で創造的な責任を負ったシステムの詳細と、彼らが行った貢献が含まれている。
また、音楽の創造的な側面を総合的にコントロールする2人の(人間)作家からの視点を含め、プロジェクトの影響の詳細も提供します。
関連論文リスト
- The pop song generator: designing an online course to teach
collaborative, creative AI [1.2891210250935146]
この記事では、新しいオンラインAI創造コースについて記述し、評価する。
このコースは、3つの最先端AIモデルに基づいており、ポップソング生成システムに組み込まれている。
微調整されたGPT-2モデルは歌詞を書き、Music-VAEは楽譜と楽器を作成し、Diffsingerは歌声を合成する。
論文 参考訳(メタデータ) (2023-06-15T18:17:28Z) - Proceedings of the 2nd International Workshop on Reading Music Systems [84.56633924613456]
このワークショップは、音楽を読むシステムを開発する研究者と、そのようなシステムの恩恵を受けることができる他の研究者や実践者とを結びつけることを目的としている。
ワークショップで注目されるトピックは、音楽読解システム、光学音楽認識である。
これらは、2019年11月2日にデルフトで開催された第2回レディング・ミュージック・システムズ国際ワークショップの手続きである。
論文 参考訳(メタデータ) (2022-12-01T09:19:16Z) - Proceedings of the 3rd International Workshop on Reading Music Systems [84.56633924613456]
第3回リーディング・ミュージック・システムズ国際ワークショップ - 2021年7月23日にアリカンテで開催された。
ワークショップは、音楽を読むためのシステムを開発する研究者と、そのようなシステムから恩恵を受けることができる他の研究者や実践者とを結びつけることを目的としている。
論文 参考訳(メタデータ) (2022-12-01T09:18:24Z) - Proceedings of the 4th International Workshop on Reading Music Systems [75.24366528496427]
このワークショップは、音楽を読むシステムを開発する研究者と、そのようなシステムの恩恵を受けることができる他の研究者や実践者とを結びつけることを目的としている。
ワークショップで注目されるトピックは、音楽読解システム、光学音楽認識である。
以下は、2022年11月18日に開催された第4回読書音楽システム国際ワークショップの手続きである。
論文 参考訳(メタデータ) (2022-11-23T20:16:45Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Towards the Generation of Musical Explanations with GPT-3 [4.941630596191806]
GPT-3には音楽的決定を真に理解するために必要な知性がないことを示す。
より良いパフォーマンスを達成するための大きな障壁は、アーティストが音楽作品のために行う創造的なプロセスの説明を含むデータの欠如である。
論文 参考訳(メタデータ) (2022-05-11T13:04:54Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Dual Learning Music Composition and Dance Choreography [57.55406449959893]
音楽とダンスは常に人間の活動の柱として共存しており、文化的、社会的、娯楽的な機能に大きく貢献している。
近年の研究では、音楽に調和したダンスシーケンスの生成モデルについて研究されている。
両タスクを二重学習アプローチで共同でモデル化する,新しい拡張を提案する。
論文 参考訳(メタデータ) (2022-01-28T09:20:28Z) - Shimon the Robot Film Composer and DeepScore: An LSTM for Generation of
Film Scores based on Visual Analysis [2.055949720959582]
本稿では,映画音楽生成のコア技術として,既存の視覚分析システムを提案する。
我々は、主人公とその感情を含む映画の特徴を抽出し、映画の物語の弧をコンピュータで理解する。
このアークは、ペーシングや動きのレベルを含む視覚的に分析されたディレクターの美的選択と組み合わせられる。
論文 参考訳(メタデータ) (2020-10-26T19:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。