論文の概要: Qubit Instrumentation of Entanglement
- arxiv url: http://arxiv.org/abs/2509.18340v1
- Date: Mon, 22 Sep 2025 19:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.537391
- Title: Qubit Instrumentation of Entanglement
- Title(参考訳): エンタングルメントのクビット計測
- Authors: Mark Carney,
- Abstract要約: この章では、人間の絡み合いが物理的な絡み合いによってどのように表現され、エミュレートされるかを探る。
2人のミュージシャン間の「音調中心性」の概念はMIDIを通して取得され、パラメータとして量子シミュレーションに渡される。
これらのシミュレーションの結果はMIDIに復号され、プレイヤーの楽器に送られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter and the experiments described within explore how `human entanglement' might be represented and even emulated by physical entanglement. To achieve this, a notion of `tonal centrality' between two musicians is captured via MIDI and passed as a parameter into a quantum simulation taking place on an embedded device (a Raspberry Pi Pico). The results of these simulations are then coded back into MIDI and sent to the players' instruments. The closer the musicians' tonality is, the more their instruments will be entangled in a $|\Phi^+ \rangle$ state, and the further away they are the more their instruments will be entangled in a $|\Psi^+ \rangle$ state. The intention is to create random parameters that are correlative - \emph{i.e.} the same on both instruments - or anti-correlative - \emph{i.e.} the bit-wise opposite of each other, influenced by the tonal relationship from the players. These random parameters sharing these particular properties add a new dimension for quantum-musical expression. This concept was realised experimentally, and the full code and sample outputs are provided. This work aims to pave the way for musicians to explore and experience quantum emulations of their own musical experiences, adding a new nuance and possibilities for the future of \emph{entangled ensembles.}
- Abstract(参考訳): この章と「人間の絡み合い」が物理的な絡み合いによってどのように表現され、エミュレートされるかを探る実験である。
これを実現するために、2人のミュージシャン間の「音の中央性」という概念をMIDI経由で取得し、組み込みデバイス(Raspberry Pi Pico)上で行われる量子シミュレーションにパラメータとして渡す。
これらのシミュレーションの結果はMIDIに復号され、プレイヤーの楽器に送られる。
ミュージシャンの音程が近ければ近いほど、彼らの楽器は$|\Phi^+ \rangle$状態に絡まり、さらに遠くにあるほど、その楽器は$|\Psi^+ \rangle$状態に絡み合うようになる。
目的は、双方の楽器、または、反相関性 - \emph{i.e.} において、プレイヤーの音調関係に影響を受けながら、互いにビットの反対のランダムパラメータを作成することである。
これらの特定の性質を共有するランダムパラメータは、量子音楽表現の新しい次元を与える。
この概念は実験的に実現され、完全なコードとサンプル出力が提供される。
この研究は、ミュージシャンが自身の音楽体験の量子エミュレーションを探求し、経験するための道を開くことを目的としており、新しいニュアンスと「emph{entangled アンサンブル」の可能性を付け加えている。
※
関連論文リスト
- Creating a Synthesizer from Schr\"odinger's Equation [0.0]
我々のプロジェクトはシュリンガー方程式の感覚知覚に対する代替的なアプローチを提供する。
我々は、時間とともに進化する量子力学的状態をシミュレートするシンセサイザープラグインを構築している。
論文 参考訳(メタデータ) (2024-02-01T10:56:08Z) - Towards large-scale quantum optimization solvers with few qubits [59.63282173947468]
我々は、$m=mathcalO(nk)$バイナリ変数を$n$ qubitsだけを使って最適化するために、$k>1$で可変量子ソルバを導入する。
我々は,特定の量子ビット効率の符号化が,バレン高原の超ポリノミウム緩和を内蔵特徴としてもたらすことを解析的に証明した。
論文 参考訳(メタデータ) (2024-01-17T18:59:38Z) - Quid Manumit -- Freeing the Qubit for Art [0.0]
本稿では、スタンドアロンの量子音楽効果と楽器を作成することにより、Qubitを芸術に解放する方法を説明する。
以前はARMベースのRaspberry Pi Pico組み込みマイクロコントローラ用の量子シミュレータコードを使用していた。
論文 参考訳(メタデータ) (2023-09-04T11:19:51Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Museformer: Transformer with Fine- and Coarse-Grained Attention for
Music Generation [138.74751744348274]
本研究では,音楽生成に新たな細粒度・粗粒度対応トランスフォーマーであるMuseformerを提案する。
具体的には、細かな注意を払って、特定のバーのトークンは、音楽構造に最も関係のあるバーのトークンに、直接参加する。
粗い注意を払って、トークンは計算コストを減らすために、それぞれのトークンではなく他のバーの要約にのみ参加する。
論文 参考訳(メタデータ) (2022-10-19T07:31:56Z) - QuiKo: A Quantum Beat Generation Application [0.0]
QuiKoと呼ばれる量子音楽生成アプリケーションについて論じる。
既存の量子アルゴリズムと量子機械学習のデータ符号化を組み合わせて、オーディオトラックのデータベースからドラムとオーディオのサンプルパターンを構築する。
論文 参考訳(メタデータ) (2022-04-09T03:01:19Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - A Transformer Based Pitch Sequence Autoencoder with MIDI Augmentation [0.0]
本研究の目的は,MIDIクリップが自動生成仮説に基づいて構成される可能性を示すモデルを得ることである。
実験結果は、CSMT(2020)のデータチャレンジにおける7ドルチームの中で、私たちのモデルが3位にランクされていることを示している。
論文 参考訳(メタデータ) (2020-10-15T13:59:58Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。