論文の概要: If Turing played piano with an artificial partner
- arxiv url: http://arxiv.org/abs/2402.08690v1
- Date: Fri, 9 Feb 2024 18:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 13:14:49.392793
- Title: If Turing played piano with an artificial partner
- Title(参考訳): チューリングが人工パートナーとピアノを弾くなら
- Authors: Dobromir Dotov, Dante Camarena, Zack Harris, Joanna Spyra, Pietro
Gagliano, Laurel Trainor
- Abstract要約: 音楽の楽譜作成を訓練した生成モデルにより,説得力のある社会体験が実現可能であることを示す。
このネットワークは、デジタルスコアの大きなコーパスに基づいて訓練された変分オートエンコーダであり、人間のパートナーとタイムドなコール・アンド・レスポンスタスクに適合した。
全体としては、人工パートナーは約束を守ったが、人間のパートナーよりも評価は低かった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Music is an inherently social activity that allows people to share
experiences and feel connected with one another. There has been little progress
in designing artificial partners exhibiting a similar social experience as
playing with another person. Neural network architectures that implement
generative models, such as large language models, are suited for producing
musical scores. Playing music socially, however, involves more than playing a
score; it must complement the other musicians' ideas and keep time correctly.
We addressed the question of whether a convincing social experience is made
possible by a generative model trained to produce musical scores, not
necessarily optimized for synchronization and continuation. The network, a
variational autoencoder trained on a large corpus of digital scores, was
adapted for a timed call-and-response task with a human partner. Participants
played piano with a human or artificial partner-in various configurations-and
rated the performance quality and first-person experience of self-other
integration. Overall, the artificial partners held promise but were rated lower
than human partners. The artificial partner with simplest design and highest
similarity parameter was not rated differently from the human partners on some
measures, suggesting that interactive rather than generative sophistication is
important in enabling social AI.
- Abstract(参考訳): 音楽は本質的に社会的な活動であり、人々が経験を共有し、互いにつながりを持つように感じられる。
人と遊ぶのと同様の社会体験を示す人工パートナーを設計する過程は、ほとんど進展していない。
大規模な言語モデルのような生成モデルを実装するニューラルネットワークアーキテクチャは、楽譜を生成するのに適している。
しかし、社会的に音楽を演奏するには、音楽を演奏する以上のことが必要であり、他のミュージシャンの考えを補完し、時間を正しく保たなければならない。
我々は,必ずしも同期や継続に最適化されるのではなく,楽譜の制作を訓練した生成モデルにより,説得力のある社会体験が実現可能かどうかという課題に対処した。
このネットワークは、デジタルスコアの大規模なコーパスで訓練された変分オートエンコーダであり、人間のパートナーとの通話応答タスクに適応した。
参加者は、人間や人工的なパートナーと様々な構成でピアノを弾き、自己統合の質と個人的体験を評価した。
全体として、人工パートナーは約束を守ったが、人間パートナーよりも低い評価を受けた。
最も単純な設計と高い類似度パラメータを持つ人工的パートナーは、いくつかの指標において人間のパートナーと異なる評価を受けていない。
関連論文リスト
- SynPlay: Importing Real-world Diversity for a Synthetic Human Dataset [19.32308498024933]
SynPlay(シンセティック・プレイグラウンド)は,人間の外見の多様性を現実世界にもたらすことを目的とした,新しい人工人間データセットである。
これまでの作品では見られなかった多様性のレベルを達成するために、現実的な人間の動きとポーズという2つの要素に焦点を当てる。
モデルトレーニングにSynPlayを使用することで,人間の検出とセグメンテーションのための既存の合成データセットよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2024-08-21T17:58:49Z) - A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Generating music with sentiment using Transformer-GANs [0.0]
本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
論文 参考訳(メタデータ) (2022-12-21T15:59:35Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - Deep Performer: Score-to-Audio Music Performance Synthesis [30.95307878579825]
Deep Performer(ディープ・パーフォーマー)は、音楽の楽譜合成のための新しいシステムである。
音声とは異なり、音楽はポリフォニーや長い音符を含むことが多い。
提案モデルでは, 鮮明なポリフォニーとハーモニック構造で楽曲を合成できることが示されている。
論文 参考訳(メタデータ) (2022-02-12T10:36:52Z) - Learning Asynchronous and Sparse Human-Object Interaction in Videos [56.73059840294019]
Asynchronous-Sparse Interaction Graph Networks(ASSIGN)は、ビデオシーン内のエンティティに関連するインタラクションイベントの構造を自動的に検出します。
ASSIGNは人間と物体の相互作用認識において試験され、人間のサブアクティビティのセグメンテーションおよびラベル付けにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-03T23:43:55Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。