論文の概要: HAMLET: Hyperadaptive Agent-based Modeling for Live Embodied Theatrics
- arxiv url: http://arxiv.org/abs/2507.15518v1
- Date: Mon, 21 Jul 2025 11:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.375479
- Title: HAMLET: Hyperadaptive Agent-based Modeling for Live Embodied Theatrics
- Title(参考訳): HAMLET:Live Embodied Theatricsのためのハイパーアダプティブエージェントベースモデリング
- Authors: Sizhou Chen, Shufan Jiang, Chi Zhang, Xiao-Lei Zhang, Xuelong Li,
- Abstract要約: HAMLETは、ドラマ制作とオンラインパフォーマンスに焦点を当てたマルチエージェントフレームワークである。
オンラインパフォーマンスでは、各俳優に自律的な心が与えられる。
HamLETは表現的で一貫性のある演劇体験を作り出すことができる。
- 参考スコア(独自算出の注目度): 46.0768581496651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating an immersive and interactive theatrical experience is a long-term goal in the field of interactive narrative. The emergence of large language model (LLM) is providing a new path to achieve this goal. However, existing LLM-based drama generation methods often result in AI agents that lack initiative and cannot interact with the physical environment. Furthermore, these methods typically require detailed user input to drive the drama. These limitations reduce the interactivity and immersion of online real-time performance. To address the above challenges, we propose HAMLET, a multi-agent framework focused on drama creation and online performance. Given a simple topic, the framework generates a narrative blueprint, guiding the subsequent improvisational performance. During the online performance, each actor is given an autonomous mind. This means that actors can make independent decisions based on their own background, goals, and emotional state. In addition to conversations with other actors, their decisions can also change the state of scene props through actions such as opening a letter or picking up a weapon. The change is then broadcast to other related actors, updating what they know and care about, which in turn influences their next action. To evaluate the quality of drama performance, we designed an evaluation method to assess three primary aspects, including character performance, narrative quality, and interaction experience. The experimental evaluation shows that HAMLET can create expressive and coherent theatrical experiences. Our code, dataset and models are available at https://github.com/HAMLET-2025/HAMLET.
- Abstract(参考訳): 没入的でインタラクティブな演劇体験を作ることは、インタラクティブな物語の分野における長期的な目標である。
大きな言語モデル(LLM)の出現は、この目標を達成するための新しいパスを提供しています。
しかし、既存のLLMベースのドラマ生成手法は、イニシアチブが無く、物理的環境と相互作用できないAIエージェントをもたらすことが多い。
さらに、これらの手法はドラマを駆動するために通常、詳細なユーザー入力を必要とする。
これらの制限により、オンラインリアルタイムパフォーマンスの対話性と没入性が低下する。
以上の課題に対処するため,演劇制作とオンラインパフォーマンスに着目したマルチエージェントフレームワークHAMLETを提案する。
単純なトピックが与えられたら、このフレームワークは物語の青写真を生成し、その後の即興パフォーマンスを導く。
オンラインパフォーマンスでは、各俳優に自律的な心が与えられる。
これは、アクターが自身のバックグラウンド、ゴール、感情の状態に基づいて独立した決定をすることができることを意味する。
他の俳優との会話に加えて、手紙を開いたり武器を拾ったりすることでシーンプロップの状態を変えることもできる。
変更は、他の関連するアクターに配信され、彼らが知っていることを更新し、それが次のアクションに影響を与える。
ドラマパフォーマンスの質を評価するため,キャラクタパフォーマンス,物語品質,インタラクション体験の3つの主要な側面を評価する評価手法を考案した。
実験により,HAMLETは表現的かつ一貫性のある演劇体験を創出できることが示された。
私たちのコード、データセット、モデルはhttps://github.com/HAMLET-2025/HAMLETで利用可能です。
関連論文リスト
- OmniCharacter: Towards Immersive Role-Playing Agents with Seamless Speech-Language Personality Interaction [123.89581506075461]
OmniCharacter は,低レイテンシで没入型 RPA を実現するための対話型対話モデルである。
具体的には、OmniCharacterは、エージェントが相互作用を通して、ロール固有の性格特性と声質特性を一貫して表示できるようにする。
提案手法は,既存のRPAモデルや主流言語モデルと比較して,応答遅延を289msに抑えながら,内容とスタイルの両面で優れた応答が得られる。
論文 参考訳(メタデータ) (2025-05-26T17:55:06Z) - MoCha: Towards Movie-Grade Talking Character Synthesis [62.007000023747445]
本研究では,音声とテキストから直接話し言葉のアニメーションを生成するための,より現実的なタスクであるトーキングキャラクタを紹介する。
トーキング・キャラクタとは違い、トーキング・キャラクタは顔領域を超えて1つ以上のキャラクターの完全な肖像画を作成することを目的としている。
そこで本研究では,まず,話し言葉を生成するMoChaを提案する。
論文 参考訳(メタデータ) (2025-03-30T04:22:09Z) - Towards Enhanced Immersion and Agency for LLM-based Interactive Drama [55.770617779283064]
本論文は,対話型ドラマを2つの側面から理解することから始まる:没入感,プレイヤーの物語への参加感,エージェンシーである。
これら2つの側面を強化するために,我々はまず,LLMが劇的なストーリーを製作し,構造と物語の質を大幅に向上させる新しい手法であるPlaywriting-Guided Generationを提案する。
論文 参考訳(メタデータ) (2025-02-25T06:06:16Z) - INFP: Audio-Driven Interactive Head Generation in Dyadic Conversations [11.101103116878438]
本稿では,Dyadic インタラクションのための新しい音声駆動型ヘッド生成フレームワーク INFP を提案する。
INFPは、モーションベースヘッドイミテーションステージとオーディオガイドモーションジェネレーションステージで構成される。
このような研究を円滑に進めるために,インターネットから収集したリッチな対話の大規模データセットであるDyConvを紹介した。
論文 参考訳(メタデータ) (2024-12-05T10:20:34Z) - The Drama Machine: Simulating Character Development with LLM Agents [1.999925939110439]
本稿では,多言語モデル (LLM) エージェントを用いたドラマティックシナリオにおける複雑な動的キャラクタのシミュレートについて検討する。
本稿では,異なる「エゴ」と「スーパーエゴ」の心理的役割を演じるLLMエージェント間の相互作用を協調するドラママシンフレームワークを提案する。
結果として、このマルチエージェントアプローチは、対話的なターンの連続を通して進化する、よりニュアンスで適応的な物語を生み出すことができることが示唆された。
論文 参考訳(メタデータ) (2024-08-03T09:40:26Z) - From Role-Play to Drama-Interaction: An LLM Solution [57.233049222938675]
本稿では,従来のドラマに前例のない没入感を与えるemphLLMベースのインタラクティブドラマを紹介する。
我々は、この新たな芸術ジャンルを、6つの重要な要素-プラット、キャラクタ、思考、辞書、スペクタクル、相互作用によって定義する。
本稿では,プレイヤーとのインタラクションにおける物語の進行をより細かく制御するためのemphNarrative Chainを提案し,任意のストーリーをドラマスクリプトに合成するemphAuto-Dramaを提案する。
論文 参考訳(メタデータ) (2024-05-23T07:03:56Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。