論文の概要: AnimAgents: Coordinating Multi-Stage Animation Pre-Production with Human-Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2511.17906v1
- Date: Sat, 22 Nov 2025 04:03:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.50702
- Title: AnimAgents: Coordinating Multi-Stage Animation Pre-Production with Human-Multi-Agent Collaboration
- Title(参考訳): AnimAgents:人間とマルチエージェントのコラボレーションによるマルチステージアニメーション事前制作のコーディネート
- Authors: Wen-Fan Wang, Chien-Ting Lu, Jin Ping Ng, Yi-Ting Chiu, Ting-Ying Lee, Miaosen Wang, Bing-Yu Chen, Xiang 'Anthony' Chen,
- Abstract要約: アニメーション・プレプロダクションは、初期概念をアイデア、スクリプティング、デザイン、ストーリーボードといった、相互依存のステージにまたがるコヒーレントな青写真に変換することで、アニメーション映画の基盤を築いている。
生成AIツールは、このプロセスでますます採用されているが、それらは分離され続けており、クリエイターはワークフローを統合せずに複数のシステムをジャグリングする必要がある。
クリエーターは、断片化されたアウトプットを手作業で調整し、大量の情報を管理し、ステージ間の連続性と創造的なコントロールを維持するのに苦労する必要があります。
これらの知見に基づいて、人間とマルチエージェントの協調システムAnimAgentsを提示する。
- 参考スコア(独自算出の注目度): 16.753585127545445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animation pre-production lays the foundation of an animated film by transforming initial concepts into a coherent blueprint across interdependent stages such as ideation, scripting, design, and storyboarding. While generative AI tools are increasingly adopted in this process, they remain isolated, requiring creators to juggle multiple systems without integrated workflow support. Our formative study with 12 professional creative directors and independent animators revealed key challenges in their current practice: Creators must manually coordinate fragmented outputs, manage large volumes of information, and struggle to maintain continuity and creative control between stages. Based on the insights, we present AnimAgents, a human-multi-agent collaborative system that coordinates complex, multi-stage workflows through a core agent and specialized agents, supported by dedicated boards for the four major stages of pre-production. AnimAgents enables stage-aware orchestration, stage-specific output management, and element-level refinement, providing an end-to-end workflow tailored to professional practice. In a within-subjects summative study with 16 professional creators, AnimAgents significantly outperformed a strong single-agent baseline that equipped with advanced parallel image generation in coordination, consistency, information management, and overall satisfaction (p < .01). A field deployment with 4 creators further demonstrated AnimAgents' effectiveness in real-world projects.
- Abstract(参考訳): アニメーション・プレプロダクションは、初期概念をアイデア、スクリプティング、デザイン、ストーリーボードといった、相互依存のステージにまたがるコヒーレントな青写真に変換することで、アニメーション映画の基盤を築いている。
生成AIツールは、このプロセスでますます採用されているが、それらは分離され続けており、クリエイターはワークフローを統合せずに複数のシステムをジャグリングする必要がある。
クリエーターは、断片化されたアウトプットを手作業で調整し、大量の情報を管理し、ステージ間の連続性と創造的なコントロールを維持するのに苦労する必要があります。
これらの知見に基づき、我々は、コアエージェントと特殊エージェントを介して複雑で多段階的なワークフローを協調する、人間とマルチエージェントの協調システムAnimAgentsを、プレプロダクションの4つの主要なステージのための専用ボードで支援する。
AnimAgentsは、ステージアウェアオーケストレーション、ステージ固有のアウトプット管理、要素レベルの改善を可能にし、プロフェッショナルなプラクティスに合わせてエンドツーエンドのワークフローを提供する。
AnimAgentsは16人のプロのクリエーターによるインサイド・サブジェクティブ・スタディにおいて、コーディネーション、一貫性、情報管理、全体的な満足度(p < .01)において高度な並列画像生成を備えた強力な単一エージェントベースラインを著しく上回った(p < .01)。
4人のクリエーターによるフィールド展開は、実際のプロジェクトでのAnimAgentsの有効性をさらに実証した。
関連論文リスト
- Hollywood Town: Long-Video Generation via Cross-Modal Multi-Agent Orchestration [73.65102758687289]
本研究は,マルチエージェントコラボレーションを改善するための3つのイノベーションを紹介する。
まず、長いビデオ生成のための階層型グラフベースのマルチエージェントフレームワークであるOmniAgentを提案する。
第2に,文脈工学にヒントを得たハイパーグラフノードを提案する。
論文 参考訳(メタデータ) (2025-10-25T20:34:18Z) - Emergent Coordination in Multi-Agent Language Models [2.504366738288215]
マルチエージェントシステムが高次構造の兆候を示すかどうかをテストするための情報理論フレームワークを提案する。
この情報分解により、マルチエージェントLLMシステムに動的に出現するかどうかを測定することができる。
我々は,エージェントの直接通信を使わずに,単純な推測ゲームを用いた実験に本フレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-05T11:26:41Z) - Orchestrating Human-AI Teams: The Manager Agent as a Unifying Research Challenge [9.36518257854918]
本稿では,動的な人間-AIチーム内での協調を組織する自律型エージェントシステムの研究ビジョンについて述べる。
複雑な目標をタスクグラフに分解し、タスクを人間やAI労働者に割り当て、進捗を監視し、透過的なステークホルダーコミュニケーションを維持するエージェントである。
マルチエージェントワークフローオーケストレーションのためのオープンソースのシミュレーションおよび評価フレームワークであるMA-Gymをリリースする。
論文 参考訳(メタデータ) (2025-10-02T20:51:39Z) - Cross-Task Experiential Learning on LLM-based Multi-Agent Collaboration [63.90193684394165]
マルチエージェント・クロスタスク体験学習(MAEL)は,LSM駆動型エージェントに明示的なクロスタスク学習と経験蓄積を付与する新しいフレームワークである。
経験的学習フェーズでは、タスク解決ワークフローの各ステップの品質を定量化し、その結果の報酬を記憶する。
推論中、エージェントは、各推論ステップの有効性を高めるために、いくつかの例として、高頻度のタスク関連体験を検索する。
論文 参考訳(メタデータ) (2025-05-29T07:24:37Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - GenMAC: Compositional Text-to-Video Generation with Multi-Agent Collaboration [20.988801611785522]
コンポジションテキスト・ビデオ生成を可能にする反復型マルチエージェントフレームワークであるGenMACを提案する。
コラボレーションワークフローには、Design、Generation、Redesignの3つのステージが含まれている。
コンポジションテキスト・ビデオ生成の多様なシナリオに対処するために,各シナリオに特化している修正エージェントのコレクションから適切な修正エージェントを適応的に選択するセルフルーティング機構を設計する。
論文 参考訳(メタデータ) (2024-12-05T18:56:05Z) - MorphAgent: Empowering Agents through Self-Evolving Profiles and Decentralized Collaboration [11.01813164951313]
本稿では,新しい自律型・自己組織化型・適応型多エージェントシステムであるMorphAgentを紹介する。
このアプローチでは,3つの主要な指標を通じて最適化された自己進化エージェントプロファイルを採用し,エージェントが個々の専門知識を磨き直す。
実験の結果,MorphAgentはタスク性能や要求の変化に対する適応性という点で,既存のフレームワークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-19T09:10:49Z) - ComfyBench: Benchmarking LLM-based Agents in ComfyUI for Autonomously Designing Collaborative AI Systems [80.69865295743149]
この研究は、LLMベースのエージェントを使用して、協調AIシステムを自律的に設計する試みである。
ComfyBenchをベースとしたComfyAgentは,エージェントが自律的に協調的なAIシステムを生成して設計できるようにするフレームワークである。
ComfyAgentは、o1-previewに匹敵する解像度を達成し、ComfyBenchの他のエージェントをはるかに上回っているが、ComfyAgentはクリエイティブタスクの15%しか解決していない。
論文 参考訳(メタデータ) (2024-09-02T17:44:10Z) - AutoDirector: Online Auto-scheduling Agents for Multi-sensory Composition [149.89952404881174]
AutoDirectorはインタラクティブな多感覚合成フレームワークで、ロングショット、特殊効果、音楽スコア、ダビング、リップシンクをサポートする。
自動スケジューリングにより多感フィルム製造の効率を向上し、ユーザニーズを満たすインタラクティブなタスクの修正と改善を支援する。
論文 参考訳(メタデータ) (2024-08-21T12:18:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。