論文の概要: BlenderGym: Benchmarking Foundational Model Systems for Graphics Editing
- arxiv url: http://arxiv.org/abs/2504.01786v1
- Date: Wed, 02 Apr 2025 14:51:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:18:23.613980
- Title: BlenderGym: Benchmarking Foundational Model Systems for Graphics Editing
- Title(参考訳): BlenderGym: グラフィック編集のための基礎モデルシステムのベンチマーク
- Authors: Yunqi Gu, Ian Huang, Jihyeon Je, Guandao Yang, Leonidas Guibas,
- Abstract要約: BlenderGymは3Dグラフィック編集のための視覚言語モデル(VLM)システムベンチマークである。
クローズドおよびオープンソース VLM システムを評価し,最先端の VLM システムでさえ,Blender ユーザにとって比較的簡単なタスクに悩まされていることを観察した。
- 参考スコア(独自算出の注目度): 4.268804603388096
- License:
- Abstract: 3D graphics editing is crucial in applications like movie production and game design, yet it remains a time-consuming process that demands highly specialized domain expertise. Automating this process is challenging because graphical editing requires performing a variety of tasks, each requiring distinct skill sets. Recently, vision-language models (VLMs) have emerged as a powerful framework for automating the editing process, but their development and evaluation are bottlenecked by the lack of a comprehensive benchmark that requires human-level perception and presents real-world editing complexity. In this work, we present BlenderGym, the first comprehensive VLM system benchmark for 3D graphics editing. BlenderGym evaluates VLM systems through code-based 3D reconstruction tasks. We evaluate closed- and open-source VLM systems and observe that even the state-of-the-art VLM system struggles with tasks relatively easy for human Blender users. Enabled by BlenderGym, we study how inference scaling techniques impact VLM's performance on graphics editing tasks. Notably, our findings reveal that the verifier used to guide the scaling of generation can itself be improved through inference scaling, complementing recent insights on inference scaling of LLM generation in coding and math tasks. We further show that inference compute is not uniformly effective and can be optimized by strategically distributing it between generation and verification.
- Abstract(参考訳): 3Dグラフィック編集は、映画制作やゲームデザインといったアプリケーションでは不可欠だが、高度な専門分野の専門知識を必要とする時間を要するプロセスである。
このプロセスの自動化は、グラフィカルな編集には様々なタスクが必要であり、それぞれが異なるスキルセットを必要とするため、難しい。
近年,視覚言語モデル(VLM)が編集プロセスを自動化する強力なフレームワークとして登場したが,人間のレベルでの認識を必要とする包括的なベンチマークが欠如しており,実際の編集の複雑さが表れているため,その開発と評価がボトルネックとなっている。
本稿では,3次元グラフィクス編集のためのVLMシステムベンチマークであるBlenderGymを紹介する。
BlenderGymは、コードベースの3D再構成タスクを通じてVLMシステムを評価する。
クローズドおよびオープンソース VLM システムを評価し,最先端の VLM システムでさえ,Blender ユーザにとって比較的簡単なタスクに悩まされていることを観察した。
BlenderGymによって実現された推論スケーリング技術は,VLMのグラフィックス編集における性能にどのように影響するかを考察する。
特に,本研究では,LLM生成の推論スケーリングに関する最近の知見を補完し,推論スケーリングを通じて生成のスケーリングを導くための検証器自体を改善することができることを明らかにした。
さらに、推論計算は均一に有効ではなく、生成と検証の間に戦略的に分散することで最適化可能であることを示す。
関連論文リスト
- VideoLifter: Lifting Videos to 3D with Fast Hierarchical Stereo Alignment [63.21396416244634]
VideoLifterは、ローカルからグローバルへの戦略を断片的に活用する、新しいビデオから3Dパイプラインである。
再建プロセスを大幅に加速し、訓練時間を82%以上削減し、現在のSOTA法よりも視覚的品質を向上した。
論文 参考訳(メタデータ) (2025-01-03T18:52:36Z) - EVLM: Self-Reflective Multimodal Reasoning for Cross-Dimensional Visual Editing [27.578516354454063]
EVLM (Editing Vision-Language Model) は、参照視覚とともに曖昧な指示を解釈するように設計されている。
EVLMはバイナリラベルを必要とせずに主観的な編集の好みをキャプチャする。
画像、ビデオ、3D、および4D編集タスクにわたる実験は、EVLMが一貫性のある高品質な命令を生成することを示している。
論文 参考訳(メタデータ) (2024-12-13T21:15:01Z) - ConvMesh: Reimagining Mesh Quality Through Convex Optimization [55.2480439325792]
本研究では、既存のメッシュを強化するために、規律付き凸プログラミングと呼ばれる凸最適化プログラミングを導入する。
元々のメッシュとターゲットのメッシュの両方から分離されたポイントクラウドに注目することにより、この手法は、最小限のデータ要求でメッシュ品質を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-12-11T15:48:25Z) - MotionAura: Generating High-Quality and Motion Consistent Videos using Discrete Diffusion [3.7270979204213446]
ビデオ処理の課題に対処するための4つの重要なコントリビューションを提示する。
まず,3次元逆ベクトル量子化バリエンコエンコオートコーダを紹介する。
次に,テキスト・ビデオ生成フレームワークであるMotionAuraを紹介する。
第3に,スペクトル変換器を用いたデノナイジングネットワークを提案する。
第4に,Sketch Guided Videopaintingのダウンストリームタスクを導入する。
論文 参考訳(メタデータ) (2024-10-10T07:07:56Z) - Response Wide Shut: Surprising Observations in Basic Vision Language Model Capabilities [30.176918208200604]
VLM(Vision-Language Models)は、様々な複雑なコンピュータビジョン問題に対処するための汎用ツールとして登場した。
これらのモデルは高い能力を持つが、いくつかの基本的な視覚的理解スキルが欠けていることが示されている。
本稿では,基本的な視覚課題におけるSoTA VLMの限界を理解することを目的とする。
論文 参考訳(メタデータ) (2024-08-13T08:26:32Z) - SOLO: A Single Transformer for Scalable Vision-Language Modeling [74.05173379908703]
我々はvisiOn-Language mOdelingのための単一変換器SOLOを提案する。
SOLOのような統一された単一トランスフォーマーアーキテクチャは、LVLMにおけるこれらのスケーラビリティ上の懸念に効果的に対処する。
本稿では,オープンソースの7B LVLMであるSOLOの開発のための,最初のオープンソーストレーニングレシピを紹介する。
論文 参考訳(メタデータ) (2024-07-08T22:40:15Z) - BlenderAlchemy: Editing 3D Graphics with Vision-Language Models [4.852796482609347]
ビジョンベースの編集生成器と状態評価器が協力して、目標を達成するための正しいアクションのシーケンスを見つける。
人間のデザインプロセスにおける視覚的想像力の役割に触発されて、視覚言語モデルの視覚的推論能力を「想像された」参照画像で補う。
論文 参考訳(メタデータ) (2024-04-26T19:37:13Z) - Prismatic VLMs: Investigating the Design Space of Visually-Conditioned Language Models [73.40350756742231]
視覚条件付き言語モデル(VLM)は、視覚対話、シーン理解、ロボットタスク計画などのアプリケーションに採用されている。
新しいリリースの量は多いが、イメージ前処理、アーキテクチャ、最適化に関する重要な設計決定は未調査である。
論文 参考訳(メタデータ) (2024-02-12T18:21:14Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - gradSim: Differentiable simulation for system identification and
visuomotor control [66.37288629125996]
本稿では,微分可能マルチフィジカルシミュレーションと微分可能レンダリングを活用し,3次元監督への依存を克服するフレームワークであるgradsimを提案する。
当社の統合グラフは、状態ベースの(3D)監督に頼ることなく、挑戦的なバイスモメータ制御タスクで学習を可能にします。
論文 参考訳(メタデータ) (2021-04-06T16:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。