論文の概要: AutoFigure-Edit: Generating Editable Scientific Illustration
- arxiv url: http://arxiv.org/abs/2603.06674v1
- Date: Tue, 03 Mar 2026 11:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.706565
- Title: AutoFigure-Edit: Generating Editable Scientific Illustration
- Title(参考訳): AutoFigure-Edit: 編集可能な科学的イラストを生成する
- Authors: Zhen Lin, Qiujie Xie, Minjun Zhu, Shichen Li, Qiyao Sun, Enhao Gu, Yiran Ding, Ke Sun, Fang Guo, Panzhong Lu, Zhiyuan Ning, Yixuan Weng, Yue Zhang,
- Abstract要約: AutoFigure-Editは、完全に編集可能な科学的イラストを生成するエンドツーエンドシステムである。
長いコンテキスト理解、参照誘導スタイリング、ネイティブSVG編集を組み合わせる。
- 参考スコア(独自算出の注目度): 24.83102794854034
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-quality scientific illustrations are essential for communicating complex scientific and technical concepts, yet existing automated systems remain limited in editability, stylistic controllability, and efficiency. We present AutoFigure-Edit, an end-to-end system that generates fully editable scientific illustrations from long-form scientific text while enabling flexible style adaptation through user-provided reference images. By combining long-context understanding, reference-guided styling, and native SVG editing, it enables efficient creation and refinement of high-quality scientific illustrations. To facilitate further progress in this field, we release the video at https://youtu.be/10IH8SyJjAQ, full codebase at https://github.com/ResearAI/AutoFigure-Edit and provide a website for easy access and interactive use at https://deepscientist.cc/.
- Abstract(参考訳): 複雑な科学的概念や技術的な概念を伝達するためには高品質な科学的イラストが不可欠であるが、既存の自動システムは編集性、スタイリスティックな制御性、効率性に制限されている。
提案するAutoFigure-Editは,ユーザが提供する参照画像によるフレキシブルなスタイル適応を実現するとともに,長文の科学的テキストから完全編集可能な科学的図形を生成する。
長文理解、参照誘導スタイリング、ネイティブSVG編集を組み合わせることで、高品質な科学的イラストを効率的に作成・改善することができる。
この分野でさらなる進歩を促進するため、ビデオはhttps://youtu.be/10IH8SyJjAQでリリースし、全コードベースはhttps://github.com/ResearAI/AutoFigure-Editで公開しています。
関連論文リスト
- Kiwi-Edit: Versatile Video Editing via Instruction and Reference Guidance [55.32799307123252]
本稿では,既存のビデオ編集ペアを高忠実度トレーニング四重項に変換するスケーラブルなデータ生成パイプラインを提案する。
本稿では,学習可能なクエリと参照セマンティックガイダンスのための潜在視覚特徴を相乗化する統合編集アーキテクチャKiwi-Editを提案する。
論文 参考訳(メタデータ) (2026-03-02T18:46:28Z) - AutoFigure: Generating and Refining Publication-Ready Scientific Illustrations [23.240091392286658]
FigureBenchは、長文から科学的図形を生成するための最初の大規模なベンチマークである。
本稿では,高品質な科学的イラストを自動生成する最初のエージェントフレームワークであるAutoFigureを提案する。
論文 参考訳(メタデータ) (2026-02-03T18:41:43Z) - Envisioning Future Interactive Web Development: Editing Webpage with Natural Language [5.799436684542269]
本稿では,大規模言語モデルを用いてWeb編集のための高品質な微調整データセットを合成する,新しい自動データ生成パイプラインを提案する。
Instruct4Editのモデルを微調整することで、人間の意図を正確に、構造的に一貫性があり、視覚的に正確なコード変更に変換するという一貫した改善を実証する。
論文 参考訳(メタデータ) (2025-10-30T14:09:50Z) - Shape-for-Motion: Precise and Consistent Video Editing with 3D Proxy [48.72918598961146]
本稿では,精密で一貫したビデオ編集のための3Dプロキシを組み込んだ新しいフレームワークであるShape-for-Motionを紹介する。
我々のフレームワークは、ポーズ編集、回転、スケーリング、翻訳、テクスチャ修正、オブジェクト合成など、ビデオフレーム間の精密で物理的に一貫性のある操作をサポートしています。
論文 参考訳(メタデータ) (2025-06-27T17:59:01Z) - TextCraftor: Your Text Encoder Can be Image Quality Controller [65.27457900325462]
拡散に基づくテキスト・画像生成モデル(例えば、安定拡散)は、コンテンツ生成の分野に革命をもたらした。
本研究では,テキスト・ツー・イメージ拡散モデルの性能を向上させるための微調整手法であるTextCraftorを提案する。
論文 参考訳(メタデータ) (2024-03-27T19:52:55Z) - NeuMesh: Learning Disentangled Neural Mesh-based Implicit Field for
Geometry and Texture Editing [39.71252429542249]
本稿では,メッシュ頂点上の幾何およびテクスチャコードを用いて,ニューラル暗黙の場を符号化することで,メッシュに基づく新しい表現を提案する。
メッシュベース表現の空間的識別性を最大化する学習可能な手話指標を含む,いくつかの手法を開発した。
実データと合成データの両方における実験および編集例は,表現品質と編集能力において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2022-07-25T05:30:50Z) - Automated Creation and Human-assisted Curation of Computable Scientific
Models from Code and Text [2.3746609573239756]
ドメインエキスパートは、コードに詳しくなければ、科学的モデルの実装を完全に理解することはできない。
我々は,科学モデルの自動作成と人手によるキュレーションのためのシステムを開発した。
本研究では,NASAのハイパーソニック・エアロダイナミックス(Hypersonic Aerodynamics)のウェブサイトから得られたコードと関連テキストのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2022-01-28T17:31:38Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。