論文の概要: SVG-Net: An SVG-based Trajectory Prediction Model
- arxiv url: http://arxiv.org/abs/2110.03706v1
- Date: Thu, 7 Oct 2021 18:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 14:14:28.386997
- Title: SVG-Net: An SVG-based Trajectory Prediction Model
- Title(参考訳): SVG-Net: SVGに基づく軌道予測モデル
- Authors: Mohammadhossein Bahari, Vahid Zehtab, Sadegh Khorasani, Sana Ayramlou,
Saeed Saadatnejad, Alexandre Alahi
- Abstract要約: シーン内の車両の動きを予想することは、安全な自動運転システムにとって重要な問題である。
この目的のために、シーンのインフラの理解は、しばしば将来の軌跡を予測する主要な手がかりである。
提案手法のほとんどが逆逆変換方式のシーンを表現しており、近年のアプローチではカスタムベクトル化方式が採用されている。
- 参考スコア(独自算出の注目度): 67.68864911674308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating motions of vehicles in a scene is an essential problem for safe
autonomous driving systems. To this end, the comprehension of the scene's
infrastructure is often the main clue for predicting future trajectories. Most
of the proposed approaches represent the scene with a rasterized format and
some of the more recent approaches leverage custom vectorized formats. In
contrast, we propose representing the scene's information by employing Scalable
Vector Graphics (SVG). SVG is a well-established format that matches the
problem of trajectory prediction better than rasterized formats while being
more general than arbitrary vectorized formats. SVG has the potential to
provide the convenience and generality of raster-based solutions if coupled
with a powerful tool such as CNNs, for which we introduce SVG-Net. SVG-Net is a
Transformer-based Neural Network that can effectively capture the scene's
information from SVG inputs. Thanks to the self-attention mechanism in its
Transformers, SVG-Net can also adequately apprehend relations amongst the scene
and the agents. We demonstrate SVG-Net's effectiveness by evaluating its
performance on the publicly available Argoverse forecasting dataset. Finally,
we illustrate how, by using SVG, one can benefit from datasets and advancements
in other research fronts that also utilize the same input format. Our code is
available at https://vita-epfl.github.io/SVGNet/.
- Abstract(参考訳): シーン内の車両の動きを予想することは、安全な自動運転システムにとって重要な問題である。
この目的のために、シーンのインフラの理解は、しばしば将来の軌跡を予測する主要な手がかりである。
提案されたアプローチのほとんどはラスタ化フォーマットでシーンを表しており、最近のアプローチのいくつかはカスタムのベクトル化フォーマットを利用している。
対照的に,スケーラブル・ベクター・グラフィックス(svg)を用いたシーン情報表現を提案する。
svgは、ラスタ化フォーマットよりも軌道予測の問題に合致するが、任意のベクトル化フォーマットよりも一般的である。
SVGは、CNNのような強力なツールと組み合わせることで、ラスタベースのソリューションの利便性と汎用性を提供する可能性がある。
SVG-Netはトランスフォーマーベースのニューラルネットワークで、SVG入力からシーン情報を効果的にキャプチャすることができる。
トランスフォーマーの自己保持機構により、SVG-Netはシーンとエージェント間の関係を適切に把握することができる。
公開されているArgoverse予測データセット上で,SVG-Netの有効性を評価する。
最後に、SVGを使用することで、同じ入力フォーマットを使用する他の研究分野におけるデータセットや進歩の恩恵を受けることができるかを説明する。
私たちのコードはhttps://vita-epfl.github.io/svgnet/で利用可能です。
関連論文リスト
- NeuralSVG: An Implicit Representation for Text-to-Vector Generation [54.4153300455889]
本稿では,テキストプロンプトからベクトルグラフィックスを生成する暗黙的なニューラル表現であるNeuralSVGを提案する。
生成したSVGの層構造を促進するために,ドロップアウトに基づく正規化手法を導入する。
ニューラルSVGは、構造化された柔軟なSVGを生成する際に、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-01-07T18:50:06Z) - SVGFusion: Scalable Text-to-SVG Generation via Vector Space Diffusion [32.01103570298614]
SVGFusionは、現実のSVGデータへのスケーリングが可能なテキストからSVGモデルである。
人気のあるText-to-Imageフレームワークを使って、ベクターグラフィックスのための連続的な潜伏空間を学習する。
品質と一般化性の向上を実現し、新たなSVGコンテンツ作成を実現する。
論文 参考訳(メタデータ) (2024-12-11T09:02:25Z) - SuperSVG: Superpixel-based Scalable Vector Graphics Synthesis [66.44553285020066]
SuperSVGは、高速かつ高精度な画像ベクトル化を実現するスーパーピクセルベースのベクトル化モデルである。
本稿では,2段階の自己学習フレームワークを提案する。そこでは,粗い段階モデルを用いて主構造を再構築し,細部を充実させるために改良段階モデルを用いる。
再現精度と推定時間の観点から, 最先端手法と比較して, 提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:43:23Z) - SVGEditBench: A Benchmark Dataset for Quantitative Assessment of LLM's SVG Editing Capabilities [12.555117983678624]
大規模言語モデルはSVGコードを直接処理することができる。
SVGEditBenchは、SVGコードの編集能力を評価するためのベンチマークである。
GPT-4はGPT-3.5よりも定量的にも質的にも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-21T16:44:52Z) - StarVector: Generating Scalable Vector Graphics Code from Images and Text [15.32194071443065]
本稿では,SVG生成のための多モーダル大言語モデルであるStarを紹介する。
画像のセマンティクスを理解し、SVGプリミティブをコンパクトで正確な出力に使用することにより、画像ベクトル化を行う。
ベクトル化タスク間の一般化を可能にする2Mサンプルの多種多様なデータセットであるStarStackをトレーニングする。
論文 参考訳(メタデータ) (2023-12-17T08:07:32Z) - Beyond Pixels: Exploring Human-Readable SVG Generation for Simple Images
with Vision Language Models [19.145503353922038]
本稿では,Simple-SVG-Generation (Stextsuperscript2VGtextsuperscript2)を提案する。
本手法は,正確かつ簡便なSVGの生成と,人間の可読性と理解の整合性に重点を置いている。
その結果,従来のSVG生成手法よりも明らかに改善された結果が得られた。
論文 参考訳(メタデータ) (2023-11-27T05:20:11Z) - VectorFusion: Text-to-SVG by Abstracting Pixel-Based Diffusion Models [82.93345261434943]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,SVG-exportable vector graphicsを生成する。
近年のテキスト・ツー・3D研究に触発されて,Score Distillation Smpling を用いたキャプションと整合したSVGを学習した。
実験では、以前の作品よりも品質が向上し、ピクセルアートやスケッチを含む様々なスタイルが示されている。
論文 参考訳(メタデータ) (2022-11-21T10:04:27Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - DeepSVG: A Hierarchical Generative Network for Vector Graphics Animation [217.86315551526235]
本稿では,複雑なSVGアイコンの生成と操作のために,DeepSVGと呼ばれる新しい階層型生成ネットワークを提案する。
我々のアーキテクチャは、その形状自体をエンコードする低レベルのコマンドから、効果的に高レベルの形状を分離します。
我々のネットワークは、多様なベクトルグラフィックスを正確に再構築し、強力なアニメーションツールとして機能することを実証する。
論文 参考訳(メタデータ) (2020-07-22T09:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。