論文の概要: SVG-Net: An SVG-based Trajectory Prediction Model
- arxiv url: http://arxiv.org/abs/2110.03706v1
- Date: Thu, 7 Oct 2021 18:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 14:14:28.386997
- Title: SVG-Net: An SVG-based Trajectory Prediction Model
- Title(参考訳): SVG-Net: SVGに基づく軌道予測モデル
- Authors: Mohammadhossein Bahari, Vahid Zehtab, Sadegh Khorasani, Sana Ayramlou,
Saeed Saadatnejad, Alexandre Alahi
- Abstract要約: シーン内の車両の動きを予想することは、安全な自動運転システムにとって重要な問題である。
この目的のために、シーンのインフラの理解は、しばしば将来の軌跡を予測する主要な手がかりである。
提案手法のほとんどが逆逆変換方式のシーンを表現しており、近年のアプローチではカスタムベクトル化方式が採用されている。
- 参考スコア(独自算出の注目度): 67.68864911674308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating motions of vehicles in a scene is an essential problem for safe
autonomous driving systems. To this end, the comprehension of the scene's
infrastructure is often the main clue for predicting future trajectories. Most
of the proposed approaches represent the scene with a rasterized format and
some of the more recent approaches leverage custom vectorized formats. In
contrast, we propose representing the scene's information by employing Scalable
Vector Graphics (SVG). SVG is a well-established format that matches the
problem of trajectory prediction better than rasterized formats while being
more general than arbitrary vectorized formats. SVG has the potential to
provide the convenience and generality of raster-based solutions if coupled
with a powerful tool such as CNNs, for which we introduce SVG-Net. SVG-Net is a
Transformer-based Neural Network that can effectively capture the scene's
information from SVG inputs. Thanks to the self-attention mechanism in its
Transformers, SVG-Net can also adequately apprehend relations amongst the scene
and the agents. We demonstrate SVG-Net's effectiveness by evaluating its
performance on the publicly available Argoverse forecasting dataset. Finally,
we illustrate how, by using SVG, one can benefit from datasets and advancements
in other research fronts that also utilize the same input format. Our code is
available at https://vita-epfl.github.io/SVGNet/.
- Abstract(参考訳): シーン内の車両の動きを予想することは、安全な自動運転システムにとって重要な問題である。
この目的のために、シーンのインフラの理解は、しばしば将来の軌跡を予測する主要な手がかりである。
提案されたアプローチのほとんどはラスタ化フォーマットでシーンを表しており、最近のアプローチのいくつかはカスタムのベクトル化フォーマットを利用している。
対照的に,スケーラブル・ベクター・グラフィックス(svg)を用いたシーン情報表現を提案する。
svgは、ラスタ化フォーマットよりも軌道予測の問題に合致するが、任意のベクトル化フォーマットよりも一般的である。
SVGは、CNNのような強力なツールと組み合わせることで、ラスタベースのソリューションの利便性と汎用性を提供する可能性がある。
SVG-Netはトランスフォーマーベースのニューラルネットワークで、SVG入力からシーン情報を効果的にキャプチャすることができる。
トランスフォーマーの自己保持機構により、SVG-Netはシーンとエージェント間の関係を適切に把握することができる。
公開されているArgoverse予測データセット上で,SVG-Netの有効性を評価する。
最後に、SVGを使用することで、同じ入力フォーマットを使用する他の研究分野におけるデータセットや進歩の恩恵を受けることができるかを説明する。
私たちのコードはhttps://vita-epfl.github.io/svgnet/で利用可能です。
関連論文リスト
- SuperSVG: Superpixel-based Scalable Vector Graphics Synthesis [66.44553285020066]
SuperSVGは、高速かつ高精度な画像ベクトル化を実現するスーパーピクセルベースのベクトル化モデルである。
本稿では,2段階の自己学習フレームワークを提案する。そこでは,粗い段階モデルを用いて主構造を再構築し,細部を充実させるために改良段階モデルを用いる。
再現精度と推定時間の観点から, 最先端手法と比較して, 提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:43:23Z) - SVGEditBench: A Benchmark Dataset for Quantitative Assessment of LLM's SVG Editing Capabilities [12.555117983678624]
大規模言語モデルはSVGコードを直接処理することができる。
SVGEditBenchは、SVGコードの編集能力を評価するためのベンチマークである。
GPT-4はGPT-3.5よりも定量的にも質的にも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-21T16:44:52Z) - SVGDreamer: Text Guided SVG Generation with Diffusion Model [31.76771064173087]
SVGDreamerと呼ばれる新しいテキスト誘導ベクトルグラフィックス合成法を提案する。
SIVEプロセスは、前景オブジェクトと背景への合成の分解を可能にする。
VPSDアプローチは、形状の平滑化、彩度の過飽和、多様性の制限、収束の遅い問題に対処する。
論文 参考訳(メタデータ) (2023-12-27T08:50:01Z) - StarVector: Generating Scalable Vector Graphics Code from Images [13.995963187283321]
本稿では,コード生成大言語モデル(CodeLLM)と視覚モデルを統合する多モードSVG生成モデルであるStarを紹介する。
提案手法では,CLIP画像を用いて画素ベースの画像から視覚表現を抽出し,アダプタモジュールを介して視覚トークンに変換する。
以上の結果から,従来のSVG生成技術よりも視覚的品質と複雑さが著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2023-12-17T08:07:32Z) - Beyond Pixels: Exploring Human-Readable SVG Generation for Simple Images
with Vision Language Models [19.145503353922038]
本稿では,Simple-SVG-Generation (Stextsuperscript2VGtextsuperscript2)を提案する。
本手法は,正確かつ簡便なSVGの生成と,人間の可読性と理解の整合性に重点を置いている。
その結果,従来のSVG生成手法よりも明らかに改善された結果が得られた。
論文 参考訳(メタデータ) (2023-11-27T05:20:11Z) - VectorFusion: Text-to-SVG by Abstracting Pixel-Based Diffusion Models [82.93345261434943]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,SVG-exportable vector graphicsを生成する。
近年のテキスト・ツー・3D研究に触発されて,Score Distillation Smpling を用いたキャプションと整合したSVGを学習した。
実験では、以前の作品よりも品質が向上し、ピクセルアートやスケッチを含む様々なスタイルが示されている。
論文 参考訳(メタデータ) (2022-11-21T10:04:27Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - DeepSVG: A Hierarchical Generative Network for Vector Graphics Animation [217.86315551526235]
本稿では,複雑なSVGアイコンの生成と操作のために,DeepSVGと呼ばれる新しい階層型生成ネットワークを提案する。
我々のアーキテクチャは、その形状自体をエンコードする低レベルのコマンドから、効果的に高レベルの形状を分離します。
我々のネットワークは、多様なベクトルグラフィックスを正確に再構築し、強力なアニメーションツールとして機能することを実証する。
論文 参考訳(メタデータ) (2020-07-22T09:36:31Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。