論文の概要: Spatialyze: A Geospatial Video Analytics System with Spatial-Aware
Optimizations
- arxiv url: http://arxiv.org/abs/2308.03276v1
- Date: Mon, 7 Aug 2023 03:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:20:09.188062
- Title: Spatialyze: A Geospatial Video Analytics System with Spatial-Aware
Optimizations
- Title(参考訳): Spaceyze:空間対応最適化による地理空間ビデオ分析システム
- Authors: Chanwut Kittivorawong, Yongming Ge, Yousef Helal, Alvin Cheung
- Abstract要約: Spatialyzeは、地理空間ビデオのエンドツーエンドクエリのための新しいフレームワークである。
その結果、Spatialyzeは、最適化されていない実行と比較して最大97.1%の精度を維持しながら、実行時間を最大5.3倍に短縮できることがわかった。
- 参考スコア(独自算出の注目度): 10.693929461486029
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Videos that are shot using commodity hardware such as phones and surveillance
cameras record various metadata such as time and location. We encounter such
geospatial videos on a daily basis and such videos have been growing in volume
significantly. Yet, we do not have data management systems that allow users to
interact with such data effectively.
In this paper, we describe Spatialyze, a new framework for end-to-end
querying of geospatial videos. Spatialyze comes with a domain-specific language
where users can construct geospatial video analytic workflows using a 3-step,
declarative, build-filter-observe paradigm. Internally, Spatialyze leverages
the declarative nature of such workflows, the temporal-spatial metadata stored
with videos, and physical behavior of real-world objects to optimize the
execution of workflows. Our results using real-world videos and workflows show
that Spatialyze can reduce execution time by up to 5.3x, while maintaining up
to 97.1% accuracy compared to unoptimized execution.
- Abstract(参考訳): 携帯電話や監視カメラなどのコモディティなハードウェアを使って撮影されたビデオは、時間や位置などの様々なメタデータを記録する。
このような地理空間的ビデオは日常的に遭遇し,その量は著しく増加している。
しかし、そのようなデータと効率的に対話できるデータ管理システムは存在しません。
本稿では,地理空間ビデオのエンドツーエンドクエリのための新しいフレームワークであるSpatialyzeについて述べる。
Spatialyzeにはドメイン固有の言語があり、ユーザは3段階の宣言型ビルド-フィルタ-オブザーブパラダイムを使って地理空間ビデオ分析ワークフローを構築することができる。
内部的には、Spatialyzeはワークフローの宣言的な性質、ビデオに格納された時間空間メタデータ、現実世界のオブジェクトの物理的な振る舞いを活用してワークフローの実行を最適化する。
実世界のビデオとワークフローを用いた結果から、spatialyzeは、最適化されていない実行と比較して97.1%の精度を維持しながら、実行時間を最大5.3倍削減できることがわかった。
関連論文リスト
- HAVANA: Hierarchical stochastic neighbor embedding for Accelerated Video ANnotAtions [59.71751978599567]
本稿では,時間的ビデオアノテーションプロセスの高速化のために,事前抽出した特徴量と次元減少量を用いた新しいアノテーションパイプラインを提案する。
従来のリニア手法と比較して,アノテーションの取り組みが大幅に改善され,12時間以上のビデオのアノテートに要するクリック数が10倍以上に短縮された。
論文 参考訳(メタデータ) (2024-09-16T18:15:38Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - A Survey on Video Moment Localization [61.5323647499912]
ビデオモーメントのローカライゼーションは、与えられた自然言語クエリによって記述されたビデオ内のターゲットセグメントを検索することを目的としている。
本稿では,教師付き,弱教師付き,教師なしなどの既存の映像モーメントローカライゼーション手法について概説する。
本稿では,この分野,特に大規模データセットと解釈可能なビデオモーメントローカライゼーションモデルについて論じる。
論文 参考訳(メタデータ) (2023-06-13T02:57:32Z) - Video 3D Sampling for Self-supervised Representation Learning [13.135859819622855]
本稿では,ビデオ3Dサンプリング(V3S)と呼ばれる,映像表現学習の自己指導手法を提案する。
本実装では,3次元のサンプリングを組み合わせ,空間および時間におけるスケールおよび投影変換を提案する。
実験結果から,動作認識,映像検索,動作類似性ラベル付けに応用した場合,本手法は最先端の手法を改良し,良好なマージンが得られた。
論文 参考訳(メタデータ) (2021-07-08T03:22:06Z) - A Survey of Performance Optimization in Neural Network-Based Video
Analytics Systems [0.9558392439655014]
ビデオ分析システムは、ビデオ内で自動イベント、動き、行動認識を実行する。
本稿では,ニューラルネットワークに基づくビデオ分析システムの性能最適化に重点を置く技術について概説する。
論文 参考訳(メタデータ) (2021-05-10T17:06:44Z) - Video Exploration via Video-Specific Autoencoders [60.256055890647595]
ヒト制御可能なビデオ探索を可能にするビデオ固有オートエンコーダを提案する。
特定のビデオの複数のフレームで訓練された単純なオートエンコーダは、さまざまなビデオ処理および編集タスクを実行できることを観察します。
論文 参考訳(メタデータ) (2021-03-31T17:56:13Z) - TSP: Temporally-Sensitive Pretraining of Video Encoders for Localization
Tasks [79.01176229586855]
本稿では,背景クリップとグローバルビデオ情報を考慮した時間感度向上のための教師付き事前学習パラダイムを提案する。
大規模実験により,新しい事前学習戦略で訓練した特徴を用いることで,最近の3つの課題における最先端手法の性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2020-11-23T15:40:15Z) - ApproxDet: Content and Contention-Aware Approximate Object Detection for
Mobiles [19.41234144545467]
本稿では,モバイル機器用適応型ビデオオブジェクト検出フレームワークであるApproxDetを紹介する。
大規模なベンチマークビデオデータセット上でApproxDetを評価し,AdaScaleやYOLOv3と比較した。
ApproxDetは、幅広いコンテントやコンテンツの特徴に適応し、すべてのベースラインを誇張することができる。
論文 参考訳(メタデータ) (2020-10-21T04:11:05Z) - Video Monitoring Queries [16.7214343633499]
ビデオストリーム上での対話型宣言型クエリ処理の問題について検討する。
特定のタイプのオブジェクトを含むクエリを高速化するために、近似フィルタのセットを導入します。
フィルタは、クエリ述語が真実であれば素早く評価でき、フレームのさらなる分析を進めることができる。
論文 参考訳(メタデータ) (2020-02-24T20:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。