論文の概要: Marking anything: application of point cloud in extracting video target
features
- arxiv url: http://arxiv.org/abs/2306.07559v1
- Date: Tue, 13 Jun 2023 06:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:50:44.480816
- Title: Marking anything: application of point cloud in extracting video target
features
- Title(参考訳): マーク付け:ポイントクラウドの動画ターゲット特徴抽出への応用
- Authors: Xiangchun Xu
- Abstract要約: 本稿では,映像中の任意のターゲットの輪郭特徴を抽出できる,映像中の任意の(MA)をマークする手法を提案する。
このアルゴリズムは、YOLO-v8アルゴリズム、マルチオブジェクト追跡アルゴリズム、およびPointNet++を用いて、ビデオ検出対象の輪郭を抽出する。
Dou Yin氏の同種ビデオでは、提案した輪郭機能はTop1リターンモードで97%以上の精度で検索できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Extracting retrievable features from video is of great significance for
structured video database construction, video copyright protection and fake
video rumor refutation. Inspired by point cloud data processing, this paper
proposes a method for marking anything (MA) in the video, which can extract the
contour features of any target in the video and convert it into a feature
vector with a length of 256 that can be retrieved. The algorithm uses YOLO-v8
algorithm, multi-object tracking algorithm and PointNet++ to extract contour of
the video detection target to form spatial point cloud data. Then extract the
point cloud feature vector and use it as the retrievable feature of the video
detection target. In order to verify the effectiveness and robustness of
contour feature, some datasets are crawled from Dou Yin and Kinetics-700
dataset as experimental data. For Dou Yin's homogenized videos, the proposed
contour features achieve retrieval accuracy higher than 97% in Top1 return
mode. For videos from Kinetics 700, the contour feature also showed good
robustness for partial clip mode video tracing.
- Abstract(参考訳): ビデオから検索可能な特徴を抽出することは、構造化ビデオデータベースの構築、ビデオ著作権保護、偽ビデオのうわさに対する反論において非常に重要である。
本稿では,ビデオ中の任意のターゲットの輪郭特徴を抽出し,取得可能な長さ256の特徴ベクトルに変換する,ビデオ中の任意の(MA)をマークする手法を提案する。
このアルゴリズムは、YOLO-v8アルゴリズム、マルチオブジェクト追跡アルゴリズム、およびPointNet++を用いて、ビデオ検出対象の輪郭を抽出し、空間点クラウドデータを生成する。
そして、ポイントクラウド特徴ベクトルを抽出し、映像検出対象の検索可能な特徴として利用する。
輪郭特徴の有効性とロバスト性を検証するため、いくつかのデータセットは実験データとしてdou yinとkinetics-700データセットからクロールされる。
Dou Yin氏の同種ビデオでは、提案した輪郭機能はTop1リターンモードで97%以上の精度で検索できる。
kinetics 700のビデオでは、輪郭機能は部分的クリップモードビデオトレーシングにも優れた堅牢性を示した。
関連論文リスト
- VideoOrion: Tokenizing Object Dynamics in Videos [33.26917406964148]
ビデオ内のキーセマンティック情報を明示的にキャプチャするビデオ大言語モデル(Video Large Language Model: Video-LLM)を提案する。
VideoOrionでは、専門的なビジョンモデルを使用して、検出-セグメンション-トラックパイプラインを通じてオブジェクトのダイナミクスを抽出する。
本手法は,高次元映像データをセマンティックトークンに効率よく圧縮するビデオLLMにおける永続的課題に対処する。
論文 参考訳(メタデータ) (2024-11-25T07:32:02Z) - Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - Semi-supervised 3D Video Information Retrieval with Deep Neural Network
and Bi-directional Dynamic-time Warping Algorithm [14.39527406033429]
提案アルゴリズムは,大規模なビデオデータセットを処理し,最も関連性の高い映像を検索ビデオクリップに検索するように設計されている。
候補と調査ビデオの両方を一連のクリップに分割し、各クリップをオートエンコーダ支援のディープニューラルネットワークを用いて表現ベクトルに変換する。
次に, 双方向動的時間ワープ法を用いて, 埋め込みベクトル列間の類似度を計算した。
論文 参考訳(メタデータ) (2023-09-03T03:10:18Z) - Point Cloud Video Anomaly Detection Based on Point Spatio-Temporal
Auto-Encoder [1.4340883856076097]
我々は、ポイントクラウドビデオの異常を検出するためにポイントクラウドビデオを入力として使用する自動エンコーダフレームワークであるポイント時自動エンコーダ(PSTAE)を提案する。
本手法はTIMoデータセット上に新しい最先端(SOTA)を設定する。
論文 参考訳(メタデータ) (2023-06-04T10:30:28Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Attention-guided Temporal Coherent Video Object Matting [78.82835351423383]
本稿では,時間的コヒーレントなマッチング結果が得られる深層学習に基づくオブジェクトマッチング手法を提案する。
中心となるコンポーネントは、画像マッチングネットワークの強度を最大化するアテンションベースの時間アグリゲーションモジュールである。
本稿では,最先端のビデオオブジェクトセグメンテーションネットワークを微調整することで,トリマップ生成問題を効果的に解決する方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:34:57Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - CompFeat: Comprehensive Feature Aggregation for Video Instance
Segmentation [67.17625278621134]
ビデオインスタンスのセグメンテーションは、特定のビデオのそれぞれのオブジェクトを検出し、セグメンテーションし、追跡する必要がある複雑なタスクです。
従来のアプローチは、オブジェクトの検出、セグメンテーション、追跡にのみシングルフレーム機能を使用します。
本稿では,時間的および空間的コンテキスト情報を用いて,フレームレベルとオブジェクトレベルでの機能を洗練する新しい包括的特徴集約アプローチ(compfeat)を提案する。
論文 参考訳(メタデータ) (2020-12-07T00:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。