論文の概要: Shot Segmentation Based on Von Neumann Entropy for Key Frame Extraction
- arxiv url: http://arxiv.org/abs/2408.15844v1
- Date: Wed, 28 Aug 2024 15:04:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 15:40:56.142117
- Title: Shot Segmentation Based on Von Neumann Entropy for Key Frame Extraction
- Title(参考訳): キーフレーム抽出のためのフォンニューマンエントロピーに基づくショットセグメンテーション
- Authors: Xueqing Zhang. Di Fu, Naihao Liu,
- Abstract要約: Von Neumannエントロピーを用いたショットセグメンテーションに基づくビデオ鍵フレーム抽出アルゴリズムを提案する。
抽出されたキーフレームは、繰り返しフレーム数を最小化しつつ、元のビデオ内容を完全にかつ正確に表現することができる。
- 参考スコア(独自算出の注目度): 10.120038523523236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video key frame extraction is important in various fields, such as video summary, retrieval, and compression. Therefore, we suggest a video key frame extraction algorithm based on shot segmentation using Von Neumann entropy. The segmentation of shots is achieved through the computation of Von Neumann entropy of the similarity matrix among frames within the video sequence. The initial frame of each shot is selected as key frames, which combines the temporal sequence information of frames. The experimental results show the extracted key frames can fully and accurately represent the original video content while minimizing the number of repeated frames.
- Abstract(参考訳): ビデオキーフレーム抽出は、ビデオ要約、検索、圧縮など様々な分野で重要である。
そこで我々は,フォン・ノイマンエントロピーを用いたショットセグメンテーションに基づくビデオ鍵フレーム抽出アルゴリズムを提案する。
ショットのセグメンテーションは、ビデオシーケンス内のフレーム間の類似性行列のフォン・ノイマンエントロピーの計算によって達成される。
各ショットの初期フレームは、フレームの時間シーケンス情報を組み合わせたキーフレームとして選択される。
実験の結果、抽出したキーフレームは、繰り返しフレーム数を最小化しつつ、元の映像コンテンツを完全かつ正確に表現できることがわかった。
関連論文リスト
- Key Frame Extraction with Attention Based Deep Neural Networks [0.0]
本稿では,注目層を持つディープオートエンコーダモデルを用いて,ディープラーニングに基づく検出手法を提案する。
提案手法は,まずオートエンコーダのエンコーダ部を用いて映像フレームから特徴を抽出し,k-meansアルゴリズムを用いて特徴と類似フレームをグループ化する。
本手法は,TVSUMクラスタリングビデオデータセットを用いて評価し,0.77の分類精度を達成し,既存の多くの手法よりも高い成功率を示した。
論文 参考訳(メタデータ) (2023-06-21T15:09:37Z) - Maximal Cliques on Multi-Frame Proposal Graph for Unsupervised Video
Object Segmentation [6.681252581083198]
Unsupervised Video Object (UVOS) は、オブジェクトを発見し、ビデオを通して追跡することを目的としている。
本稿では,オブジェクト確率マスクを組み込んだグラフを用いて,鍵フレームの提案を推論する。
半教師付きVOSアルゴリズムはその後、ビデオ全体のキーフレーム提案を追跡する。
論文 参考訳(メタデータ) (2023-01-29T04:12:44Z) - MHSCNet: A Multimodal Hierarchical Shot-aware Convolutional Network for
Video Summarization [61.69587867308656]
本稿では,MHSCNetと呼ばれるマルチモーダル階層型ショット・アウェア・畳み込みネットワークを提案する。
学習したショット認識表現に基づいて、MHSCNetは、ビデオのローカルおよびグローバルビューにおけるフレームレベルの重要度スコアを予測することができる。
論文 参考訳(メタデータ) (2022-04-18T14:53:33Z) - Efficient Video Segmentation Models with Per-frame Inference [117.97423110566963]
推論のオーバーヘッドを導入することなく、時間的一貫性を改善することに注力する。
本稿では,時間的一貫性の喪失やオンライン/オフラインの知識蒸留手法など,ビデオシーケンスから学ぶためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-02-24T23:51:36Z) - OCSampler: Compressing Videos to One Clip with Single-step Sampling [82.0417131211353]
本稿では,OCSampler というフレームワークを提案する。
我々の基本的な動機は、効率的なビデオ認識タスクは、フレームをシーケンシャルに拾うのではなく、シーケンス全体を一度に処理することにある。
論文 参考訳(メタデータ) (2022-01-12T09:50:38Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - Efficient Video Object Segmentation with Compressed Video [36.192735485675286]
ビデオの時間的冗長性を利用した半教師付きビデオオブジェクトセグメンテーションのための効率的なフレームワークを提案する。
提案手法は,圧縮したビデオビットストリームの動作と残差に基づいて,選択したベクトルの推測を行い,他のフレームの予測を行う。
ベースモデルとしてトップkフィルタリングを用いたSTMでは,DAVIS16とYouTube-VOSにおいて,精度の低下とともに最大4.9倍の高速化を実現した。
論文 参考訳(メタデータ) (2021-07-26T12:57:04Z) - GSVNet: Guided Spatially-Varying Convolution for Fast Semantic
Segmentation on Video [10.19019476978683]
ビデオセグメンテーションのための簡易かつ効率的な伝播フレームワークを提案する。
セグメンテーション外空間における時間ゆがみのための1/8スケール画像空間における軽量フロー推定を行う。
本稿では,前フレームと現在のフレームからのセグメンテーションを融合する誘導型空間変動畳み込みを導入し,伝搬誤差を緩和する。
論文 参考訳(メタデータ) (2021-03-16T03:38:59Z) - Conditional Entropy Coding for Efficient Video Compression [82.35389813794372]
本稿では,フレーム間の条件エントロピーをモデル化することのみに焦点を当てた,非常にシンプルで効率的なビデオ圧縮フレームワークを提案する。
まず、画像遅延符号間のエントロピーをモデル化する単純なアーキテクチャが、他のニューラルビデオ圧縮やビデオコーデックと同等の競争力を持つことを示す。
次に、このアーキテクチャの上に新しい内部学習拡張を提案し、復号速度を抑えることなく10%の節約を実現した。
論文 参考訳(メタデータ) (2020-08-20T20:01:59Z) - End-to-End Learning for Video Frame Compression with Self-Attention [25.23586503813838]
ビデオフレームを圧縮するエンド・ツー・エンドの学習システムを提案する。
我々のシステムはフレームの深い埋め込みを学習し、その差分を潜時空間でエンコードする。
実験の結果,提案システムは高い圧縮率と高客観的な視覚的品質を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-20T12:11:08Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。