論文の概要: LTC-GIF: Attracting More Clicks on Feature-length Sports Videos
- arxiv url: http://arxiv.org/abs/2201.09077v1
- Date: Sat, 22 Jan 2022 15:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 06:56:05.151635
- Title: LTC-GIF: Attracting More Clicks on Feature-length Sports Videos
- Title(参考訳): LTC-GIF:長編スポーツビデオのクリック数を増やす
- Authors: Ghulam Mujtaba, Jaehyuk Choi, and Eun-Seok Ryu
- Abstract要約: 本稿では,パーソナライズされた芸術的メディアを提示することで,ユーザを惹きつけ,映像のビューを増やすための軽量な手法を提案する。
クライアントデバイスの計算資源を用いて軽量なサムネイルコンテナ(LTC)を分析し、フル長のスポーツビデオからパーソナライズされたイベントを認識する。
ビデオ全体を処理する代わりに、小さなビデオセグメントが処理され、芸術的なメディアを生成する。
- 参考スコア(独自算出の注目度): 4.776806621717593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a lightweight method to attract users and increase views
of the video by presenting personalized artistic media -- i.e, static
thumbnails and animated GIFs. This method analyzes lightweight thumbnail
containers (LTC) using computational resources of the client device to
recognize personalized events from full-length sports videos. In addition,
instead of processing the entire video, small video segments are processed to
generate artistic media. This makes the proposed approach more computationally
efficient compared to the baseline approaches that create artistic media using
the entire video. The proposed method retrieves and uses thumbnail containers
and video segments, which reduces the required transmission bandwidth as well
as the amount of locally stored data used during artistic media generation.
When extensive experiments were conducted on the Nvidia Jetson TX2, the
computational complexity of the proposed method was 3.57 times lower than that
of the SoA method. In the qualitative assessment, GIFs generated using the
proposed method received 1.02 higher overall ratings compared to the SoA
method. To the best of our knowledge, this is the first technique that uses LTC
to generate artistic media while providing lightweight and high-performance
services even on resource-constrained devices.
- Abstract(参考訳): 本稿では,静的サムネイルやアニメーションGIFなどのパーソナライズされた芸術的メディアを提示することで,ユーザを惹きつける軽量な手法を提案する。
本手法では,クライアントデバイスの計算リソースを用いて軽量サムネイルコンテナ(ltc)を分析し,スポーツビデオからパーソナライズされたイベントを識別する。
さらに、ビデオ全体を処理するのではなく、小さなビデオセグメントを処理して芸術的なメディアを生成する。
これにより,提案手法は,映像全体を用いて芸術的メディアを作成するベースラインアプローチと比較して,計算効率が向上する。
提案手法は,サムネイル容器と映像セグメントを検索・利用することにより,必要な伝送帯域幅と,芸術メディア生成時の局所記憶データの量を削減する。
Nvidia Jetson TX2で広範囲に実験を行ったところ、提案手法の計算複雑性はSoA法よりも3.57倍低かった。
定性評価では,提案手法を用いて生成したGIFは,SoA法に比べて1.02高い評価を受けた。
我々の知る限りでは、資源制約のあるデバイスでも軽量で高性能なサービスを提供しながら、LCCを使って芸術的メディアを生成する最初の技術である。
関連論文リスト
- A Simple Recipe for Contrastively Pre-training Video-First Encoders
Beyond 16 Frames [54.90226700939778]
我々は,大規模な画像テキストモデルを浅部時間融合によりビデオに転送する共通パラダイムを構築した。
1)標準ビデオデータセットにおけるビデオ言語アライメントの低下による空間能力の低下と,(2)処理可能なフレーム数のボトルネックとなるメモリ消費の増大である。
論文 参考訳(メタデータ) (2023-12-12T16:10:19Z) - Revitalizing Legacy Video Content: Deinterlacing with Bidirectional
Information Propagation [14.340811078427553]
本稿では,アニメーションとライブアクションの映像コンテンツを挿入するディープラーニングに基づく手法を提案する。
提案手法は,複数スケールにわたる双方向情報伝搬を支援する。
提案手法は,複数フィールドを同時に処理し,フレーム単位の時間を短縮し,リアルタイム処理を可能にする。
論文 参考訳(メタデータ) (2023-10-30T13:43:19Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Audio-Driven Dubbing for User Generated Contents via Style-Aware
Semi-Parametric Synthesis [123.11530365315677]
既存の自動ダビングメソッドは通常、PGC(Professionally Generated Content)の生産用に設計されている。
本稿では,ユーザ生成コンテンツ(UGC)制作においてより有効な音声駆動型ダビング手法について検討する。
論文 参考訳(メタデータ) (2023-08-31T15:41:40Z) - Time Does Tell: Self-Supervised Time-Tuning of Dense Image
Representations [79.87044240860466]
本稿では,高密度自己教師あり学習における時間的一貫性を取り入れた新しい手法を提案する。
タイムチューニング(time-tuning)と呼ぶ我々のアプローチは、画像事前学習モデルから始まり、ラベルなしビデオに新たな自己教師付き時間的アライメントクラスタリングロスを伴って微調整を行う。
タイムチューニングは、教師なしのセマンティックセマンティックセグメンテーションを8~10%改善し、画像にマッチさせる。
論文 参考訳(メタデータ) (2023-08-22T21:28:58Z) - Unified Perception: Efficient Depth-Aware Video Panoptic Segmentation
with Minimal Annotation Costs [2.7920304852537536]
ビデオベースのトレーニングを必要とせずに最先端のパフォーマンスを実現するための,Unified Perceptionという新しいアプローチを提案する。
本手法では,画像ベースネットワークで計算されたオブジェクトの埋め込みを (再) 利用する,単純な2段階のカスケード追跡アルゴリズムを用いる。
論文 参考訳(メタデータ) (2023-03-03T15:00:12Z) - A Feature-space Multimodal Data Augmentation Technique for Text-video
Retrieval [16.548016892117083]
近年,テキストビデオ検索手法が注目されている。
データ拡張技術は、目に見えないテスト例のパフォーマンスを向上させるために導入された。
特徴空間で機能し,意味的に類似したサンプルを混合して新しいビデオやキャプションを生成するマルチモーダルデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T14:05:20Z) - LTC-SUM: Lightweight Client-driven Personalized Video Summarization
Framework Using 2D CNN [5.95248889179516]
本稿では,フル長ビデオのための軽量サムネイルコンテナベース要約(LTC-SUM)フレームワークを提案する。
エンドユーザー装置の計算資源を用いて、同時ユーザ向けにパーソナライズされたキーショット要約を生成する。
論文 参考訳(メタデータ) (2022-01-22T13:54:13Z) - Boosting the Performance of Video Compression Artifact Reduction with
Reference Frame Proposals and Frequency Domain Information [31.053879834073502]
本稿では,既存のマルチフレーム手法の性能向上のための効果的な参照フレーム提案手法を提案する。
実験結果から,MFQE 2.0データセットの忠実度と知覚性能は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-31T13:46:11Z) - Space-Time Crop & Attend: Improving Cross-modal Video Representation
Learning [88.71867887257274]
トリミングのような空間拡張はビデオでもうまく機能するが、以前の実装ではうまく機能するのに十分な規模でこれを行うことができなかった。
そこで本研究ではまず,このような拡張をより効率的にシミュレートする手法であるFeature Cropについて紹介する。
第2に,ナイーブ平均プーリングとは対照的に,変圧器に基づく注意性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-03-18T12:32:24Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。