論文の概要: Using Saliency and Cropping to Improve Video Memorability
- arxiv url: http://arxiv.org/abs/2309.11881v1
- Date: Thu, 21 Sep 2023 08:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 16:10:26.394270
- Title: Using Saliency and Cropping to Improve Video Memorability
- Title(参考訳): ビデオの記憶力を改善するためにサリエンシとクロップを使う
- Authors: Vaibhav Mudgal and Qingyang Wang and Lorin Sweeney and Alan F. Smeaton
- Abstract要約: ビデオの記憶可能性(英: Video memorability)とは、視聴者がビデオコンテンツと感情的なつながりを持たないときに、特定のビデオが視聴者によってどれだけ記憶されるかを示す尺度である。
本稿では,画像の鮮度に基づいてフレームを選択的にトリミングすることで,映像の記憶性を向上させる一連の実験結果を示す。
- 参考スコア(独自算出の注目度): 2.693646021803732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video memorability is a measure of how likely a particular video is to be
remembered by a viewer when that viewer has no emotional connection with the
video content. It is an important characteristic as videos that are more
memorable are more likely to be shared, viewed, and discussed. This paper
presents results of a series of experiments where we improved the memorability
of a video by selectively cropping frames based on image saliency. We present
results of a basic fixed cropping as well as the results from dynamic cropping
where both the size of the crop and the position of the crop within the frame,
move as the video is played and saliency is tracked. Our results indicate that
especially for videos of low initial memorability, the memorability score can
be improved.
- Abstract(参考訳): ビデオの記憶力(英: video memorability)とは、視聴者がビデオコンテンツと感情的なつながりがない場合、特定のビデオがどれだけ視聴者によって記憶されるかを示す指標である。
記憶に残るビデオは共有され、閲覧され、議論されることが多いため、これは重要な特徴である。
本稿では,映像のサリエンシーに基づいてフレームを選択的に切り刻むことにより,映像の記憶性を向上した一連の実験結果を示す。
本研究では,ビデオの再生時に作物の大きさとフレーム内の作物の位置の両方が移動し,塩分濃度が追跡される動的収穫と基本固定収穫の結果を示す。
その結果,初期記憶力の低いビデオでは,記憶力スコアが向上する可能性が示唆された。
関連論文リスト
- Generative Outpainting To Enhance the Memorability of Short-Form Videos [1.8020166013859684]
ビデオの記憶力は、ビデオが、そのコンテンツと感情的または個人的なつながりを持たない視聴者によって記憶される可能性を示している。
本稿では, 映像の画面サイズを拡大し, 記憶力の向上を図るために, 生成的露光を用いて, 映像の画面サイズを拡大した結果について述べる。
論文 参考訳(メタデータ) (2024-11-21T15:24:16Z) - Characterizing Video Question Answering with Sparsified Inputs [55.7455981156755]
我々は、異なる入力間隔のタスクを特徴付け、それを行うためのツールを提供する。
具体的には、Gumbelベースの学習可能な選択モジュールを使用して、最終タスクに最適な入力を適応的に選択する。
実験の結果,5.2%~5.8%のパフォーマンス低下がみられ,ビデオの長さは10%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-27T21:00:20Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - Broaden Your Views for Self-Supervised Video Learning [97.52216510672251]
ビデオのための自己教師型学習フレームワークBraVeを紹介する。
BraVeでは、ビューの1つがビデオの狭い一時的なウィンドウにアクセスでき、もう1つのビューはビデオコンテンツに広くアクセスできます。
BraVeが標準ビデオおよびオーディオ分類ベンチマークで自己監督表現学習の最先端の結果を達成することを実証します。
論文 参考訳(メタデータ) (2021-03-30T17:58:46Z) - A Multi-modal Deep Learning Model for Video Thumbnail Selection [0.0]
良いサムネイルは、視聴者の注意を引くと同時に、ビデオの内容を最大限に表現するフレームであるべきです。
本稿では,映像のタイトル,説明,音声を含むコンテンツの定義を拡張し,これらのモダリティによって提供される情報を選択モデルで活用する。
我々の知る限りでは、我々はビデオサムネイルを選択するためのマルチモーダル深層学習モデルを提案しており、これは以前のState-of-The-Artモデルに勝っている。
論文 参考訳(メタデータ) (2020-12-31T21:10:09Z) - VideoMix: Rethinking Data Augmentation for Video Classification [29.923635550986997]
最新のビデオアクション分類器は、しばしばオーバーフィットに苦しむ。
オーバーフィッティング問題に対処するための最近のデータ拡張戦略が報告されている。
VideoMixは、モデルがオブジェクトやシーンのバイアスを越えて学習し、アクション認識のためのより堅牢な手がかりを抽出する。
論文 参考訳(メタデータ) (2020-12-07T05:40:33Z) - Enhancing Unsupervised Video Representation Learning by Decoupling the
Scene and the Motion [86.56202610716504]
アクションカテゴリは、アクションが発生するシーンと非常に関連しているため、モデルが、シーン情報のみを符号化したソリューションに分解する傾向がある。
本稿では,シーンと動き(DSM)を2つの簡単な操作で分離し,動き情報に対するモデル注意がより高いようにすることを提案する。
論文 参考訳(メタデータ) (2020-09-12T09:54:11Z) - A gaze driven fast-forward method for first-person videos [2.362412515574206]
我々は、入力ビデオの高速化版を作成し、重要な瞬間をレコーダーに強調することにより、ファースト・パーソン・ビデオにおける関連情報へのアクセスの問題に対処する。
本手法は,映像の各フレームのセマンティックスコアを提供する,視線と視覚的シーン分析によって駆動される注目モデルに基づく。
論文 参考訳(メタデータ) (2020-06-10T00:08:42Z) - Feature Re-Learning with Data Augmentation for Video Relevance
Prediction [35.87597969685573]
再学習は、アフィン変換によって与えられた深い機能を新しい空間に投影することで実現される。
本稿では,フレームレベルとビデオレベルの機能に直接依存する新たなデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2020-04-08T05:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。