論文の概要: Attention based Memory video portrait matting
- arxiv url: http://arxiv.org/abs/2203.06890v1
- Date: Mon, 14 Mar 2022 07:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 04:25:55.022481
- Title: Attention based Memory video portrait matting
- Title(参考訳): 注意に基づくメモリ・ビデオ・ポートレート・マッティング
- Authors: Shufeng Song
- Abstract要約: そこで我々は,アテンション機構に基づく新しいトリマップフリービデオマッチング手法を提案する。
我々は、現在のフレームとそれ以前の2フレーム間の時間的コヒーレンスを計算するために、時間的アグリゲーションモジュールを設計した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We proposed a novel trimap free video matting method based on the attention
mechanism. By the nature of the problem, most existing approaches use either
multiple computational expansive modules or complex algorithms to exploit
temporal information fully. We designed a temporal aggregation module to
compute the temporal coherence between the current frame and its two previous
frames.
- Abstract(参考訳): そこで我々は,アテンション機構に基づく新しいトリマップフリービデオマッチング手法を提案する。
問題の性質から、既存のほとんどのアプローチでは、時間情報を完全に活用するために複数の計算拡張モジュールまたは複雑なアルゴリズムを使用する。
我々は,現在のフレームとその2つのフレーム間の時間的コヒーレンスを計算するために,時間的アグリゲーションモジュールを設計した。
関連論文リスト
- LaneTCA: Enhancing Video Lane Detection with Temporal Context Aggregation [87.71768494466959]
LaneTCAは個々のビデオフレームをブリッジし、時間的コンテキストを効果的に集約する方法を探る。
本研究では,長期的・短期的文脈を抽象化するアキュマティブアテンションモジュールと隣接アテンションモジュールを開発する。
2つのモジュールは、トランスフォーマーアーキテクチャに基づいて慎重に設計されている。
論文 参考訳(メタデータ) (2024-08-25T14:46:29Z) - Video Dehazing via a Multi-Range Temporal Alignment Network with
Physical Prior [117.6741444489174]
ビデオのデハジングは、高い可視性とコントラストでヘイズフリーフレームを回復することを目的としている。
本稿では,物理ヘイズ先行を探索し,時間的情報を集約する新しい枠組みを提案する。
大規模な屋外ビデオデハージングベンチマークデータセットを構築した。
論文 参考訳(メタデータ) (2023-03-17T03:44:17Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Meta-Interpolation: Time-Arbitrary Frame Interpolation via Dual
Meta-Learning [65.85319901760478]
我々はメタ学習の助けを借りて、適応的に生成された畳み込みカーネルで異なる時間ステップを統一的に処理することを検討する。
我々は、コンテキスト情報と光フローのガイダンスを用いて、中間フレームを合成するデュアルメタ学習フレームフレームワークを開発した。
論文 参考訳(メタデータ) (2022-07-27T17:36:23Z) - Coarse-Fine Networks for Temporal Activity Detection in Videos [45.03545172714305]
Co-Fine Networks」は、時間分解の異なる抽象化の恩恵を受け、長期的な動きのためのより良いビデオ表現を学ぶ2流アーキテクチャです。
提案手法は,計算量とメモリフットプリントを大幅に削減して,公開データセットにおける動作検出の最先端を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-03-01T20:48:01Z) - Temporal Memory Attention for Video Semantic Segmentation [9.160387962041476]
ビデオシーケンス上での長距離時間関係を適応的に統合する時間記憶注意ネットワーク(tmanet)を提案する。
この手法は、2つの困難なビデオセマンティクスセグメンテーションデータセットで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-17T09:18:57Z) - Video Frame Interpolation via Generalized Deformable Convolution [18.357839820102683]
ビデオフレームは、空間的および時間的コンピテンシーを維持しながら、近くのソースフレームから中間フレームを合成することを目的としている。
既存のディープラーニングベースのビデオフレーム手法は、フローベースの方法とカーネルベースの方法の2つのカテゴリに分けられる。
データ駆動方式で動きを効果的に学習し、時空のサンプリングポイントを自由に選択できる汎用変形型畳み込み機構が提案されている。
論文 参考訳(メタデータ) (2020-08-24T20:00:39Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。