論文の概要: JIT-Masker: Efficient Online Distillation for Background Matting
- arxiv url: http://arxiv.org/abs/2006.06185v1
- Date: Thu, 11 Jun 2020 04:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:45:34.916795
- Title: JIT-Masker: Efficient Online Distillation for Background Matting
- Title(参考訳): JIT-Masker: バックグラウンドマッチングのための効率的なオンライン蒸留
- Authors: Jo Chuang, Qian Dong
- Abstract要約: 我々は、特にビデオ会議における「仮想背景」のために、日々の使用のためにリアルタイムのポートレートマッチングパイプラインを設計する。
我々のパイプラインは、入力ビデオストリーム上のオンライン蒸留を活用することにより、より優れたスループットを実現するための制御可能な量の精度のトレードオフを可能にします。
- 参考スコア(独自算出の注目度): 5.1398743023989555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design a real-time portrait matting pipeline for everyday use,
particularly for "virtual backgrounds" in video conferences. Existing
segmentation and matting methods prioritize accuracy and quality over
throughput and efficiency, and our pipeline enables trading off a controllable
amount of accuracy for better throughput by leveraging online distillation on
the input video stream. We construct our own dataset of simulated video calls
in various scenarios, and show that our approach delivers a 5x speedup over a
saliency detection based pipeline in a non-GPU accelerated setting while
delivering higher quality results. We demonstrate that an online distillation
approach can feasibly work as part of a general, consumer level product as a
"virtual background" tool. Our public implementation is at
https://github.com/josephch405/jit-masker.
- Abstract(参考訳): 我々は,リアルタイムのポートレート・マッティング・パイプラインを日常的に,特にビデオ会議における「仮想背景」のために設計する。
既存のセグメンテーションとマッティング手法では,スループットと効率よりも精度と品質を優先しており,本パイプラインでは,オンライン蒸留を入力映像ストリーム上で活用することにより,制御可能な量の精度とスループットのトレードオフが可能である。
シミュレーションされたビデオコールのデータセットをさまざまなシナリオで構築し、より高品質な結果を提供するとともに、非GPUアクセラレーション設定において、サリエンシ検出に基づくパイプライン上で5倍のスピードアップを実現していることを示す。
オンライン蒸留アプローチが「仮想背景」ツールとして一般消費者レベルの製品の一部として実現可能であることを実証する。
公開実装はhttps://github.com/josephch405/jit-maskerです。
関連論文リスト
- RTFormer: Efficient Design for Real-Time Semantic Segmentation with
Transformer [63.25665813125223]
本稿では,リアルタイムセマンティックセグメンテーションのための効率的なデュアルレゾリューション変換器RTFormerを提案する。
CNNベースのモデルよりもパフォーマンスと効率のトレードオフが優れている。
主要なベンチマーク実験では,提案したRTFormerの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T16:03:53Z) - It Takes Two: Masked Appearance-Motion Modeling for Self-supervised
Video Transformer Pre-training [76.69480467101143]
自己監督型ビデオトランスフォーマーの事前トレーニングは、最近マスク・アンド・予測パイプラインの恩恵を受けている。
本稿では,映像中の動きの手がかりを余分な予測対象として明示的に調査し,マスケッド・出現運動モデリングフレームワークを提案する。
一般的なビデオ表現を学習し、Kinects-400で82.3%、Something V2で71.3%、UCF101で91.5%、HMDB51で62.5%を達成する。
論文 参考訳(メタデータ) (2022-10-11T08:05:18Z) - Video Mask Transfiner for High-Quality Video Instance Segmentation [102.50936366583106]
Video Mask Transfiner (VMT) は、高効率なビデオトランス構造により、微細な高解像度機能を利用することができる。
当社のVMTアーキテクチャに基づいて,反復的トレーニングと自己補正による自動アノテーション改善アプローチを設計する。
我々はVMTとHQ-YTVISの最新の最先端手法、Youtube-VIS、OVIS、BDD100K MOTSを比較した。
論文 参考訳(メタデータ) (2022-07-28T11:13:37Z) - Turbo: Opportunistic Enhancement for Edge Video Analytics [15.528497833853146]
本稿では,非決定論的および断片的アイドルGPU資源を用いたオポチュニティデータ拡張問題について検討する。
本稿では,タスク固有の識別・拡張モジュールと,モデル対応の対人訓練機構を提案する。
我々のシステムは、遅延コストを発生させることなく、オブジェクト検出の精度を7.3~11.3%向上させる。
論文 参考訳(メタデータ) (2022-06-29T12:13:30Z) - GPU-Accelerated Machine Learning in Non-Orthogonal Multiple Access [71.58925117604039]
非直交多重アクセス(Noma)は、将来の5Gおよび6Gネットワークに必要な大規模な接続を可能にする興味深い技術である。
線形処理と非線形処理の両方の利点を組み合わせたニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-13T09:38:23Z) - Leveraging Deepfakes to Close the Domain Gap between Real and Synthetic
Images in Facial Capture Pipelines [8.366597450893456]
我々は、パーソナライズされたアプリ内ビデオデータから3次元顔モデルを構築し、追跡するためのエンドツーエンドパイプラインを提案する。
本稿では,従来のコンピュータグラフィックスパイプラインにおける衝突アルゴリズムに典型的な階層的クラスタリングフレームワークに基づく自動データキュレーションと検索手法を提案する。
我々は、前述の技術を活用して、現実の地上真実データの必要性を回避するために、モーションキャプチャ回帰器のトレーニング方法を概説する。
論文 参考訳(メタデータ) (2022-04-22T15:09:49Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Where Is My Training Bottleneck? Hidden Trade-Offs in Deep Learning
Preprocessing Pipelines [77.45213180689952]
ディープラーニングにおける前処理パイプラインは、トレーニングプロセスを忙しくするための十分なデータスループットの提供を目的としている。
エンドツーエンドのディープラーニングパイプラインのためのデータセットを効率的に準備する新たな視点を導入する。
チューニングされていないシステムに比べてスループットが3倍から13倍に向上する。
論文 参考訳(メタデータ) (2022-02-17T14:31:58Z) - Real-time Face Mask Detection in Video Data [0.5371337604556311]
本稿では,リアルタイムビデオストリームから正解と誤用を識別可能な,堅牢なディープラーニングパイプラインを提案する。
2つのアプローチを考案し,その性能と実行時間効率を評価した。
論文 参考訳(メタデータ) (2021-05-05T01:03:34Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。