論文の概要: An Advert Creation System for 3D Product Placements
- arxiv url: http://arxiv.org/abs/2006.15131v1
- Date: Fri, 26 Jun 2020 17:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 22:06:43.457700
- Title: An Advert Creation System for 3D Product Placements
- Title(参考訳): 3次元製品配置のための広告作成システム
- Authors: Ivan Bacher, Hossein Javidnia, Soumyabrata Dev, Rahul Agrahari, Murhaf
Hossari, Matthew Nicholson, Clare Conran, Jian Tang, Peng Song, David
Corrigan, Fran\c{c}ois Piti\'e
- Abstract要約: 本稿では,ビデオ配置統合(Adverts)フレームワークを提案する。
シーンの3D幾何学とカメラの動きを認識して、ビデオに3D仮想オブジェクトをブレンドし、現実の錯覚を作り出すことができる。
- 参考スコア(独自算出の注目度): 12.131828005790386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, the evolution of video-sharing platforms has attracted
a significant amount of investments on contextual advertising. The common
contextual advertising platforms utilize the information provided by users to
integrate 2D visual ads into videos. The existing platforms face many technical
challenges such as ad integration with respect to occluding objects and 3D ad
placement. This paper presents a Video Advertisement Placement & Integration
(Adverts) framework, which is capable of perceiving the 3D geometry of the
scene and camera motion to blend 3D virtual objects in videos and create the
illusion of reality. The proposed framework contains several modules such as
monocular depth estimation, object segmentation, background-foreground
separation, alpha matting and camera tracking. Our experiments conducted using
Adverts framework indicates the significant potential of this system in
contextual ad integration, and pushing the limits of advertising industry using
mixed reality technologies.
- Abstract(参考訳): 過去10年間で、ビデオ共有プラットフォームの進化は、コンテキスト広告に多大な投資をしてきた。
一般的なコンテキスト広告プラットフォームは、ユーザーが提供した情報を利用して2Dビジュアル広告をビデオに統合する。
既存のプラットフォームは、オクルーディングオブジェクトに関する広告統合や3d広告配置など、多くの技術的課題に直面している。
本稿では,映像に3d仮想オブジェクトをブレンドし,現実の錯覚を作り出すために,シーンの3次元形状とカメラの動きを認識できる映像広告配置統合(adverts)フレームワークを提案する。
提案フレームワークは, 単眼深度推定, 物体分割, 背景・地上分離, アルファマッティング, カメラトラッキングなどのモジュールを含む。
コンテクスト広告統合における本システムの有意な可能性を示し,複合現実感技術を用いた広告産業の限界を押し上げる実験を行った。
関連論文リスト
- ContextIQ: A Multimodal Expert-Based Video Retrieval System for Contextual Advertising [2.330164376631038]
コンテキスト広告は、ユーザーが見ているコンテンツに沿った広告を提供する。
共同マルチモーダルトレーニングに基づく現在のテキスト・ビデオ検索モデルでは,大規模なデータセットと計算資源が要求される。
本研究では,コンテキスト広告に特化して設計されたマルチモーダル専門家によるビデオ検索システムであるContextIQを紹介する。
論文 参考訳(メタデータ) (2024-10-29T17:01:05Z) - 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - A Comprehensive Survey of 3D Dense Captioning: Localizing and Describing
Objects in 3D Scenes [80.20670062509723]
3Dシークエンスキャプションは、3Dシーンの詳細な説明を作成することを目的とした、視覚言語によるブリッジングタスクである。
2次元の視覚的キャプションと比較して、現実世界の表現が密接なため、大きな可能性と課題が提示される。
既存手法の人気と成功にもかかわらず、この分野の進歩を要約した総合的な調査は乏しい。
論文 参考訳(メタデータ) (2024-03-12T10:04:08Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - Framework for 2D Ad placements in LinearTV [0.0]
小型カメラで撮影したリニアTV調理ショーにおいて,2次元広告をデジタル的に配置するための完全自動フレームワークを実演する。
このフレームワークは、フルビデオやプロダクションカメラの設定にアクセスできることなく、以下のタスクを実行する。
論文 参考訳(メタデータ) (2022-12-05T17:48:11Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - 3D-Aware Video Generation [149.5230191060692]
本研究では, 3D 対応ビデオの生成を学習する 4 次元生成敵ネットワーク (GAN) について検討する。
神経暗黙表現と時間認識判別器を組み合わせることで,モノクラービデオのみを教師する3D映像を合成するGANフレームワークを開発した。
論文 参考訳(メタデータ) (2022-06-29T17:56:03Z) - Szloca: towards a framework for full 3D tracking through a single camera
in context of interactive arts [1.0878040851638]
本研究は、オブジェクト/人のデータと仮想表現を得るための新しい方法と枠組みを提案する。
このモデルはコンピュータビジョンシステムの複雑な訓練には依存せず、コンピュータビジョンの研究とz深度を表現する能力が組み合わさっている。
論文 参考訳(メタデータ) (2022-06-26T20:09:47Z) - Multi-modal Representation Learning for Video Advertisement Content
Structuring [10.45050088240847]
ビデオ広告コンテンツ構造化は、所定のビデオ広告を分割し、各セグメントを様々な次元にラベル付けすることを目的としている。
ビデオ広告は、キャプションやスピーチのような十分かつ有用なマルチモーダルコンテンツを含んでいる。
ビデオ音声とテキストの対話により,ビデオ広告からマルチモーダル表現を学習するためのマルチモーダルエンコーダを提案する。
論文 参考訳(メタデータ) (2021-09-04T09:08:29Z) - A Multimodal Framework for Video Ads Understanding [64.70769354696019]
広告ビデオコンテンツの構造化分析能力を向上させるためのマルチモーダルシステムの開発を行う。
2021年のTAAC最終リーダーボードでは, 位置推定と予測精度を考慮した0.2470のスコアを得た。
論文 参考訳(メタデータ) (2021-08-29T16:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。