論文の概要: Hyper360 -- a Next Generation Toolset for Immersive Media
- arxiv url: http://arxiv.org/abs/2108.00430v1
- Date: Sun, 1 Aug 2021 11:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:18:04.244471
- Title: Hyper360 -- a Next Generation Toolset for Immersive Media
- Title(参考訳): Hyper360 - 没入型メディアのための次世代ツールセット
- Authors: Hannes Fassold, Antonis Karakottas, Dorothea Tsatsou, Dimitrios
Zarpalas, Barnabas Takacs, Christian Fuhrhop, Angelo Manfredi, Nicolas Patz,
Simona Tonoli, Iana Dulskaia
- Abstract要約: これまでHyper360プロジェクトでおこなわれた、360度ビデオと3Dコンテンツを混在させるツールについて説明する。
Hyper360ツールで製作された最初のパイロットと、製作したパイロットの観客評価の結果が提示される。
- 参考スコア(独自算出の注目度): 5.051193614481827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spherical 360{\deg} video is a novel media format, rapidly becoming adopted
in media production and consumption of immersive media. Due to its novelty,
there is a lack of tools for producing highly engaging interactive 360{\deg}
video for consumption on a multitude of platforms. In this work, we describe
the work done so far in the Hyper360 project on tools for mixed 360{\deg} video
and 3D content. Furthermore, the first pilots which have been produced with the
Hyper360 tools and results of the audience assessment of the produced pilots
are presented.
- Abstract(参考訳): sphere 360{\deg} ビデオは新しいメディアフォーマットであり、没入型メディアの制作と消費に急速に採用されている。
その斬新さのために、様々なプラットフォームで消費される高機能な360{\deg}ビデオを作るためのツールが不足している。
本稿では,360度ビデオと3dコンテンツの混合のためのツールであるhyper360のプロジェクトについて述べる。
また、hyper360ツールを用いて製作された最初のパイロットと、製作されたパイロットのオーディエンス評価の結果を紹介する。
関連論文リスト
- MVSplat360: Feed-Forward 360 Scene Synthesis from Sparse Views [90.26609689682876]
MVSplat360は多様な現実世界シーンの360degノベルビュー合成(NVS)のためのフィードフォワードアプローチであり、スパース観測のみを用いて紹介する。
この設定は、入力ビュー間の重複が最小限であり、提供された視覚情報が不十分であるために本質的に不適切である。
私たちのモデルは、エンドツーエンドのトレーニングが可能で、5つのスパースなインプットビューで任意のビューのレンダリングをサポートしています。
論文 参考訳(メタデータ) (2024-11-07T17:59:31Z) - Any360D: Towards 360 Depth Anything with Unlabeled 360 Data and Möbius Spatial Augmentation [19.202253857381688]
我々は、Any360Dと呼ばれる360度深度基礎モデルを学ぶための半教師付き学習フレームワークを提案する。
SSLの傘の下で、Any360Dはまず、メートル法深度監視を通じてDAMを微調整することで教師モデルを学ぶ。
大規模な実験では、Any360DはDAMと多くの先行データ固有モデルより優れており、360度基礎モデルとして印象的なゼロショット能力を示している。
論文 参考訳(メタデータ) (2024-06-19T09:19:06Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - 360DVD: Controllable Panorama Video Generation with 360-Degree Video Diffusion Model [23.708946172342067]
本研究では,360度パノラマビデオを生成するために360DVDと呼ばれるパイプラインを提案する。
我々は,パノラマビデオ生成のためのトレーニング済みのT2Vモデルを変換するために,360 Enhancement Techniquesを併用した軽量な360-Adapterを提案する。
また,360DVDをトレーニングするためのパノラマビデオテキストペアからなる WEB360 という新しいパノラマデータセットを提案する。
論文 参考訳(メタデータ) (2024-01-12T13:52:29Z) - NeO 360: Neural Fields for Sparse View Synthesis of Outdoor Scenes [59.15910989235392]
屋外シーンのスパースビュー合成のためのNeO 360, Neural Fieldを紹介する。
NeO 360は、単一のまたは少数のRGB画像から360degのシーンを再構成する一般化可能な方法である。
我々の表現は、Voxel-basedとBird's-eye-view (BEV)の両方の表現の長所を組み合わせたものである。
論文 参考訳(メタデータ) (2023-08-24T17:59:50Z) - RenderMe-360: A Large Digital Asset Library and Benchmarks Towards
High-fidelity Head Avatars [157.82758221794452]
RenderMe-360は、頭部アバター研究の進歩を促進するための総合的な4次元人間の頭部データセットである。
そこには大量のデータ資産があり、合計で243万あまりのヘッドフレームと、500の異なるアイデンティティから8万件のビデオシーケンスがある。
データセットに基づいて、頭部アバター研究のための総合的なベンチマークを構築し、5つの主要なタスクで16の最先端の手法を実行した。
論文 参考訳(メタデータ) (2023-05-22T17:54:01Z) - NeuralLift-360: Lifting An In-the-wild 2D Photo to A 3D Object with
360{\deg} Views [77.93662205673297]
本研究では,1枚の画像を3Dオブジェクトに持ち上げるという課題について検討する。
所定の参照画像とよく一致する360度ビューを持つ可視3Dオブジェクトを生成する能力を示す。
本稿では,深度を考慮した放射率表現を用いたニューラルLift-360という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T17:59:06Z) - Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video [66.57045901742922]
360度ビデオにおけるブラインド視覚品質評価(BVQA)は,没入型マルチメディアシステムの最適化において重要な役割を担っている。
本稿では,球面映像品質に対する人間の知覚の進歩的パラダイムを考察する。
画素,フレーム,ビデオから段階的に学習することで,360度ビデオのための新しいBVQA手法(ProVQA)を提案する。
論文 参考訳(メタデータ) (2021-11-18T03:45:13Z) - SHD360: A Benchmark Dataset for Salient Human Detection in 360{\deg}
Videos [26.263614207849276]
実写シーンを収集する360度ビデオSHDデータセットSHD360を提案する。
SHD360には16,238の有能な人間の実例があり、手動で注釈付けされたピクセル単位の地上真実がある。
提案したデータセットとベンチマークは,360度パノラマデータに向けた人間中心の研究の出発点となる可能性がある。
論文 参考訳(メタデータ) (2021-05-24T23:51:29Z) - Egok360: A 360 Egocentric Kinetic Human Activity Video Dataset [10.585194284134866]
我々は新しい360度動画像データセット(EgoK360)を提案する。
EgoK360データセットには、異なるサブアクションを持つ人間のアクティビティのアノテーションが含まれている。
実験結果と2ストリームネットワークの変種を包括的に分析し,360度エゴセントリックな活動認識を実現する。
論文 参考訳(メタデータ) (2020-10-15T22:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。