論文の概要: Egocentric Human Segmentation for Mixed Reality
- arxiv url: http://arxiv.org/abs/2005.12074v2
- Date: Mon, 8 Jun 2020 14:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:14:42.091201
- Title: Egocentric Human Segmentation for Mixed Reality
- Title(参考訳): Egocentric Human Segmentation for Mixed Reality (ヒューマン・セグメンテーション)
- Authors: Andrija Gajic and Ester Gonzalez-Sosa and Diego Gonzalez-Morin and
Marcos Escudero-Vi\~nolo and Alvaro Villegas
- Abstract要約: 我々は15万以上のリアルな画像からなる半合成データセットを作成する。
リアルタイムな要求を超越して実行が可能なディープラーニングセマンティックセマンティックセマンティクスアルゴリズムを実装した。
- 参考スコア(独自算出の注目度): 1.0149624140985476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The objective of this work is to segment human body parts from egocentric
video using semantic segmentation networks. Our contribution is two-fold: i) we
create a semi-synthetic dataset composed of more than 15, 000 realistic images
and associated pixel-wise labels of egocentric human body parts, such as arms
or legs including different demographic factors; ii) building upon the
ThunderNet architecture, we implement a deep learning semantic segmentation
algorithm that is able to perform beyond real-time requirements (16 ms for 720
x 720 images). It is believed that this method will enhance sense of presence
of Virtual Environments and will constitute a more realistic solution to the
standard virtual avatars.
- Abstract(参考訳): 本研究の目的は,セマンティックセグメンテーションネットワークを用いて,身体の部位を自発的映像から切り離すことである。
私たちの貢献は2つあります。
一 15万以上の写実的画像と、異なる人口要因を含む腕又は脚等の自我中心の人体部位の画素別ラベルからなる半合成データセットを作成すること。
2thundernetアーキテクチャに基づいて、リアルタイム要求(720 x 720画像に対して16ms)を超えて実行できるディープラーニングセマンティックセグメンテーションアルゴリズムを実装した。
この手法は仮想環境の存在感を高め、標準的な仮想アバターに対するより現実的なソリューションとなると信じられている。
関連論文リスト
- EgoAvatar: Egocentric View-Driven and Photorealistic Full-body Avatars [56.56236652774294]
本研究では,光合成デジタルアバターを共同でモデル化し,同時に1つの自我中心映像から駆動する人物中心型テレプレゼンス手法を提案する。
提案手法は,エゴセントリック・フォトリアル・テレプレゼンスへの明確な一歩として,ベースラインと競合する手法に優れることを示す。
論文 参考訳(メタデータ) (2024-09-22T22:50:27Z) - MARVIS: Motion & Geometry Aware Real and Virtual Image Segmentation [19.464362358936906]
実画像領域と仮想画像領域のセグメンテーションのための新しい手法を提案する。
水面の複雑さを模倣するリアルな合成画像を作成することで、我々はネットワークにきめ細かいトレーニングデータを提供する。
我々は、目に見えない実世界の領域において、最先端の仮想画像分割性能を実現する。
論文 参考訳(メタデータ) (2024-03-14T20:18:08Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Fine-Grained Egocentric Hand-Object Segmentation: Dataset, Model, and
Applications [20.571026014771828]
11,243枚のエゴセントリックな画像からなるラベル付きデータセットを,手とオブジェクトのピクセルごとのセグメンテーションラベルで提供する。
私たちのデータセットは、ハンドオブジェクトの接触境界をラベル付けした最初のものです。
我々の堅牢なハンドオブジェクトセグメンテーションモデルとデータセットは、下流の視覚アプリケーションを強化または有効化するための基本的なツールとして機能することを示します。
論文 参考訳(メタデータ) (2022-08-07T21:43:40Z) - Real Time Egocentric Segmentation for Video-self Avatar in Mixed Reality [0.946046736912201]
提案アルゴリズムは,Thundernetのアーキテクチャにインスパイアされた浅いネットワークにより,66fpsのフレームレートで640x480の入力解像度を実現している。
3つのデータセットから約10,000の画像で構成されたEgocentric Bodiesデータセットの作成プロセスについて述べる。
論文 参考訳(メタデータ) (2022-07-04T10:00:16Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - EgoRenderer: Rendering Human Avatars from Egocentric Camera Images [87.96474006263692]
EgoRendererは、ウェアラブルでエゴ中心の魚眼カメラで捉えた人の全身神経アバターをレンダリングするシステムである。
このようなエゴセントリックなイメージからフルボディのアバターをレンダリングすることは、トップダウンのビューと大きな歪みのために、ユニークな課題を生んでいる。
レンダリング処理をテクスチャ合成,ポーズ構築,ニューラルイメージ変換など,いくつかのステップに分解することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-11-24T18:33:02Z) - Real Time Egocentric Object Segmentation: THU-READ Labeling and
Benchmarking Results [0.0]
エゴセントリックセグメンテーションは、MR(Mixed Reality)アプリケーションの可能性から、コンピュータビジョンコミュニティにおいて近年関心を集めている。
RGB-D THU-READデータセットから2124個の画像のサブセットのセマンティックワイズラベリングに寄与する。
また,リアルタイムセマンティックセグメンテーションネットワークであるThundernetによるベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2021-06-09T10:10:02Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。