論文の概要: Contact Area Detector using Cross View Projection Consistency for
COVID-19 Projects
- arxiv url: http://arxiv.org/abs/2008.07712v1
- Date: Tue, 18 Aug 2020 02:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 22:08:36.943206
- Title: Contact Area Detector using Cross View Projection Consistency for
COVID-19 Projects
- Title(参考訳): クロスビュー・プロジェクション・コンシステンシーを用いたCOVID-19プロジェクト用コンタクトエリア検出器
- Authors: Pan Zhang, Wilfredo Torres Calderon, Bokyung Lee, Alex Tessier, Jacky
Bibliowicz, Liviu Calin, Michael Lee
- Abstract要約: 物体と静的表面との接触は、2つの異なる視点から物体を静的表面へ投影することで識別可能であることを示す。
この単純な方法は現実の応用に容易に適応できる。
- 参考スコア(独自算出の注目度): 7.539495357219132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to determine what parts of objects and surfaces people touch as
they go about their daily lives would be useful in understanding how the
COVID-19 virus spreads. To determine whether a person has touched an object or
surface using visual data, images, or videos, is a hard problem. Computer
vision 3D reconstruction approaches project objects and the human body from the
2D image domain to 3D and perform 3D space intersection directly. However, this
solution would not meet the accuracy requirement in applications due to
projection error. Another standard approach is to train a neural network to
infer touch actions from the collected visual data. This strategy would require
significant amounts of training data to generalize over scale and viewpoint
variations. A different approach to this problem is to identify whether a
person has touched a defined object. In this work, we show that the solution to
this problem can be straightforward. Specifically, we show that the contact
between an object and a static surface can be identified by projecting the
object onto the static surface through two different viewpoints and analyzing
their 2D intersection. The object contacts the surface when the projected
points are close to each other; we call this cross view projection consistency.
Instead of doing 3D scene reconstruction or transfer learning from deep
networks, a mapping from the surface in the two camera views to the surface
space is the only requirement. For planar space, this mapping is the Homography
transformation. This simple method can be easily adapted to real-life
applications. In this paper, we apply our method to do office occupancy
detection for studying the COVID-19 transmission pattern from an office desk in
a meeting room using the contact information.
- Abstract(参考訳): 新型コロナウイルス(covid-19)の感染状況を理解する上で、人々が日常生活で触れる物体や表面のどの部分がどう見えるかを判断する能力は有用だ。
視覚データ、画像、ビデオを用いて被写体や表面に触れたかどうかを判断することが難しい。
コンピュータビジョン3D再構成は、プロジェクトオブジェクトと人体を2D画像領域から3Dにアプローチし、直接3D空間交叉を行う。
しかし、このソリューションはプロジェクションエラーのため、アプリケーションの精度要件を満たさない。
もうひとつの標準的なアプローチは、収集された視覚データからタッチアクションを推論するニューラルネットワークのトレーニングだ。
この戦略では、スケールや視点の変化を一般化するために、大量のトレーニングデータが必要である。
この問題に対する別のアプローチは、人が定義されたオブジェクトに触れたかどうかを特定することである。
本研究では,この問題に対する解決策が単純であることを示す。
具体的には,物体と静的表面との接触は,物体を2つの異なる視点で静的表面に投影し,それらの2次元交叉を解析することによって識別可能であることを示す。
オブジェクトは、投影された点が互いに近接しているときに表面と接触する。
深層ネットワークからの3Dシーンの再構築や移動学習を行う代わりに、2つのカメラビューの表面から表面空間へのマッピングが唯一の要件である。
平面空間に対して、この写像はホモグラフィ変換である。
この単純な方法は現実の応用に容易に適応できる。
本稿では,会議室のオフィスデスクからの新型コロナウイルス感染パターンを接触情報を用いて調査するため,オフィス利用者検出に本手法を適用した。
関連論文リスト
- Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - NeurOCS: Neural NOCS Supervision for Monocular 3D Object Localization [80.3424839706698]
入力として3Dボックスをインスタンスマスクとして使用するNeurOCSを提案する。
われわれのアプローチは、実際の運転シーンから直接カテゴリレベルの形状を学習する際の洞察に依存している。
我々は、オブジェクト中心の視点からオブジェクト座標をより効果的に学習するための重要な設計選択を行う。
論文 参考訳(メタデータ) (2023-05-28T16:18:41Z) - Grounding 3D Object Affordance from 2D Interactions in Images [128.6316708679246]
接地した3Dオブジェクトは、3D空間内のオブジェクトの'アクション可能性'領域を見つけようとする。
人間は、実演画像やビデオを通じて、物理的世界の物体の余裕を知覚する能力を持っている。
我々は、異なるソースからのオブジェクトの領域的特徴を整合させる、インタラクション駆動の3D Affordance Grounding Network (IAG) を考案する。
論文 参考訳(メタデータ) (2023-03-18T15:37:35Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Tac2Pose: Tactile Object Pose Estimation from the First Touch [6.321662423735226]
触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
論文 参考訳(メタデータ) (2022-04-25T14:43:48Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - 3D Object Detection and Pose Estimation of Unseen Objects in Color
Images with Local Surface Embeddings [35.769234123059086]
本研究では, 画像中のオブジェクトの3次元ポーズを, テクスチャのないCADモデルでのみ検出し, 推定する手法を提案する。
我々のアプローチはディープラーニングと3D幾何を組み合わせており、CADモデルと入力画像とを一致させるために、局所的な3D幾何の埋め込みに依存している。
我々は,Mask-RCNNをクラスに依存しない方法で,再学習せずに新しい物体を検出できることを示す。
論文 参考訳(メタデータ) (2020-10-08T15:57:06Z) - HOPE-Net: A Graph-based Model for Hand-Object Pose Estimation [7.559220068352681]
本稿では,2次元と3次元で手とオブジェクトのポーズをリアルタイムに推定するHOPE-Netという軽量モデルを提案する。
我々のネットワークは2つの適応グラフ畳み込みニューラルネットワークのカスケードを用いており、1つは手関節と物体角の2D座標を推定し、もう1つは2D座標を3Dに変換する。
論文 参考訳(メタデータ) (2020-03-31T19:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。