論文の概要: Stereoscopic Depth Perception Through Foliage
- arxiv url: http://arxiv.org/abs/2310.16120v1
- Date: Tue, 24 Oct 2023 18:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 18:41:08.856253
- Title: Stereoscopic Depth Perception Through Foliage
- Title(参考訳): 葉を通しての立体視深度知覚
- Authors: Robert Kerschner, Rakesh John Amala Arokia Nathan, Rafal Mantiuk,
Oliver Bimber
- Abstract要約: 計算光学合成開口センシングと人間の立体画像の融合能力を組み合わせた。
捜索・救助、野生生物の観察、監視、早期の山火事の検出に必要な物体識別タスクでは、深度は偽の発見と真を区別する。
これは、計算手法と人間のビジョンの相乗効果を利用して、どちらも単独で実行できないタスクを実行するシステムの可能性を示している。
- 参考スコア(独自算出の注目度): 1.7614751781649955
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Both humans and computational methods struggle to discriminate the depths of
objects hidden beneath foliage. However, such discrimination becomes feasible
when we combine computational optical synthetic aperture sensing with the human
ability to fuse stereoscopic images. For object identification tasks, as
required in search and rescue, wildlife observation, surveillance, and early
wildfire detection, depth assists in differentiating true from false findings,
such as people, animals, or vehicles vs. sun-heated patches at the ground level
or in the tree crowns, or ground fires vs. tree trunks. We used video captured
by a drone above dense woodland to test users' ability to discriminate depth.
We found that this is impossible when viewing monoscopic video and relying on
motion parallax. The same was true with stereoscopic video because of the
occlusions caused by foliage. However, when synthetic aperture sensing was used
to reduce occlusions and disparity-scaled stereoscopic video was presented,
whereas computational (stereoscopic matching) methods were unsuccessful, human
observers successfully discriminated depth. This shows the potential of systems
which exploit the synergy between computational methods and human vision to
perform tasks that neither can perform alone.
- Abstract(参考訳): 人間も計算手法も葉の下に隠された物体の深さを識別するのに苦労している。
しかし,計算合成開口センシングと立体画像を融合する人間の能力を組み合わせた場合,このような識別が実現可能となる。
捜索・救助、野生生物の観察、監視、早期の山火事検出に必要な物体識別タスクでは、人、動物、車両などの誤った発見と地上や樹冠の日光を浴びたパッチ、あるいは地上の火災と樹木のトランクとの区別を深度支援する。
我々は、密集した森の上空でドローンが撮影したビデオを使って、ユーザーの奥行きを識別する能力をテストした。
単視ビデオを見たり,運動視差に頼ると,これは不可能であることがわかった。
葉の閉塞が原因で立体映像でも同様であった。
しかし,オクルージョンを減少させるために合成開口センシングが用いられ,立体視ビデオに差が生じたが,計算(立体視マッチング)手法は失敗し,人間の観察者は深度を識別することに成功した。
これは、計算方法と人間の視覚の相乗効果を利用して、単独では実行できないタスクを実行するシステムの可能性を示している。
関連論文リスト
- Wild2Avatar: Rendering Humans Behind Occlusions [18.869570134874365]
私たちはWild2Avatarを紹介します。
この研究で、我々はWild2Avatarを紹介します。
論文 参考訳(メタデータ) (2023-12-31T09:01:34Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Relightable and Animatable Neural Avatar from Sparse-View Video [66.77811288144156]
本稿では、未知の照明下でのダイナミックな人間のスパースビュー(あるいはモノクラーク)ビデオから、リライザブルでアニマタブルなニューラルアバターを作成するという課題に取り組む。
論文 参考訳(メタデータ) (2023-08-15T17:42:39Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - On the Sins of Image Synthesis Loss for Self-supervised Depth Estimation [60.780823530087446]
画像合成の改善は深度推定の改善を必要としないことを示す。
この発散現象は、データから生じるアレラトリックな不確実性に起因している。
この観察された発散は、以前に報告されたり、深く研究されたりしていない。
論文 参考訳(メタデータ) (2021-09-13T17:57:24Z) - Unsupervised Monocular Depth Perception: Focusing on Moving Objects [5.489557739480878]
本稿では,光度誤差を意図的に操作することで,効率よく困難に対処できることを示す。
まず、光学誤差マップにおいて、隠蔽または動的画素を統計的外れ値として考慮した外れ値マスキング手法を提案する。
外部マスキングにより、ネットワークはカメラと反対方向に移動する物体の深さをより正確に学習する。
論文 参考訳(メタデータ) (2021-08-30T08:45:02Z) - Unsupervised Depth and Ego-motion Estimation for Monocular Thermal Video
using Multi-spectral Consistency Loss [76.77673212431152]
本研究では,全日深度とエゴモーション推定のための教師なし学習手法を提案する。
提案手法はマルチスペクトル整合性損失を利用してネットワークを補完的に監視する。
提案手法で訓練されたネットワークは、低照度およびゼロ照度条件下での単眼熱ビデオの深度とポーズを堅牢に推定する。
論文 参考訳(メタデータ) (2021-03-01T05:29:04Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Search and Rescue with Airborne Optical Sectioning [7.133136338850781]
分類の前に多視点画像を組み合わせることで、自動人物検出を著しく改善できることを示す。
発見は、自律航空機や有人航空機と組み合わせて適用できる効果的な将来の捜索救助技術の基礎を築いた。
論文 参考訳(メタデータ) (2020-09-18T13:40:19Z) - People as Scene Probes [9.393640749709999]
我々は、高度な自動化とリアリズムで、新しいオブジェクトを同じシーンに合成する方法を示す。
特に、ユーザが画像に新しい物体(2Dカットアウト)を配置すると、自動的に再スケールされ、信頼され、隠蔽され、太陽に対して正しい方向に現実的な影を放つ。
論文 参考訳(メタデータ) (2020-07-17T19:50:42Z) - DiPE: Deeper into Photometric Errors for Unsupervised Learning of Depth
and Ego-motion from Monocular Videos [9.255509741319583]
本稿では,光度誤差を慎重に操作することで,これらの問題に対処できることを示す。
主な改善は、測光誤差マップ内の見えないまたは静止しないピクセルを隠蔽する統計技術によって達成される。
また,予測深度マップのアーティファクトを削減するために,効率的な重み付きマルチスケールスキームを提案する。
論文 参考訳(メタデータ) (2020-03-03T07:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。