論文の概要: Private Multiparty Perception for Navigation
- arxiv url: http://arxiv.org/abs/2212.00912v1
- Date: Fri, 2 Dec 2022 00:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:33:04.377285
- Title: Private Multiparty Perception for Navigation
- Title(参考訳): ナビゲーションのためのプライベートマルチパーティパーセプション
- Authors: Hui Lu, Mia Chiquier, Carl Vondrick
- Abstract要約: 本稿では,複数のカメラを接続することで,乱雑な環境をナビゲートするフレームワークを提案する。
環境の複数のカメラビューを考慮し,ナビゲーションにのみ使用可能なマルチビューシーン表現を学習する。
- 参考スコア(独自算出の注目度): 21.855887453612574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a framework for navigating through cluttered environments by
connecting multiple cameras together while simultaneously preserving privacy.
Occlusions and obstacles in large environments are often challenging situations
for navigation agents because the environment is not fully observable from a
single camera view. Given multiple camera views of an environment, our approach
learns to produce a multiview scene representation that can only be used for
navigation, provably preventing one party from inferring anything beyond the
output task. On a new navigation dataset that we will publicly release,
experiments show that private multiparty representations allow navigation
through complex scenes and around obstacles while jointly preserving privacy.
Our approach scales to an arbitrary number of camera viewpoints. We believe
developing visual representations that preserve privacy is increasingly
important for many applications such as navigation.
- Abstract(参考訳): 本稿では,複数のカメラを接続し,同時にプライバシーを保ちながら,散らかった環境をナビゲートする枠組みを提案する。
大きな環境での閉塞や障害物は、単一のカメラビューから完全に観測できないため、ナビゲーションエージェントにとって困難な状況であることが多い。
環境の複数のカメラビューを考慮し,ナビゲーションにのみ使用可能なマルチビューシーン表現を学習し,一方が出力タスクを超えるものを推論することを確実に防止する。
公開する新しいナビゲーションデータセットでは、プライベートなマルチパーティ表現が複雑なシーンや障害物をナビゲートし、プライバシを共同保存することを可能にする。
我々のアプローチは、任意の数のカメラ視点にスケールする。
ナビゲーションなど多くのアプリケーションにとって,プライバシを保護するビジュアル表現の開発がますます重要になっている,と私たちは信じています。
関連論文リスト
- Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Applications of Deep Learning for Top-View Omnidirectional Imaging: A
Survey [2.1485350418225244]
大きな視野の魚眼カメラは、下向きの高位置に設置されている場合、最小限のカメラで大きな領域を撮影することができる。
このトップビュー全方位設定は、従来の複数の視点カメラによるソリューションと比較して、デプロイメントの作業とコストを大幅に削減します。
深層学習は、全方位設定を含む視覚関連タスクに広く利用されている。
論文 参考訳(メタデータ) (2023-04-17T12:06:41Z) - Learning to Select Camera Views: Efficient Multiview Understanding at
Few Glances [59.34619548026885]
本稿では,対象物やシナリオを所定のビューから分析し,処理に最適なビューを選択するビュー選択手法を提案する。
提案手法は,MVSelectという強化学習に基づくカメラ選択モジュールを備えており,ビューの選択だけでなく,タスクネットワークとの協調トレーニングも容易である。
論文 参考訳(メタデータ) (2023-03-10T18:59:10Z) - Privacy-Preserving Visual Localization with Event Cameras [13.21898697942957]
イベントカメラは、高いダイナミックレンジと小さな動きのぼかしのために、ロバストなローカライゼーションを実現する可能性がある。
本稿では、局所化に先立ってイベント・ツー・イメージ変換を適用し、安定した局所化を実現することを提案する。
プライバシの観点からは、イベントカメラは通常のカメラと比べてわずかに視覚情報をキャプチャする。
論文 参考訳(メタデータ) (2022-12-04T07:22:17Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - 4D Visualization of Dynamic Events from Unconstrained Multi-View Videos [77.48430951972928]
ハンドヘルド複数カメラで撮影したビデオから4次元の時空間で動的事象を可視化するためのデータ駆動型アプローチを提案する。
このアプローチの鍵となるのは、イベントの静的および動的側面を構成するために、シーン固有の自己教師型ニューラルネットワークを使用することです。
このモデルでは,(1)時刻の凍結と視界探索,(2)視点の凍結と時間移動,(3)時間と視界の同時変更を行う仮想カメラを作成することができる。
論文 参考訳(メタデータ) (2020-05-27T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。