論文の概要: The Need for Inherently Privacy-Preserving Vision in Trustworthy
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2303.16408v2
- Date: Wed, 10 May 2023 22:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 17:53:32.412690
- Title: The Need for Inherently Privacy-Preserving Vision in Trustworthy
Autonomous Systems
- Title(参考訳): 信頼できる自律システムにおけるプライバシ保護ビジョンの必要性
- Authors: Adam K. Taras, Niko Suenderhauf, Peter Corke and Donald G. Dansereau
- Abstract要約: 本論文は,ロボットビジョンの文脈において,プライバシを考慮すべき行動である。
本稿では,リモートアクセスが完全である場合でも,画像がキャプチャされず,あるいは攻撃者が再構築できる,特定の形態のプライバシ保護を提案する。
- 参考スコア(独自算出の注目度): 7.207027899499879
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision is a popular and effective sensor for robotics from which we can
derive rich information about the environment: the geometry and semantics of
the scene, as well as the age, gender, identity, activity and even emotional
state of humans within that scene. This raises important questions about the
reach, lifespan, and potential misuse of this information. This paper is a call
to action to consider privacy in the context of robotic vision. We propose a
specific form privacy preservation in which no images are captured or could be
reconstructed by an attacker even with full remote access. We present a set of
principles by which such systems can be designed, and through a case study in
localisation demonstrate in simulation a specific implementation that delivers
an important robotic capability in an inherently privacy-preserving manner.
This is a first step, and we hope to inspire future works that expand the range
of applications open to sighted robotic systems.
- Abstract(参考訳): 視覚はロボット工学にとって人気があり効果的なセンサーであり、そこから環境に関する豊富な情報を得ることができる:シーンの幾何学と意味論、そしてそのシーンの中の人間の年齢、性別、アイデンティティ、活動、さらには感情的な状態。
これにより、この情報のリーチ、寿命、潜在的な誤用に関する重要な疑問が提起される。
本論文は,ロボットビジョンの文脈において,プライバシを考慮すべき行動である。
本稿では,リモートアクセスが完全である場合でも,画像がキャプチャされず,あるいは攻撃者が再構築できる特定の形態のプライバシー保護を提案する。
本稿では,そのようなシステムを設計できる一連の原則を提示する。ローカライゼーションにおけるケーススタディを通じて,本質的なプライバシ保護方式で重要なロボット機能を実現するための,特定の実装をシミュレーションで実証する。
これは第一歩であり、視認されたロボットシステムに開放されるアプリケーションの範囲を広げる今後の取り組みに刺激を与えたいと思っています。
関連論文リスト
- Grounding Robot Policies with Visuomotor Language Guidance [15.774237279917594]
ロボットポリシーを現在の状況に基盤付けるためのエージェントベースのフレームワークを提案する。
提案するフレームワークは、特定の役割のために設計された会話エージェントのセットで構成されている。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Privacy-Preserving Gaze Data Streaming in Immersive Interactive Virtual Reality: Robustness and User Experience [11.130411904676095]
アイトラッキングデータが露出すれば、再識別攻撃に使用できる。
対話型VRアプリケーションのためのリアルタイムプライバシメカニズムを評価する手法を開発した。
論文 参考訳(メタデータ) (2024-02-12T14:53:12Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human
Motion Dataset for Autonomous Robots [1.7778609937758327]
ロボット自律運動(RoAM)ビデオデータセットについて紹介する。
このロボットは、ロボットのエゴビジョンから様々な人間の動きを記録する様々な屋内環境において、カスタムメイドのタートルボット3バーガーロボットで収集される。
データセットには、LiDARスキャンの同期記録や、静的で動く人間のエージェントの周りを移動する際にロボットが取るすべての制御アクションも含まれている。
論文 参考訳(メタデータ) (2023-06-28T00:58:44Z) - Eye-tracked Virtual Reality: A Comprehensive Survey on Methods and
Privacy Challenges [33.50215933003216]
この調査は、仮想現実(VR)における視線追跡と、それらの可能性のプライバシーへの影響に焦点を当てている。
われわれは2012年から2022年にかけて、視線追跡、VR、プライバシー分野における主要な研究を最初に取り上げている。
我々は、視線に基づく認証と、個人のプライバシーと視線追跡データをVRで保存するための計算方法に焦点を当てる。
論文 参考訳(メタデータ) (2023-05-23T14:02:38Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。