論文の概要: Privacy Risks of Robot Vision: A User Study on Image Modalities and Resolution
- arxiv url: http://arxiv.org/abs/2505.07766v1
- Date: Mon, 12 May 2025 17:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.506598
- Title: Privacy Risks of Robot Vision: A User Study on Image Modalities and Resolution
- Title(参考訳): ロボットビジョンのプライバシーリスク:画像のモダリティと解像度に関するユーザスタディ
- Authors: Xuying Huang, Sicong Pan, Maren Bennewitz,
- Abstract要約: 画像のモダリティと解像度の違いがユーザのプライバシの懸念にどのように影響するかを調査した。
その結果,奥行き画像はプライバシセーフと広く見なされ,セマンティックセグメンテーション画像に関しても,回答者の比率が同じであることがわかった。
- 参考スコア(独自算出の注目度): 8.715498281864212
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: User privacy is a crucial concern in robotic applications, especially when mobile service robots are deployed in personal or sensitive environments. However, many robotic downstream tasks require the use of cameras, which may raise privacy risks. To better understand user perceptions of privacy in relation to visual data, we conducted a user study investigating how different image modalities and image resolutions affect users' privacy concerns. The results show that depth images are broadly viewed as privacy-safe, and a similarly high proportion of respondents feel the same about semantic segmentation images. Additionally, the majority of participants consider 32*32 resolution RGB images to be almost sufficiently privacy-preserving, while most believe that 16*16 resolution can fully guarantee privacy protection.
- Abstract(参考訳): ユーザプライバシは、特にパーソナルあるいはセンシティブな環境でモバイルサービスロボットがデプロイされる場合、ロボットアプリケーションにおいて重要な関心事である。
しかし、多くのロボット下流タスクはカメラの使用を必要としており、プライバシー上のリスクを生じさせる可能性がある。
視覚データに対するユーザのプライバシの認識をよりよく理解するために,画像のモダリティや解像度の違いがユーザのプライバシの懸念にどのように影響するかを調査した。
以上の結果から,奥行き画像はプライバシセーフと広く見なされていること,またセマンティックセグメンテーション画像に関しても,回答者の比率が同じであることがわかった。
さらに、大多数の参加者は32*32解像度のRGB画像がほぼ十分にプライバシー保護されていると考えているが、16*16解像度はプライバシー保護を完全に保証できると考えている。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms [1.5293427903448025]
本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
論文 参考訳(メタデータ) (2023-01-12T13:40:38Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Deep Learning Approach Protecting Privacy in Camera-Based Critical
Applications [57.93313928219855]
カメラベースシステムにおけるプライバシー保護のためのディープラーニングアプローチを提案する。
我々の手法は、アプリケーションで必要とされない直感に基づいて、正当性(視覚的に顕著な)と非正則性(非正則性)を区別する。
論文 参考訳(メタデータ) (2021-10-04T19:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。