論文の概要: VisGuardian: A Lightweight Group-based Privacy Control Technique For Front Camera Data From AR Glasses in Home Environments
- arxiv url: http://arxiv.org/abs/2601.19502v1
- Date: Tue, 27 Jan 2026 11:41:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:41:09.261415
- Title: VisGuardian: A Lightweight Group-based Privacy Control Technique For Front Camera Data From AR Glasses in Home Environments
- Title(参考訳): VisGuardian: ホーム環境におけるARグラスのフロントカメラデータのための軽量グループベースのプライバシコントロール技術
- Authors: Shuning Zhang, Qucheng Zang, Yongquan `Owen' Hu, Jiachen Du, Xueyang Wang, Yan Kong, Xinyi Fu, Suranga Nanayakkara, Xin Yi, Hewu Li,
- Abstract要約: ARメガネによるAIアプリケーションの常時検出は、コンテキスト依存の視覚データに不適な従来のパーミッション技術を実現する。
本稿では,ARメガネのための細粒度コンテンツに基づく視覚的パーミッション技術であるVisGuardianを提案する。
- 参考スコア(独自算出の注目度): 28.47147764247835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Always-on sensing of AI applications on AR glasses makes traditional permission techniques ill-suited for context-dependent visual data, especially within home environments. The home presents a highly challenging privacy context due to the high density of sensitive objects, and the frequent presence of non-consenting family members, and the intimate nature of daily routines, making it a critical focus area for scalable privacy control mechanisms. Existing fine-grained controls, while offering nuanced choices, are inefficient for managing multiple private objects. We propose VisGuardian, a fine-grained content-based visual permission technique for AR glasses. VisGuardian features a group-based control mechanism that enables users to efficiently manage permissions for multiple private objects. VisGuardian detects objects using YOLO and adopts a pre-classified schema to group them. By selecting a single object, users can efficiently obscure groups of related objects based on criteria including privacy sensitivity, object category, or spatial proximity. A technical evaluation shows VisGuardian achieves mAP50 of 0.6704 with only 14.0 ms latency and a 1.7% increase in battery consumption per hour. Furthermore, a user study (N=24) comparing VisGuardian to slider-based and object-based baselines found it to be significantly faster for setting permissions and was preferred by users for its efficiency, effectiveness, and ease of use.
- Abstract(参考訳): ARメガネによるAIアプリケーションの常時検出は、特に家庭環境において、コンテキスト依存の視覚データに不適な従来のパーミッション技術を実現する。
家庭は、高感度オブジェクトの密度、非接触家族の頻繁な存在、日々の日常の親密な性質など、非常に困難なプライバシー状況を示しており、スケーラブルなプライバシー制御機構にとって重要な分野となっている。
既存のきめ細かいコントロールは、微妙な選択を提供する一方で、複数のプライベートオブジェクトを管理するのに非効率である。
本稿では,ARメガネのための細粒度コンテンツに基づく視覚的パーミッション技術であるVisGuardianを提案する。
VisGuardianにはグループベースのコントロール機構があり、複数のプライベートオブジェクトのパーミッションを効率的に管理できる。
VisGuardianは、YOLOを使用してオブジェクトを検出し、それらをグループ化するために、事前に分類されたスキーマを採用する。
単一のオブジェクトを選択することで、プライバシ感度、オブジェクトカテゴリ、空間的近接といった基準に基づいて、関連オブジェクトのグループを効率よく曖昧にすることができる。
技術的評価によると、VisGuardianは1時間あたり1.7%のバッテリー消費と14.0ミリ秒のレイテンシで0.6704のmAP50を達成した。
さらに、VisGuardianとスライダベースとオブジェクトベースベースラインを比較したユーザスタディ(N=24)では、パーミッションの設定が大幅に速くなり、その効率性、有効性、使いやすさがユーザから好まれた。
関連論文リスト
- NeuroFilter: Privacy Guardrails for Conversational LLM Agents [50.75206727081996]
本研究は,エージェント型大規模言語モデル(LLM)のプライバシを強制する際の計算上の課題に対処する。
NeuroFilterは、標準違反をモデルのアクティベーション空間における単純な方向にマッピングすることで、コンテキスト整合性を運用するガードレールフレームワークである。
7Bから70Bパラメータのモデルをカバーする15万以上のインタラクションに対する包括的な評価は、NeuroFilterの強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2026-01-21T05:16:50Z) - Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks [13.326888254423901]
VLMベースの属性推論攻撃は、ソーシャルメディア上で共有された画像から、敵対者が個人属性を推測できるようにする、深刻なプライバシー上の懸念として浮上している。
本稿では,視覚的制約下でのプライバシー抑制とユーティリティ保護を協調的に最適化する新しい保護手法を提案する。
提案手法は, PARを25%以下に効果的に削減し, NPARを88%以上に抑えるとともに, 未確認・言い換えのプライバシー問題に対してよく一般化する。
論文 参考訳(メタデータ) (2025-12-20T08:08:50Z) - Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - Dynamic User-controllable Privacy-preserving Few-shot Sensing Framework [0.589889361990138]
PrivCLIPは、ユーザコントロール可能な、数ショットのプライバシ保護センシングフレームワークである。
PrivCLIPを使えば、ユーザーはアクティビティを機密性(ブラックリスト)、非機密性(ホワイトリスト)、中立性(グレイリスト)と分類することで、プライバシの好みを指定および変更することができる。
論文 参考訳(メタデータ) (2025-08-06T00:44:11Z) - Privacy-Preserving in Connected and Autonomous Vehicles Through Vision to Text Transformation [0.9831489366502302]
本稿では,フィードバックベース強化学習(RL)と視覚言語モデル(VLM)を活用した,新たなプライバシ保護フレームワークを提案する。
イメージを意味論的に等価なテキスト記述に変換し、視覚的プライバシが保持されている間にシーン関連情報が保持されることを保証する。
評価結果は,プライバシ保護とテキスト品質の両方において,大幅な改善が見られた。
論文 参考訳(メタデータ) (2025-06-18T20:02:24Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - GaitGuard: Towards Private Gait in Mixed Reality [1.7277693508964933]
GaitGuardは、ビデオベースの歩行プロファイリングの脅威に対して、歩行プライバシーを保護するために設計された、新しいリアルタイムシステムである。
GitGuardはマルチスレッドフレームワークで動作し、効率的なストリームキャプチャ、ボディ検出、トラッキングのための専用のモジュールを組み込んでいる。
論文 参考訳(メタデータ) (2023-12-07T17:42:04Z) - Privacy-preserving Object Detection [52.77024349608834]
我々は,COCOにおけるオブジェクト検出において,顔のぼやけによるデータセットの匿名化と,性別や肌のトーン次元に沿ったバランスの取れた顔の交換は,プライバシを保ち,偏りを部分的に保ちながらオブジェクト検出性能を維持することができることを示した。
論文 参考訳(メタデータ) (2021-03-11T10:34:54Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。