論文の概要: Single-Pixel Vision-Language Model for Intrinsic Privacy-Preserving Behavioral Intelligence
- arxiv url: http://arxiv.org/abs/2601.17050v1
- Date: Wed, 21 Jan 2026 09:11:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.097825
- Title: Single-Pixel Vision-Language Model for Intrinsic Privacy-Preserving Behavioral Intelligence
- Title(参考訳): 固有のプライバシー保護行動インテリジェンスのためのシングルピクセルビジョンランゲージモデル
- Authors: Hongjun An, Yiliang Song, Jiawei Shao, Zhe Sun, Xuelong Li,
- Abstract要約: 安全な環境モニタリングを再現する新しいフレームワークSP-VLM(Single-Pixel Vision-Language Model)を提案する。
それは本質的に低次元の1ピクセルのモダリティを通して人間のダイナミクスを捉えることによって、固有のプライバシ・バイ・デザインを実現する。
いずれにせよ,SP-VLMは意味ある行動意味を抽出し,ロバストな異常検出,数え方,行動理解を可能にしている。
- 参考スコア(独自算出の注目度): 55.512671026669516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adverse social interactions, such as bullying, harassment, and other illicit activities, pose significant threats to individual well-being and public safety, leaving profound impacts on physical and mental health. However, these critical events frequently occur in privacy-sensitive environments like restrooms, and changing rooms, where conventional surveillance is prohibited or severely restricted by stringent privacy regulations and ethical concerns. Here, we propose the Single-Pixel Vision-Language Model (SP-VLM), a novel framework that reimagines secure environmental monitoring. It achieves intrinsic privacy-by-design by capturing human dynamics through inherently low-dimensional single-pixel modalities and inferring complex behavioral patterns via seamless vision-language integration. Building on this framework, we demonstrate that single-pixel sensing intrinsically suppresses identity recoverability, rendering state-of-the-art face recognition systems ineffective below a critical sampling rate. We further show that SP-VLM can nonetheless extract meaningful behavioral semantics, enabling robust anomaly detection, people counting, and activity understanding from severely degraded single-pixel observations. Combining these findings, we identify a practical sampling-rate regime in which behavioral intelligence emerges while personal identity remains strongly protected. Together, these results point to a human-rights-aligned pathway for safety monitoring that can support timely intervention without normalizing intrusive surveillance in privacy-sensitive spaces.
- Abstract(参考訳): いじめ、ハラスメント、その他の違法行為などの社会的相互作用は、個人の健康と公衆の安全に重大な脅威をもたらし、身体的および精神的な健康に大きな影響を及ぼす。
しかし、これらの重要な出来事は、浴室のようなプライバシーに敏感な環境や、従来の監視が厳格なプライバシー規制や倫理的懸念によって厳しく制限されている部屋の変更など、しばしば起こる。
本稿では,セキュアな環境モニタリングを再現する新しいフレームワークであるSingle-Pixel Vision-Language Model (SP-VLM)を提案する。
それは、本質的に低次元の1ピクセルのモダリティを通して人間のダイナミクスを捉え、シームレスな視覚言語統合を通じて複雑な行動パターンを推論することで、固有のプライバシ・バイ・デザインを実現する。
この枠組みに基づいて、単画素センシングは本質的にアイデンティティの回復性を抑え、最先端の顔認識システムは臨界サンプリングレート以下では効果がないことを示した。
さらに,SP-VLMは意味のある行動意味を抽出し,頑健な異常検出,人物の数え方,高度に劣化した単画素観察からの行動理解を可能にした。
これらの知見を組み合わせることで、個人的アイデンティティが強く保護されている間、行動知能が出現する実践的なサンプリングレート体制を同定する。
これらの結果は、プライバシーに敏感な空間における侵入的な監視を正常化することなく、タイムリーな介入を支援する、安全監視のための人道的な経路を示している。
関連論文リスト
- When Personalization Legitimizes Risks: Uncovering Safety Vulnerabilities in Personalized Dialogue Agents [49.341830745910194]
本稿では,パーソナライズされたエージェントの安全性障害である意図的正当性を明らかにする。
我々の研究は、安全障害モードとしての意図的正当性の最初の体系的な調査と評価を提供する。
論文 参考訳(メタデータ) (2026-01-25T15:42:01Z) - Differentially Private Feature Release for Wireless Sensing: Adaptive Privacy Budget Allocation on CSI Spectrograms [0.0]
無線センシングのための差分プライベート(DP)機能リリースについて検討した。
本稿では,CSIの時間周波数表現の非一様構造に合わせた適応型プライバシ予算配分機構を提案する。
本手法は,アイデンティティやメンバシップ推論攻撃における経験的リークを著しく低減しつつ,精度の向上と誤りの低減を実現している。
論文 参考訳(メタデータ) (2025-12-23T12:45:49Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Balancing Privacy and Action Performance: A Penalty-Driven Approach to Image Anonymization [8.874765152344468]
ユーティリティブランチからの罰則を用いて匿名化を最適化するプライバシー保護画像匿名化手法を提案する。
我々は、機能ベースのペナルティスキームを初めて導入し、アクション機能のみをコントロールし、プライベート属性の匿名化を自由にします。
論文 参考訳(メタデータ) (2025-04-19T13:52:33Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Fed-Safe: Securing Federated Learning in Healthcare Against Adversarial
Attacks [1.2277343096128712]
本稿では,医用画像解析におけるフェデレーション学習アプリケーションのセキュリティ面について検討する。
フェデレートされた設定におけるプライバシー保証を基礎として分散ノイズを組み込むことにより、逆向きに堅牢なモデルの開発が可能となることを示す。
論文 参考訳(メタデータ) (2023-10-12T19:33:53Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。