論文の概要: From Defense to Advocacy: Empowering Users to Leverage the Blind Spot of AI Inference
- arxiv url: http://arxiv.org/abs/2601.11817v1
- Date: Fri, 16 Jan 2026 22:42:27 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-01-21 12:45:26.358114
- Title: From Defense to Advocacy: Empowering Users to Leverage the Blind Spot of AI Inference
- Title(参考訳): 防衛から擁護へ:AI推論の盲点を活用
- Authors: Yumou Wei, John Carney, John Stamper, Nancy Belmont,
- Abstract要約: ほとんどのプライバシー規制は、ユーザーが自制しなければならない受動的防御シールドとして機能する。
組織がAIを使って推論するにつれ、Blind Selfの急速な拡張が重要な課題として現れている。
文脈整合性の理論に基づいて、防衛的プライバシー管理から積極的なプライバシー擁護へのパラダイムシフトを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Most privacy regulations function as a passive defensive shield that users must wield themselves. Users are incessantly asked to "opt-in" or "opt-out" of data collection, forced to make defensive decisions whose consequences are increasingly difficult to predict. Viewed through the Johari Window, a psychological framework of self-awareness based on what is known and unknown to self and others, current policies require users to manage the Open Self and shield the Hidden Self through notice and consent. However, as organizations increasingly use AI to make inferences, the rapid expansion of Blind Self, attributes known to algorithms but unknown to the user, emerges as a critical challenge. We illustrate how current regulations fall short because they focus on data collection rather than inference and leave this blind spot unguarded. Building on the theory of Contextual Integrity, we propose a paradigm shift from defensive privacy management to proactive privacy advocacy. We argue for the necessity of personal advocacy agents capable of operationalizing social norms to harness the power of AI inference. By illuminating the hidden inferences that users can strategically leverage or suppress, these agents not only restrain the growth of Blind Self but also mine it for value. By transforming the Unknown Self into a personal asset for users, we can foster a flow of personal information that is equitable, transparent, and individually beneficial in the age of AI.
- Abstract(参考訳): ほとんどのプライバシー規制は、ユーザーが自制しなければならない受動的防御シールドとして機能する。
ユーザは、データ収集の"オプトイン"や"オプトアウト"を迫られ、結果の予測がますます困難になっている防御的な決定を強制される。
現在の方針では、ユーザーがオープンセルフを管理し、通知と同意を通じて隠れた自己を守らなければならない。
しかし、AIを使って推論する組織が増えていくにつれて、アルゴリズムには知られてはいるがユーザには知られていないBlind Selfの急速な拡張が、重要な課題として現れている。
現在の規制は、推測よりもデータ収集に重点を置いており、この盲点を無防備にしておくため、どのようにして不足しているかを説明している。
文脈整合性の理論に基づいて、防衛的プライバシー管理から積極的なプライバシー擁護へのパラダイムシフトを提案する。
我々は、AI推論の力を利用するために社会的規範を運用できる個人アドボケーションエージェントの必要性を論じる。
ユーザが戦略的に活用したり抑制したりできる隠れた推論を照らすことで、これらのエージェントはブラインドセルフの成長を抑えるだけでなく、価値のためにそれをマイニングする。
Unknown Selfをユーザのためのパーソナルアセットにすることで、AIの時代において公平で透明性があり、個人的に有益な個人情報の流れを育むことができます。
関連論文リスト
- VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Guarding Your Conversations: Privacy Gatekeepers for Secure Interactions with Cloud-Based AI Models [0.34998703934432673]
ユーザクエリから機密情報をフィルタリングする,軽量でローカルな実行モデルであるLLMゲートキーパのコンセプトを提案する。
人間の被験者による実験を通して、この二重モデルアプローチは、LLM応答の品質を損なうことなく、ユーザのプライバシーを大幅に向上させながら、最小限のオーバーヘッドをもたらすことを示した。
論文 参考訳(メタデータ) (2025-08-22T19:49:03Z) - Countering Privacy Nihilism [2.6212127510234797]
AIは「あらゆるものから」を推測できると推測されるかもしれない
データカテゴリをプライバシとデータ保護の規範的アンカーとして認識することは、プライバシ・ニヒリズムと呼ばれるものです。
我々は、データ型にのみフォーカスするプライバシーフレームワークから離れ、他のすべての要素を無視することを提案します。
論文 参考訳(メタデータ) (2025-07-24T09:52:18Z) - Protecting Users From Themselves: Safeguarding Contextual Privacy in Interactions with Conversational Agents [33.26308626066122]
会話エージェント(LCA)とのユーザインタラクションにおけるコンテキストプライバシの概念を特徴付ける。
これは、ユーザーが意図した目標を達成するのに必要な情報のみを(ベンダー)が開示することを保証することで、プライバシー上のリスクを最小限にすることを目的としている。
本稿では,ユーザとLCA間のローカルデプロイ可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T09:05:39Z) - Rescriber: Smaller-LLM-Powered User-Led Data Minimization for LLM-Based Chatbots [2.2447085410328103]
Rescriberは、LLMベースの会話エージェントでユーザ主導のデータ最小化をサポートするブラウザエクステンションである。
我々の研究によると、Rescriberはユーザーが不必要な開示を減らし、プライバシー上の懸念に対処するのに役立ちました。
以上の結果から,LLMによる小型ユーザ向けオンデバイスプライバシコントロールの実現可能性が確認された。
論文 参考訳(メタデータ) (2024-10-10T01:23:16Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Human intuition as a defense against attribute inference [4.916067949075847]
属性推論は、プライバシーに対する大きな脅威となっている。
この脅威に対処する1つの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することである。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-04-24T06:54:17Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。