論文の概要: Not My Agent, Not My Boundary? Elicitation of Personal Privacy Boundaries in AI-Delegated Information Sharing
- arxiv url: http://arxiv.org/abs/2509.21712v1
- Date: Fri, 26 Sep 2025 00:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.086555
- Title: Not My Agent, Not My Boundary? Elicitation of Personal Privacy Boundaries in AI-Delegated Information Sharing
- Title(参考訳): 私のエージェントではなく、私の境界ではない?AIによる情報共有における個人のプライバシー境界の排除
- Authors: Bingcan Guo, Eryue Xu, Zhiping Zhang, Tianshi Li,
- Abstract要約: 差別的タスクを通じて個人のプライバシー境界を調査する,AIによるエレケーションアプローチを提案する。
本研究は,実世界のデータフローにおいて,プライバシ・プライバシ・プライバシ・プライオリティ・エコリケーション(プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・エカシエーション)を満足させることの重要性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 4.689683234869851
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Aligning AI systems with human privacy preferences requires understanding individuals' nuanced disclosure behaviors beyond general norms. Yet eliciting such boundaries remains challenging due to the context-dependent nature of privacy decisions and the complex trade-offs involved. We present an AI-powered elicitation approach that probes individuals' privacy boundaries through a discriminative task. We conducted a between-subjects study that systematically varied communication roles and delegation conditions, resulting in 1,681 boundary specifications from 169 participants for 61 scenarios. We examined how these contextual factors and individual differences influence the boundary specification. Quantitative results show that communication roles influence individuals' acceptance of detailed and identifiable disclosure, AI delegation and individuals' need for privacy heighten sensitivity to disclosed identifiers, and AI delegation results in less consensus across individuals. Our findings highlight the importance of situating privacy preference elicitation within real-world data flows. We advocate using nuanced privacy boundaries as an alignment goal for future AI systems.
- Abstract(参考訳): 人間のプライバシーを優先したAIシステムを調整するには、一般的な規範を超えた個人のニュアンスな開示行動を理解する必要がある。
しかし、プライバシー決定の文脈に依存した性質と関連する複雑なトレードオフのため、そのような境界線を引き出すことは依然として困難である。
差別的タスクを通じて個人のプライバシー境界を調査する,AIによるエレケーションアプローチを提案する。
その結果,61件のシナリオにおいて,169件の参加者から1,681件の境界仕様が得られた。
これらの要因と個人差が境界仕様にどのように影響するかを検討した。
定量的な結果は、コミュニケーションの役割が、個人が詳細かつ識別可能な開示を受け入れることに影響を及ぼし、AIデリゲートと個人のプライバシー要求が、開示された識別子に対する感受性を高め、AIデリゲートが個人間でのコンセンサスを低下させることを示している。
本研究は,実世界のデータフローにおいて,プライバシ・プライバシ・プライバシ・プライオリティ・エコリケーション(プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・エカシエーション)を満足させることの重要性を浮き彫りにした。
我々は、将来のAIシステムのアライメント目標として、ニュアンスドプライバシ境界の使用を提唱する。
関連論文リスト
- Countering Privacy Nihilism [2.6212127510234797]
AIは「あらゆるものから」を推測できると推測されるかもしれない
データカテゴリをプライバシとデータ保護の規範的アンカーとして認識することは、プライバシ・ニヒリズムと呼ばれるものです。
我々は、データ型にのみフォーカスするプライバシーフレームワークから離れ、他のすべての要素を無視することを提案します。
論文 参考訳(メタデータ) (2025-07-24T09:52:18Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [40.47039082007319]
大規模言語モデル(LLM)ベースのAIデリゲートは、ユーザに代わって機能するためにますます利用されています。
プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。