論文の概要: Preference-Based Privacy Trading
- arxiv url: http://arxiv.org/abs/2012.05484v1
- Date: Thu, 10 Dec 2020 07:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 06:04:21.859050
- Title: Preference-Based Privacy Trading
- Title(参考訳): 嗜好に基づくプライバシ取引
- Authors: Ranjan Pal, Yixuan Wang, Swades De, Bodhibrata Nag, Pan Hui
- Abstract要約: 本稿では, 単純化された売り手ブローカー市場における新たな選好関数入札手法を用いて, オリゴポリーデータ取引市場に対する規制付き効率的・非効率な経済メカニズムの設計を提案する。
我々の手法は、ある妥協レベルまで(グループ化された消費者、すなわちアプリ、レベルにおいて)不均一なプライバシ保護の制約を保ち、同時に機関の情報要求(ブローカーを介して)を満たす。
- 参考スコア(独自算出の注目度): 19.23266277956912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The question we raise through this paper is: Is it economically feasible to
trade consumer personal information with their formal consent (permission) and
in return provide them incentives (monetary or otherwise)?. In view of (a) the
behavioral assumption that humans are `compromising' beings and have privacy
preferences, (b) privacy as a good not having strict boundaries, and (c) the
practical inevitability of inappropriate data leakage by data holders
downstream in the data-release supply-chain, we propose a design of regulated
efficient/bounded inefficient economic mechanisms for oligopoly data trading
markets using a novel preference function bidding approach on a simplified
sellers-broker market. Our methodology preserves the heterogeneous privacy
preservation constraints (at a grouped consumer, i.e., app, level) upto certain
compromise levels, and at the same time satisfies information demand (via the
broker) of agencies (e.g., advertising organizations) that collect client data
for the purpose of targeted behavioral advertising.
- Abstract(参考訳): 消費者の個人情報を正式な同意(許可)で取引し、その見返りにインセンティブ(金銭的またはその他の)を提供することは経済的に可能か?
.
立場から
(a)人間は「妥協」し、プライバシーを優先しているという行動的仮定。
(b)厳格な境界のない善としてのプライバシー
c)データリリースサプライチェーンの下流にあるデータホルダによる不適切なデータ漏洩の実用的必然性について,簡易販売業者・ブローカー市場における新たな選好関数入札手法を用いて,オリゴポリデータ取引市場における規制された効率的・境界的非効率な経済メカニズムの設計を提案する。
本手法は、ある妥協レベルまで(グループ化された消費者、すなわちアプリ、レベルにおいて)不均一なプライバシー保護の制約を保ち、同時に、ターゲットとなる行動広告のためにクライアントデータを収集する代理店(広告組織など)の情報要求を満足させる。
関連論文リスト
- Language Models Can Reduce Asymmetry in Information Markets [100.38786498942702]
我々は、言語モデルを利用した知的エージェントが外部参加者に代わって情報を売買する、オープンソースのシミュレートされたデジタルマーケットプレースを紹介した。
このマーケットプレースを実現する中心的なメカニズムはエージェントの二重機能であり、特権情報の品質を評価する能力を持つと同時に、忘れる能力も備えている。
適切に行動するためには、エージェントは合理的な判断をし、生成されたサブクエリを通じて市場を戦略的に探索し、購入した情報から回答を合成する必要がある。
論文 参考訳(メタデータ) (2024-03-21T14:48:37Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Achieving Transparency Report Privacy in Linear Time [1.9981375888949475]
我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
論文 参考訳(メタデータ) (2021-03-31T22:05:10Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。