論文の概要: Defogger: A Visual Analysis Approach for Data Exploration of Sensitive Data Protected by Differential Privacy
- arxiv url: http://arxiv.org/abs/2407.19364v1
- Date: Sun, 28 Jul 2024 02:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:32:13.567717
- Title: Defogger: A Visual Analysis Approach for Data Exploration of Sensitive Data Protected by Differential Privacy
- Title(参考訳): Defogger: 差分プライバシーで保護された感性データのデータ探索のためのビジュアル分析アプローチ
- Authors: Xumeng Wang, Shuangcheng Jiao, Chris Bryan,
- Abstract要約: 我々は、基礎となる要件や利用可能な探査戦略を含む、対応する調査シナリオを説明する上で、主導権を握る。
提案手法は,ユーザの探索意図に応じて多様な探索戦略を提案するために,強化学習モデルを適用した。
相関パターンの不確かさを表す新しいビジュアルデザインを,提案手法をサポートするために試作システムに統合した。
- 参考スコア(独自算出の注目度): 5.117818675551463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy ensures the security of individual privacy but poses challenges to data exploration processes because the limited privacy budget incapacitates the flexibility of exploration and the noisy feedback of data requests leads to confusing uncertainty. In this study, we take the lead in describing corresponding exploration scenarios, including underlying requirements and available exploration strategies. To facilitate practical applications, we propose a visual analysis approach to the formulation of exploration strategies. Our approach applies a reinforcement learning model to provide diverse suggestions for exploration strategies according to the exploration intent of users. A novel visual design for representing uncertainty in correlation patterns is integrated into our prototype system to support the proposed approach. Finally, we implemented a user study and two case studies. The results of these studies verified that our approach can help develop strategies that satisfy the exploration intent of users.
- Abstract(参考訳): 差分プライバシーは個々のプライバシのセキュリティを保証するが、プライバシー予算の制限によって探索の柔軟性が損なわれ、データ要求の騒々しいフィードバックが混乱を招くため、データ探索プロセスに課題をもたらす。
本研究では,本研究の基盤となる要件や利用可能な探査戦略を含む,対応する探査シナリオについて解説する。
そこで本研究では,探索戦略の定式化に向けた視覚解析手法を提案する。
提案手法は,ユーザの探索意図に応じて多様な探索戦略を提案するために,強化学習モデルを適用した。
相関パターンの不確かさを表す新しいビジュアルデザインを,提案手法をサポートするために試作システムに統合した。
最後に,ユーザスタディと2つのケーススタディを実装した。
その結果,本手法がユーザの探索意図を満たす戦略開発に有効であることが確認された。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - DISCOVER: A Data-driven Interactive System for Comprehensive Observation, Visualization, and ExploRation of Human Behaviour [6.716560115378451]
我々は,人間行動分析のための計算駆動型データ探索を効率化するために,モジュール型でフレキシブルでユーザフレンドリなソフトウェアフレームワークを導入する。
我々の主な目的は、高度な計算方法論へのアクセスを民主化することであり、これにより研究者は、広範囲の技術的熟練を必要とせずに、詳細な行動分析を行うことができる。
論文 参考訳(メタデータ) (2024-07-18T11:28:52Z) - Model-Free Active Exploration in Reinforcement Learning [53.786439742572995]
強化学習における探索問題について検討し,新しいモデルフリーソリューションを提案する。
我々の戦略は、最先端の探査アプローチよりも高速に効率的な政策を特定できる。
論文 参考訳(メタデータ) (2024-06-30T19:00:49Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - Embedding in Recommender Systems: A Survey [67.67966158305603]
重要な側面は、ユーザやアイテムIDといった高次元の離散的な特徴を低次元連続ベクトルに包含する技法である。
埋め込み技術の適用は複雑なエンティティ関係を捉え、かなりの研究を刺激している。
この調査では、協調フィルタリング、自己教師付き学習、グラフベースのテクニックなどの埋め込み手法を取り上げている。
論文 参考訳(メタデータ) (2023-10-28T06:31:06Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Unified Comparison of User Modeling Techniques for Predicting Data
Interaction and Detecting Exploration Bias [17.518601254380275]
我々は,4つのユーザスタディデータセットの多種多様なセットにおいて,その性能に基づいて8つのユーザモデリングアルゴリズムを比較し,ランク付けする。
本研究は,ユーザインタラクションの分析と可視化のためのオープンな課題と新たな方向性を強調した。
論文 参考訳(メタデータ) (2022-08-09T19:51:10Z) - Deep Learning Schema-based Event Extraction: Literature Review and
Current Trends [60.29289298349322]
ディープラーニングに基づくイベント抽出技術が研究ホットスポットとなっている。
本稿では,ディープラーニングモデルに焦点をあて,最先端のアプローチを見直し,そのギャップを埋める。
論文 参考訳(メタデータ) (2021-07-05T16:32:45Z) - Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications [70.92379567261304]
本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
論文 参考訳(メタデータ) (2021-06-16T23:46:39Z) - An Adversarial Objective for Scalable Exploration [39.482557864395005]
モデルに基づく好奇心は、最適サンプリングのためのアクティブな学習アプローチと、探索のための情報ゲインに基づくインセンティブを組み合わせる。
既存のモデルに基づく好奇心法では,多くの予測計画パイプラインへのスケールアップに苦慮するアプローチを用いて,予測の不確実性を近似する。
判別器ネットワークが与えるスコアを最小限に抑える逆好奇心法を用いて,これらのスケーラビリティ問題に対処する。
論文 参考訳(メタデータ) (2020-03-13T02:03:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。