論文の概要: Overcoming the hurdle of legal expertise: A reusable model for smartwatch privacy policies
- arxiv url: http://arxiv.org/abs/2505.05214v1
- Date: Thu, 08 May 2025 13:09:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.890849
- Title: Overcoming the hurdle of legal expertise: A reusable model for smartwatch privacy policies
- Title(参考訳): 法的専門知識のハードルを乗り越える:スマートウォッチのプライバシーポリシーの再利用可能なモデル
- Authors: Constantin Buschhaus, Arvid Butting, Judith Michael, Verena Nitsch, Sebastian Pütz, Bernhard Rumpe, Carolin Stellmacher, Sabine Theis,
- Abstract要約: これまでのところ、さまざまなスマートウォッチメーカーがデベロッパーに再利用可能なプライバシーポリシーをカバーしている概念モデルはない。
本稿では,スマートウォッチのプライバシポリシの概念モデルを紹介し,データ視覚化のためのプラットフォームを構築するためのモデル駆動ソフトウェアエンジニアリングアプローチでの利用法を示す。
- 参考スコア(独自算出の注目度): 5.2578340028226425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regulations for privacy protection aim to protect individuals from the unauthorized storage, processing, and transfer of their personal data but oftentimes fail in providing helpful support for understanding these regulations. To better communicate privacy policies for smartwatches, we need an in-depth understanding of their concepts and provide better ways to enable developers to integrate them when engineering systems. Up to now, no conceptual model exists covering privacy statements from different smartwatch manufacturers that is reusable for developers. This paper introduces such a conceptual model for privacy policies of smartwatches and shows its use in a model-driven software engineering approach to create a platform for data visualization of wearable privacy policies from different smartwatch manufacturers. We have analyzed the privacy policies of various manufacturers and extracted the relevant concepts. Moreover, we have checked the model with lawyers for its correctness, instantiated it with concrete data, and used it in a model-driven software engineering approach to create a platform for data visualization. This reusable privacy policy model can enable developers to easily represent privacy policies in their systems. This provides a foundation for more structured and understandable privacy policies which, in the long run, can increase the data sovereignty of application users.
- Abstract(参考訳): プライバシ保護の規制は、個人が個人データの不正な保管、処理、転送から保護することを目的としているが、多くの場合、これらの規制を理解するための有益な支援を提供しない。
スマートウォッチのプライバシーポリシーをよりよく伝達するためには、その概念を深く理解し、開発者がエンジニアリングシステムでそれらを統合するためのより良い方法を提供する必要があります。
これまでのところ、さまざまなスマートウォッチメーカーがデベロッパーに再利用可能なプライバシーポリシーをカバーしている概念モデルはない。
本稿では,スマートウォッチのプライバシポリシの概念モデルを紹介するとともに,スマートウォッチメーカーのプライバシポリシをデータ視覚化するプラットフォームを構築するための,モデル駆動ソフトウェアエンジニアリングアプローチでの利用法を示す。
各種メーカーのプライバシポリシを分析し,関連する概念を抽出した。
さらに、その正確性について弁護士とモデルを検証し、具体的なデータでインスタンス化し、モデル駆動のソフトウェアエンジニアリングアプローチでデータ視覚化のためのプラットフォームを作成しました。
この再利用可能なプライバシポリシモデルにより、開発者はシステム内のプライバシポリシを簡単に表現できる。
これにより、より構造化され、理解可能なプライバシポリシの基盤が提供され、長期的には、アプリケーションユーザのデータ主権が向上します。
関連論文リスト
- Privacy Bills of Materials: A Transparent Privacy Information Inventory for Collaborative Privacy Notice Generation in Mobile App Development [23.41168782020005]
モバイルアプリのプライバシ情報をキャプチャしてコーディネートするための,システマティックなソフトウェアエンジニアリングアプローチであるPriBOMを紹介します。
PriBOMは、透明性中心のプライバシドキュメントと特定のプライバシ通知の作成を促進し、プライバシプラクティスのトレーサビリティと追跡性を可能にする。
論文 参考訳(メタデータ) (2025-01-02T08:14:52Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Privacy Backdoors: Stealing Data with Corrupted Pretrained Models [23.54726973460633]
実践者は、オープンリポジトリからトレーニング済みの機械学習モデルをダウンロードして、特定のアプリケーションに適合するように微調整する。
このプラクティスによって、プライバシーバックドアの新たなリスクがもたらされることが示されています。
トランスフォーマーを含む、さまざまなモデルのプライバシバックドアを構築する方法を紹介します。
論文 参考訳(メタデータ) (2024-03-30T20:43:53Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - A Study of the Landscape of Privacy Policies of Smart Devices [1.2642388972233845]
本稿では,スマートデバイスのプライバシポリシの展望を包括的に研究する。
我々は,スマートデバイスのユニークな課題に対処する方法論を紹介し,それらに関する情報,製造者,およびWeb上のプライバシポリシを探索する。
全体として、スマートデバイス4,556台、メーカー2,211台、プライバシーポリシー819台を分析した。
論文 参考訳(メタデータ) (2023-08-11T00:52:31Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。