論文の概要: Beyond privacy regulations: an ethical approach to data usage in
transportation
- arxiv url: http://arxiv.org/abs/2004.00491v1
- Date: Wed, 1 Apr 2020 15:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-27 05:33:35.986135
- Title: Beyond privacy regulations: an ethical approach to data usage in
transportation
- Title(参考訳): プライバシー規制を超えて:交通におけるデータ利用への倫理的アプローチ
- Authors: Johannes M. van Hulst, Mattia Zeni, Alexander Kr\"oller, Cassandra
Moons, Pierluigi Casale
- Abstract要約: 本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
- 参考スコア(独自算出の注目度): 64.86110095869176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the exponential advancement of business technology in recent years,
data-driven decision making has become the core of most industries. With the
rise of new privacy regulations such as the General Data Protection Regulation
in the European Union and the California Consumer Privacy Act in the United
States, companies dealing with personal data had to conform to these changes
and adapt their processes accordingly. This obviously included the
transportation industry with their use of location data. At the other side of
the spectrum, users still expect a form of personalization, without having to
compromise on their privacy. For this reason, companies across the industries
started applying privacy-enhancing or preserving technologies at scale in their
products as a competitive advantage. In this paper, we describe how Federated
Machine Learning can be applied to the transportation sector. We present
use-cases for which Federated Learning is beneficial in transportation and the
new product lifecycle that is required for using such a technology. We see
Federated Learning as a method that enables us to process privacy-sensitive
data, while respecting customer's privacy and one that guides us beyond
privacy-regulations and into the world of ethical data-usage.
- Abstract(参考訳): 近年のビジネス技術の飛躍的な進歩により、データ駆動型意思決定がほとんどの産業の中核となっている。
欧州連合(eu)の一般データ保護規則(general data protection regulation)や米国のカリフォルニア州消費者プライバシ法(california consumer privacy act)などの新しいプライバシー規制が高まり、個人データを扱う企業はこれらの変更に準拠し、それに従ってプロセスを適用する必要があった。
これには明らかに交通業界が位置情報を使っていた。
反対の側面では、ユーザーはプライバシーを妥協することなく、パーソナライゼーションの形式を期待している。
このため、業界全体にわたる企業は、競争上の優位性として、製品に大規模なプライバシー保護技術を適用し始めた。
本稿では,フェデレーション機械学習を交通分野に適用する方法について述べる。
我々は,フェデレートラーニングが輸送に有益であるユースケースと,そのような技術を使用するために必要な新製品ライフサイクルについて述べる。
フェデレートラーニングは、プライバシに敏感なデータを処理し、ユーザのプライバシを尊重すると同時に、プライバシ規制を越えて倫理的なデータ利用の世界へと導く方法であると考えています。
関連論文リスト
- Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Dis-Empowerment Online: An Investigation of Privacy-Sharing Perceptions
& Method Preferences [6.09170287691728]
プライバシーのエンパワーメントの認識は、意味、能力、選択の次元をまたいだ共有の認識とは異なることが分かっています。
米国、英国、ドイツの間では、プライバシーメソッドの嗜好の類似点と相違点が見つかります。
プライバシ非エンパワーメントの認識をオンラインのプライバシ行動パターンにマッピングすることにより、今後の研究に重要な基盤を提供する。
論文 参考訳(メタデータ) (2020-03-19T19:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。