論文の概要: Evaluating the Contextual Integrity of False Positives in Algorithmic Travel Surveillance
- arxiv url: http://arxiv.org/abs/2506.00218v1
- Date: Fri, 30 May 2025 20:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 00:29:07.327
- Title: Evaluating the Contextual Integrity of False Positives in Algorithmic Travel Surveillance
- Title(参考訳): アルゴリズムによる旅行サーベイランスにおける偽陽性の文脈整合性の評価
- Authors: Alina Wernick, Alan Medlar, Sofia Söderholm, Dorota Głowacka,
- Abstract要約: 数百万人の乗客の基本的な権利に対する偽陽性の影響の可能性にもかかわらず、アルゴリズムによる旅行監視はEUにおいて合法である。
我々は,フィンランドの成人を対象に,航空旅行におけるアルゴリズムによる大量監視に対する態度を評価するために調査を行った。
驚いたことに、プライバシとセキュリティのトレードオフに直面した時、偽の正の数字でさえも正当だと見なされた。
- 参考スコア(独自算出の注目度): 1.0374615809135401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: International air travel is highly surveilled. While surveillance is deemed necessary for law enforcement to prevent and detect terrorism and other serious crimes, even the most accurate algorithmic mass surveillance systems produce high numbers of false positives. Despite the potential impact of false positives on the fundamental rights of millions of passengers, algorithmic travel surveillance is lawful in the EU. However, as the system's processing practices and accuracy are kept secret by law, it is unknown to what degree passengers are accepting of the system's interference with their rights to privacy and data protection. We conducted a nationally representative survey of the adult population of Finland (N=1550) to assess their attitudes towards algorithmic mass surveillance in air travel and its potential expansion to other travel contexts. Furthermore, we developed a novel approach for estimating the threshold, beyond which, the number of false positives breaches individuals' perception of contextual integrity. Surprisingly, when faced with a trade-off between privacy and security, even very high false positive counts were perceived as legitimate. This result could be attributed to Finland's high-trust cultural context, but also raises questions about people's capacity to account for privacy harms that happen to other people. We conclude by discussing how legal and ethical approaches to legitimising algorithmic surveillance based on individual rights may overlook the statistical or systemic properties of mass surveillance.
- Abstract(参考訳): 国際航空輸送が盛んである。
テロやその他の重大犯罪を予防し、検出するためには、法執行機関が監視が必要であると考えられているが、最も正確なアルゴリズムによる大量監視システムでさえ、大量の偽陽性を発生させる。
数百万人の乗客の基本的な権利に対する偽陽性の影響の可能性にもかかわらず、アルゴリズムによる旅行監視はEUにおいて合法である。
しかし、システムの処理の慣行と正確性は法律によって秘密にされているため、そのシステムのプライバシとデータ保護に対する権利に対する干渉がどの程度の乗客に受け入れられているかは分かっていない。
我々はフィンランドの成人人口(N=1550)を全国的に代表的に調査し、航空旅行におけるアルゴリズムによる大量監視に対する態度と、他の旅行状況への潜在的拡大について検討した。
さらに, 閾値を推定するための新しい手法を開発し, 偽陽性の数が個人の文脈的整合性に対する認識を損なうことを示した。
驚いたことに、プライバシとセキュリティのトレードオフに直面した時、偽の正の数字でさえも正当だと見なされた。
この結果はフィンランドの高信頼の文化的文脈に起因する可能性があるが、他人に起こるプライバシーの害を考慮に入れた人々の能力に関する疑問も提起している。
我々は、個人の権利に基づくアルゴリズム監視の合法化に対する法的および倫理的アプローチが、マス監視の統計的または体系的特性を過小評価する可能性について論じる。
関連論文リスト
- Perception of Digital Privacy Protection: An Empirical Study using GDPR Framework [0.22628031081632272]
本研究では、一般データ保護知覚規則(General Data Protection Perception Regulation, システム二分法)フレームワークを用いて、政府データのデジタルプライバシ保護の認識について検討する。
発見は、人々のプライバシー権の保護に対する認識を二分していることを示唆している。
同意を与えて無断で反対する権利は、最も保護されていないものと認識される。
第2に、この研究は、社会的ジレンマが、彼らのコンテキストと文化に基づいて、デジタルプライバシを知覚する人々の社会的なジレンマの証拠を示す。
論文 参考訳(メタデータ) (2024-11-19T04:36:31Z) - Evaluating the Effects of Digital Privacy Regulations on User Trust [0.0]
この研究は、オランダ、ガーナ、マレーシアの規制を比較することで、デジタルプライバシ法がユーザーの信頼に与える影響を調査する。
オランダの一般保護規則は厳格であるが、その実践的影響は執行によって制限されている。
ガーナでは、データ保護法が公共の認識が低く、執行が不十分なため、個人的保護措置に依存している。
マレーシアでは、デジタルサービスに対する信頼は、個人データ保護法ではなく、個々のプラットフォームのセキュリティプラクティスに大きく依存している。
論文 参考訳(メタデータ) (2024-09-04T11:11:41Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - Privacy protection based on mask template [0.0]
人間の生体認証は一般的に画像の中に存在する。
個人のプライバシーの開示を避けるため、未承認の認識アルゴリズムが元の画像の実際の特徴を取得するのを防ぐ必要がある。
論文 参考訳(メタデータ) (2022-02-13T08:11:04Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - "Healthy surveillance": Designing a concept for privacy-preserving mask
recognition AI in the age of pandemics [1.1470070927586016]
2020年に新型コロナウイルスのパンデミックが発生した場合、多くの政府はマスクを着用するよう推奨したり、市民に勧めたりする。
マスク認識の大規模監視には、高性能な人工知能が必要である。
我々の概念的ディープラーニングに基づく人工知能は、プライバシーに優しい環境で95%から99%の検知性能を達成することができる。
論文 参考訳(メタデータ) (2020-10-20T14:00:04Z) - Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing [17.42753238926119]
アルゴリズムによる監査は 人口を危険にさらす 効果があります これらの手段は 保護を意図しています
本稿では,商業的な顔処理技術の監査を行う場合の倫理的懸念点を5つ挙げる。
さらに、これらの懸念の具体的な図示を提供し、これらの懸念がアルゴリズム監査の役割に何を意味するのか、そしてそれらが明らかにする基本的な製品制限を反映して結論付けます。
論文 参考訳(メタデータ) (2020-01-03T20:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。