論文の概要: YASM (Yet Another Surveillance Mechanism)
- arxiv url: http://arxiv.org/abs/2205.14601v1
- Date: Sun, 29 May 2022 08:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:19:10.270931
- Title: YASM (Yet Another Surveillance Mechanism)
- Title(参考訳): YASM (Yet Another Surveillance Mechanism)
- Authors: Kaspar Rosager Ludvigsen, Shishir Nagaraja, Angela Daly
- Abstract要約: Appleは、こうした画像のためにシステムをスキャンすることを提案した。その後CSAMDは押し戻されたが、欧州連合(EU)は強制CSSの提案を決定した。
CSSが制限されているか使用されていないかについて議論し、画像の暗号処理方法に関する問題を議論する。
第2部では、欧州人権条約の体制において、一般的にCSSが引き起こす人権侵害の可能性を分析する。
- 参考スコア(独自算出の注目度): 1.332091725929965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Client-Side Scanning (CSS) see in the Child Sexual Abuse Material Detection
(CSAMD) represent ubiquitous mass scanning. Apple proposed to scan their
systems for such imagery. CSAMD was since pushed back, but the European Union
decided to propose forced CSS to combat and prevent child sexual abuse and
weaken encryption. CSS is mass surveillance of personal property, pictures and
text, without considerations of privacy and cybersecurity and the law. We first
argue why CSS should be limited or not used and discuss issues with the way
pictures cryptographically are handled and how the CSAMD preserves privacy. In
the second part, we analyse the possible human rights violations which CSS in
general can cause within the regime of the European Convention on Human Rights.
The focus is the harm which the system may cause to individuals, and we also
comment on the proposed Child Abuse Regulation. We find that CSS is problematic
because they can rarely fulfil their purposes, as seen with antivirus software.
The costs for attempting to solve issues such as CSAM outweigh the benefits and
is not likely to change. The CSAMD as proposed is not likely to preserve the
privacy or security in the way of which it is described source materials. We
also find that CSS in general would likely violate the Right to a Fair Trial,
Right to Privacy and Freedom of Expression. Pictures could have been obtained
in a way that could make any trial against a legitimate perpetrator
inadmissible or violate their right for a fair trial, the lack of any
safeguards to protect privacy on national legal level, which would violate the
Right for Privacy, and it is unclear if the kind of scanning could pass the
legal test which Freedom of Expression requires. Finally, we find significant
issues with the proposed Regulation, as it relies on techno-solutionist
arguments and disregards knowledge on cybersecurity.
- Abstract(参考訳): 児童性的虐待物質検出(csamd)におけるクライアント側スキャン(css)は、ユビキタスマススキャンを表す。
Appleはこうした画像のためにシステムをスキャンすることを提案した。
CSAMDはその後後退したが、欧州連合はCSSに児童の性的虐待と暗号化の弱体化への対処と予防を強制的に提案することを決定した。
CSSは、プライバシーやサイバーセキュリティ、法律を考慮せずに、個人資産、写真、テキストの大量監視を行う。
最初に、CSSが制限されているかどうかについて議論し、画像の暗号化処理方法や、CSAMDがプライバシを保存する方法について議論する。
第2部では、欧州人権条約においてcssが一般的に引き起こされる可能性のある人権侵害について分析する。
焦点は、システムが個人に与える害であり、提案されている児童虐待規制についてもコメントする。
アンチウイルスソフトウェアに見られるように、cssは目的を果たせないため問題視されている。
CSAMのような問題を解決するためのコストは、利点よりも高く、変化しそうにない。
提案されているcsamdは、ソース資料が記述されているように、プライバシやセキュリティを保持するものではない。
また、cssが一般的に公正な裁判権、プライバシーと表現の自由を侵害する可能性があることもわかりました。
写真は、合法的な加害者に対する裁判を容認できないか、公正な裁判のために彼らの権利を侵害する可能性があり、また、プライバシの権利を侵害する国家の法的レベルでプライバシーを保護するための保護が欠如しているため、この種のスキャンが表現の自由が要求する法的テストに合格できるかどうかは不明である。
最後に、テクノソリューションストの議論に頼り、サイバーセキュリティに関する知識を無視しているため、提案された規制に関する重大な問題を見つけます。
関連論文リスト
- Perception of Digital Privacy Protection: An Empirical Study using GDPR Framework [0.22628031081632272]
本研究では、一般データ保護知覚規則(General Data Protection Perception Regulation, システム二分法)フレームワークを用いて、政府データのデジタルプライバシ保護の認識について検討する。
発見は、人々のプライバシー権の保護に対する認識を二分していることを示唆している。
同意を与えて無断で反対する権利は、最も保護されていないものと認識される。
第2に、この研究は、社会的ジレンマが、彼らのコンテキストと文化に基づいて、デジタルプライバシを知覚する人々の社会的なジレンマの証拠を示す。
論文 参考訳(メタデータ) (2024-11-19T04:36:31Z) - A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Chat Control or Child Protection? [3.408452800179907]
同様にテロに関する議論は、若者が過激化している状況において根ざす必要がある。
を警察官や社会労働者、教師に置き換えるという考え方は、単なる魔法のような考え方であり、悪い政策につながる。
論文 参考訳(メタデータ) (2022-10-11T15:55:51Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Bugs in our Pockets: The Risks of Client-Side Scanning [8.963278092315946]
クライアントサイドスキャン(CSS)は、効果的な犯罪防止や監視の防止を保証しない。
CSSは本質的に、すべての社会にとって深刻なセキュリティとプライバシのリスクを生み出します。
クライアント側のスキャンが失敗し、回避でき、悪用できる方法はいくつかある。
論文 参考訳(メタデータ) (2021-10-14T15:18:49Z) - A Mental Trespass? Unveiling Truth, Exposing Thoughts and Threatening
Civil Liberties with Non-Invasive AI Lie Detection [0.0]
我々は、人工知能ベースの非侵襲的な嘘検出技術が今後数年で急速に進歩する可能性が高い理由を議論する。
法的および一般的な視点を見直し、これらの技術が社会的害を引き起こす可能性を評価します。
論文 参考訳(メタデータ) (2021-02-16T08:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。