論文の概要: Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest
- arxiv url: http://arxiv.org/abs/2207.08773v2
- Date: Wed, 15 Feb 2023 06:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:56:13.625501
- Title: Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest
- Title(参考訳): プライバシーをキープして食べることも: ソーシャルメディアのアルゴリズムを公益に活用するプラットフォーム支援の監査
- Authors: Basileal Imana, Aleksandra Korolova, John Heidemann
- Abstract要約: ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
- 参考スコア(独自算出の注目度): 70.02478301291264
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Social media platforms curate access to information and opportunities, and so
play a critical role in shaping public discourse today. The opaque nature of
the algorithms these platforms use to curate content raises societal questions.
Prior studies have used black-box methods to show that these algorithms can
lead to biased or discriminatory outcomes. However, existing auditing methods
face fundamental limitations because they function independent of the
platforms. Concerns of potential harm have prompted proposal of legislation in
both the U.S. and the E.U. to mandate a new form of auditing where vetted
external researchers get privileged access to social media platforms.
Unfortunately, to date there have been no concrete technical proposals to
provide such auditing, because auditing at scale risks disclosure of users'
private data and platforms' proprietary algorithms. We propose a new method for
platform-supported auditing that can meet the goals of the proposed
legislation. Our first contribution is to enumerate the challenges of existing
auditing methods to implement these policies at scale. Second, we suggest that
limited, privileged access to relevance estimators is the key to enabling
generalizable platform-supported auditing by external researchers. Third, we
show platform-supported auditing need not risk user privacy nor disclosure of
platforms' business interests by proposing an auditing framework that protects
against these risks. For a particular fairness metric, we show that ensuring
privacy imposes only a small constant factor increase (6.34x as an upper bound,
and 4x for typical parameters) in the number of samples required for accurate
auditing. Our technical contributions, combined with ongoing legal and policy
efforts, can enable public oversight into how social media platforms affect
individuals and society by moving past the privacy-vs-transparency hurdle.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートし、今日、公共の言論を形作る上で重要な役割を果たす。
これらのプラットフォームがコンテンツのキュレーションに使用する不透明なアルゴリズムは、社会的な疑問を引き起こす。
これまでの研究ではブラックボックス法を用いて、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示した。
しかし,既存の監査手法はプラットフォームに依存しないため,基本的な制約に直面している。
潜在的危害の懸念は、米国と英国の両方で、veted外部研究者がソーシャルメディアプラットフォームへの特権的なアクセスを許可する新しい形態の監査を義務付ける法律の提案を促した。
残念ながら、これまでこのような監査を提供する具体的な技術的提案は存在せず、大規模な監査はユーザのプライベートデータとプラットフォーム独自のアルゴリズムの開示を危険にさらす。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
最初の貢献は、これらのポリシーを大規模に実装する既存の監査手法の課題を列挙することです。
第2に,外部研究者によるプラットフォーム支援型監査を可能にする上では,関連性推定者への限定的アクセスが重要であることを示唆する。
第3に、これらのリスクから保護する監査フレームワークを提案することにより、プラットフォームが支援する監査は、ユーザのプライバシーやプラットフォームのビジネス上の利益の開示を危険にさらす必要はないことを示す。
特定の公正度尺度では、正確な監査に必要なサンプル数において、プライバシーを確保することは、小さな定数係数(上界6.34x、典型的なパラメータ4x)だけを課すことが示されている。
当社の技術的貢献は、現在進行中の法と政策の取り組みと相まって、プライバシとvsの透明性のハードルを乗り越えることで、ソーシャルメディアプラットフォームが個人と社会にどう影響するかを公共の監視を可能にします。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach [5.875955066693127]
欧州連合のデジタルサービス法は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うようプラットフォームに要求している。
これらの要件は、オンラインプラットフォームによって引き起こされるシステム的リスクを軽減するための重要な立法ステップとなっている。
しかし、DSAは、実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
このヴォイドは、監査を利用して彼らのプラクティスを正当化し、責任を無視するプラットフォームである「オーディット・ウォッシング」の普及を促進する可能性がある。
論文 参考訳(メタデータ) (2023-02-09T10:48:37Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - Online publication of court records: circumventing the
privacy-transparency trade-off [0.0]
法律データへの大規模なアクセスに対処するには,現在のプラクティスが不十分である,と我々は主張する。
本稿では,プライバシ保護法定データパブリッシングシステムへの道を切り開く,ストローマンマルチモーダルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-03T13:58:01Z) - Regulating algorithmic filtering on social media [14.873907857806357]
ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
論文 参考訳(メタデータ) (2020-06-17T04:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。