論文の概要: Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach
- arxiv url: http://arxiv.org/abs/2302.04556v1
- Date: Thu, 9 Feb 2023 10:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:06:37.642528
- Title: Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach
- Title(参考訳): Recommender Systems の監査 -- DSA をリスクシナリオベースのアプローチで実践する
- Authors: Anna-Katharina Me{\ss}mer, Martin Degeling
- Abstract要約: 欧州連合のデジタルサービス法は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うようプラットフォームに要求している。
これらの要件は、オンラインプラットフォームによって引き起こされるシステム的リスクを軽減するための重要な立法ステップとなっている。
しかし、DSAは、実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
このヴォイドは、監査を利用して彼らのプラクティスを正当化し、責任を無視するプラットフォームである「オーディット・ウォッシング」の普及を促進する可能性がある。
- 参考スコア(独自算出の注目度): 5.875955066693127
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Today's online platforms rely heavily on recommendation systems to serve
content to their users; social media is a prime example. In turn,
recommendation systems largely depend on artificial intelligence algorithms to
decide who gets to see what. While the content social media platforms deliver
is as varied as the users who engage with them, it has been shown that
platforms can contribute to serious harm to individuals, groups and societies.
Studies have suggested that these negative impacts range from worsening an
individual's mental health to driving society-wide polarisation capable of
putting democracies at risk. To better safeguard people from these harms, the
European Union's Digital Services Act (DSA) requires platforms, especially
those with large numbers of users, to make their algorithmic systems more
transparent and follow due diligence obligations. These requirements constitute
an important legislative step towards mitigating the systemic risks posed by
online platforms. However, the DSA lacks concrete guidelines to operationalise
a viable audit process that would allow auditors to hold these platforms
accountable. This void could foster the spread of 'audit-washing', that is,
platforms exploiting audits to legitimise their practices and neglect
responsibility.
To fill this gap, we propose a risk-scenario-based audit process. We explain
in detail what audits and assessments of recommender systems according to the
DSA should look like. Our approach also considers the evolving nature of
platforms and emphasises the observability of their recommender systems'
components. The resulting audit facilitates internal (among audits of the same
system at different moments in time) and external comparability (among audits
of different platforms) while also affording the evaluation of mitigation
measures implemented by the platforms themselves.
- Abstract(参考訳): 今日のオンラインプラットフォームは、コンテンツをユーザーに提供するためのレコメンデーションシステムに大きく依存しています。
そして、リコメンデーションシステムは人工知能アルゴリズムに大きく依存して、誰が何を見るかを決める。
ソーシャルメディアプラットフォームが提供するコンテンツは、それに関わるユーザーと同じくらい多様であるが、プラットフォームが個人、グループ、社会に深刻な害をもたらすことが示されている。
これらの否定的な影響は、個人のメンタルヘルスを悪化させるものから、民主主義を危険にさらすことのできる社会全体の分極を促進するものまで様々である。
これらの害から人々をより保護するために、欧州連合のデジタルサービス法(DSA)は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うように、プラットフォーム、特に多数のユーザを必要とする。
これらの要件は、オンラインプラットフォームによって引き起こされるシステムリスクを軽減するための重要な立法ステップを構成する。
しかし、dsaは、監査人がこれらのプラットフォームを責任を負うことができるような実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
この空白は、監査を利用して彼らの慣行を正当化し、責任を無視する「オーディットウォッシング」の拡散を促進する可能性がある。
このギャップを埋めるために,リスクシナリオに基づく監査プロセスを提案する。
我々は、DSAによるレコメンデーターシステムの監査と評価がどのようなものになるべきかを詳細に説明する。
当社のアプローチでは、プラットフォームの進化する性質も考慮し、推奨システムのコンポーネントの可観測性を強調しています。
結果として得られた監査は、内部(異なる時点における同一システムの監査)と外部互換性(異なるプラットフォームの監査)を促進すると同時に、プラットフォーム自体が実施する緩和策の評価も行う。
関連論文リスト
- From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - A Unified Causal Framework for Auditing Recommender Systems for Ethical Concerns [40.793466500324904]
我々は、因果レンズからのレコメンデータシステム監査を見て、監査基準を定義するための一般的なレシピを提供する。
この一般的な因果監査フレームワークでは、既存の監査指標を分類し、それらのギャップを識別する。
本稿では,ユーザ自身やユーザの推奨に影響を及ぼす能力を計測する,未来と過去の評価可能性と安定性の2つのクラスを提案する。
論文 参考訳(メタデータ) (2024-09-20T04:37:36Z) - System-2 Recommenders: Disentangling Utility and Engagement in Recommendation Systems via Temporal Point-Processes [80.97898201876592]
本稿では,過去のコンテンツインタラクションが,自己興奮型ホークスプロセスに基づくユーザの到着率に影響を及ぼす生成モデルを提案する。
そこで本研究では,システム1とシステム2のアンタングルを解消し,ユーザ利用によるコンテンツ最適化を可能にすることを解析的に示す。
論文 参考訳(メタデータ) (2024-05-29T18:19:37Z) - User-Controllable Recommendation via Counterfactual Retrospective and
Prospective Explanations [96.45414741693119]
本稿では,説明可能性と可制御性をシームレスに統合するユーザ制御型レコメンデータシステムを提案する。
反ファクト推論を通じて、ふりかえりと予測的な説明の両方を提供することで、ユーザーはシステムに対する制御をカスタマイズできる。
論文 参考訳(メタデータ) (2023-08-02T01:13:36Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Mysterious and Manipulative Black Boxes: A Qualitative Analysis of Perceptions on Recommender Systems [0.2538209532048867]
本稿では,欧州のレコメンデーション制度における一般市民,市民社会グループ,企業,その他の認識の質的分析について述べる。
調査したデータセットは、欧州連合(EU)で最近施行されたデジタルサービス法(DSA)に関する協議に提出された回答に基づいている。
質的な結果によると、ヨーロッパ人は一般的にレコメンデーションシステムとレコメンデーションの品質について否定的な意見を持っている。
論文 参考訳(メタデータ) (2023-02-20T11:57:12Z) - A Liquid Democracy System for Human-Computer Societies [0.0]
本稿では,「流動民主主義」の原則を支持する評価システムの設計と実装について述べる。
このシステムは「重み付き液体ランク」アルゴリズムに基づいており、社会のメンバーによって交換される明示的、暗黙的な格付けの異なる種類を利用している。
本システムは,オンライン・マーケットプレース・ケースのシミュレーション・モデリングの助けを借りて,生のソーシャルネットワークデータに対して評価する。
論文 参考訳(メタデータ) (2022-10-05T15:57:49Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。