論文の概要: Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach
- arxiv url: http://arxiv.org/abs/2302.04556v1
- Date: Thu, 9 Feb 2023 10:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:06:37.642528
- Title: Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach
- Title(参考訳): Recommender Systems の監査 -- DSA をリスクシナリオベースのアプローチで実践する
- Authors: Anna-Katharina Me{\ss}mer, Martin Degeling
- Abstract要約: 欧州連合のデジタルサービス法は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うようプラットフォームに要求している。
これらの要件は、オンラインプラットフォームによって引き起こされるシステム的リスクを軽減するための重要な立法ステップとなっている。
しかし、DSAは、実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
このヴォイドは、監査を利用して彼らのプラクティスを正当化し、責任を無視するプラットフォームである「オーディット・ウォッシング」の普及を促進する可能性がある。
- 参考スコア(独自算出の注目度): 5.875955066693127
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Today's online platforms rely heavily on recommendation systems to serve
content to their users; social media is a prime example. In turn,
recommendation systems largely depend on artificial intelligence algorithms to
decide who gets to see what. While the content social media platforms deliver
is as varied as the users who engage with them, it has been shown that
platforms can contribute to serious harm to individuals, groups and societies.
Studies have suggested that these negative impacts range from worsening an
individual's mental health to driving society-wide polarisation capable of
putting democracies at risk. To better safeguard people from these harms, the
European Union's Digital Services Act (DSA) requires platforms, especially
those with large numbers of users, to make their algorithmic systems more
transparent and follow due diligence obligations. These requirements constitute
an important legislative step towards mitigating the systemic risks posed by
online platforms. However, the DSA lacks concrete guidelines to operationalise
a viable audit process that would allow auditors to hold these platforms
accountable. This void could foster the spread of 'audit-washing', that is,
platforms exploiting audits to legitimise their practices and neglect
responsibility.
To fill this gap, we propose a risk-scenario-based audit process. We explain
in detail what audits and assessments of recommender systems according to the
DSA should look like. Our approach also considers the evolving nature of
platforms and emphasises the observability of their recommender systems'
components. The resulting audit facilitates internal (among audits of the same
system at different moments in time) and external comparability (among audits
of different platforms) while also affording the evaluation of mitigation
measures implemented by the platforms themselves.
- Abstract(参考訳): 今日のオンラインプラットフォームは、コンテンツをユーザーに提供するためのレコメンデーションシステムに大きく依存しています。
そして、リコメンデーションシステムは人工知能アルゴリズムに大きく依存して、誰が何を見るかを決める。
ソーシャルメディアプラットフォームが提供するコンテンツは、それに関わるユーザーと同じくらい多様であるが、プラットフォームが個人、グループ、社会に深刻な害をもたらすことが示されている。
これらの否定的な影響は、個人のメンタルヘルスを悪化させるものから、民主主義を危険にさらすことのできる社会全体の分極を促進するものまで様々である。
これらの害から人々をより保護するために、欧州連合のデジタルサービス法(DSA)は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うように、プラットフォーム、特に多数のユーザを必要とする。
これらの要件は、オンラインプラットフォームによって引き起こされるシステムリスクを軽減するための重要な立法ステップを構成する。
しかし、dsaは、監査人がこれらのプラットフォームを責任を負うことができるような実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
この空白は、監査を利用して彼らの慣行を正当化し、責任を無視する「オーディットウォッシング」の拡散を促進する可能性がある。
このギャップを埋めるために,リスクシナリオに基づく監査プロセスを提案する。
我々は、DSAによるレコメンデーターシステムの監査と評価がどのようなものになるべきかを詳細に説明する。
当社のアプローチでは、プラットフォームの進化する性質も考慮し、推奨システムのコンポーネントの可観測性を強調しています。
結果として得られた監査は、内部(異なる時点における同一システムの監査)と外部互換性(異なるプラットフォームの監査)を促進すると同時に、プラットフォーム自体が実施する緩和策の評価も行う。
関連論文リスト
- Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - User-Controllable Recommendation via Counterfactual Retrospective and
Prospective Explanations [96.45414741693119]
本稿では,説明可能性と可制御性をシームレスに統合するユーザ制御型レコメンデータシステムを提案する。
反ファクト推論を通じて、ふりかえりと予測的な説明の両方を提供することで、ユーザーはシステムに対する制御をカスタマイズできる。
論文 参考訳(メタデータ) (2023-08-02T01:13:36Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Mysterious and Manipulative Black Boxes: A Qualitative Analysis of
Perceptions on Recommender Systems [0.2538209532048867]
本稿では,欧州のレコメンデーション制度における一般市民,市民社会グループ,企業,その他の認識の質的分析について述べる。
調査したデータセットは、欧州連合(EU)で最近施行されたデジタルサービス法(DSA)に関する協議に提出された回答に基づいている。
質的な結果によると、ヨーロッパ人は一般的にレコメンデーションシステムとレコメンデーションの品質について否定的な意見を持っている。
論文 参考訳(メタデータ) (2023-02-20T11:57:12Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - A Liquid Democracy System for Human-Computer Societies [0.0]
本稿では,「流動民主主義」の原則を支持する評価システムの設計と実装について述べる。
このシステムは「重み付き液体ランク」アルゴリズムに基づいており、社会のメンバーによって交換される明示的、暗黙的な格付けの異なる種類を利用している。
本システムは,オンライン・マーケットプレース・ケースのシミュレーション・モデリングの助けを借りて,生のソーシャルネットワークデータに対して評価する。
論文 参考訳(メタデータ) (2022-10-05T15:57:49Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。