論文の概要: Doing Audits Right? The Role of Sampling and Legal Content Analysis in Systemic Risk Assessments and Independent Audits in the Digital Services Act
- arxiv url: http://arxiv.org/abs/2505.03601v1
- Date: Tue, 06 May 2025 15:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.441227
- Title: Doing Audits Right? The Role of Sampling and Legal Content Analysis in Systemic Risk Assessments and Independent Audits in the Digital Services Act
- Title(参考訳): 監査が正しいか : デジタルサービス法におけるシステム的リスク評価と独立監査におけるサンプリングと法的内容分析の役割
- Authors: Marie-Therese Sekwenz, Rita Gsenger, Scott Dahlgren, Ben Wagner,
- Abstract要約: 欧州連合のデジタルサービス法(DSA)では、オンラインプラットフォームが内部および外部監査を受ける必要がある。
本稿では,システムリスクを監査するための質的,定量的な方法の長所と短所について検討する。
我々は、コンテンツサンプリングと法的および実証的な分析を組み合わせることで、リスク特異的監査のための実行可能な方法を提供すると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A central requirement of the European Union's Digital Services Act (DSA) is that online platforms undergo internal and external audits. A key component of these audits is the assessment of systemic risks, including the dissemination of illegal content, threats to fundamental rights, impacts on democratic processes, and gender-based violence. The DSA Delegated Regulation outlines how such audits should be conducted, setting expectations for both platforms and auditors. This article evaluates the strengths and limitations of different qualitative and quantitative methods for auditing these systemic risks and proposes a mixed-method approach for DSA compliance. We argue that content sampling, combined with legal and empirical analysis, offers a viable method for risk-specific audits. First, we examine relevant legal provisions on sample selection for audit purposes. We then assess sampling techniques and methods suitable for detecting systemic risks, focusing on how representativeness can be understood across disciplines. Finally, we review initial systemic risk assessment reports submitted by platforms, analyzing their testing and sampling methodologies. By proposing a structured, mixed-method approach tailored to specific risk categories and platform characteristics, this article addresses the challenge of evidence-based audits under the DSA. Our contribution emphasizes the need for adaptable, context-sensitive auditing strategies and adds to the emerging field of DSA compliance research.
- Abstract(参考訳): 欧州連合のデジタルサービス法(DSA)の中心的な要件は、オンラインプラットフォームが内部および外部監査を受けることである。
これらの監査の主要な要素は、違法コンテンツの拡散、基本的権利への脅威、民主的プロセスへの影響、性別に基づく暴力など、システム的リスクの評価である。
DSA Delegated Regulationは、こうした監査がどのように実施されるべきかを概説し、プラットフォームと監査者の両方に期待を定めている。
本稿では、これらのシステム的リスクを監査するための定性的・定量的手法の長所と短所を評価し、DSAコンプライアンスのための混合手法を提案する。
我々は、コンテンツサンプリングと法的および実証的な分析を組み合わせることで、リスク特異的監査のための実行可能な方法を提供すると論じている。
まず,監査目的のサンプル選択に関する法的規定について検討する。
次に,システム的リスクを検出するのに適したサンプリング手法と手法を評価し,各分野にまたがる代表性をいかに理解できるかに着目した。
最後に、プラットフォームから提出された初期システムリスク評価報告をレビューし、それらの検査およびサンプリング手法を分析した。
本稿では、特定のリスクカテゴリやプラットフォーム特性に合わせて構成された混合メソッドアプローチを提案することにより、DSAの下でのエビデンスベースの監査の課題に対処する。
我々の貢献は、適応的で文脈に敏感な監査戦略の必要性を強調し、DSAコンプライアンス研究の新たな分野に追加する。
関連論文リスト
- AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Assessing the Auditability of AI-integrating Systems: A Framework and Learning Analytics Case Study [0.0]
監査の有効性は,監査システムの監査可能性に左右される。
本稿では,AI統合システムの監査性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T13:43:21Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Fairness Evaluation in Presence of Biased Noisy Labels [84.12514975093826]
本稿では,グループ間の雑音の仮定がリスク評価モデルの予測バイアス特性に与える影響を評価するための感度分析フレームワークを提案する。
2つの実世界の刑事司法データセットに関する実験結果は、観測されたラベルの小さなバイアスでさえ、ノイズのある結果に基づく分析結果の結論に疑問を投げかけることができることを示している。
論文 参考訳(メタデータ) (2020-03-30T20:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。