論文の概要: Beyond the Checkbox: Strengthening DSA Compliance Through Social Media Algorithmic Auditing
- arxiv url: http://arxiv.org/abs/2601.18405v1
- Date: Mon, 26 Jan 2026 12:00:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.810447
- Title: Beyond the Checkbox: Strengthening DSA Compliance Through Social Media Algorithmic Auditing
- Title(参考訳): チェックボックスを超えて:ソーシャルメディアのアルゴリズムによる監査によるDSAコンプライアンス強化
- Authors: Sara Solarova, Matúš Mesarčík, Branislav Pecher, Ivan Srba,
- Abstract要約: アルゴリズムプラットフォームは、アルゴリズムの透明性、ユーザ保護、プライバシに関する義務を遵守する必要がある。
現在の監査プラクティスや、そのようなコンプライアンスを確保する上での有効性については、ほとんど分かっていない。
分析の結果,AIを用いたシステム評価における方法論の矛盾や技術的深度の欠如が示唆された。
我々は,コンプライアンス評価の深さ,規模,独立性を高めるために,アルゴリズム監査を採用することを提案する。
- 参考スコア(独自算出の注目度): 7.686169912623941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms of online platforms are required under the Digital Services Act (DSA) to comply with specific obligations concerning algorithmic transparency, user protection and privacy. To verify compliance with these requirements, DSA mandates platforms to undergo independent audits. Little is known about current auditing practices and their effectiveness in ensuring such compliance. To this end, we bridge regulatory and technical perspectives by critically examining selected audit reports across three critical algorithmic-related provisions: restrictions on profiling minors, transparency in recommender systems, and limitations on targeted advertising using sensitive data. Our analysis shows significant inconsistencies in methodologies and lack of technical depth when evaluating AI-powered systems. To enhance the depth, scale, and independence of compliance assessments, we propose to employ algorithmic auditing -- a process of behavioural assessment of AI algorithms by means of simulating user behaviour, observing algorithm responses and analysing them for audited phenomena.
- Abstract(参考訳): オンラインプラットフォームのアルゴリズムは、アルゴリズムの透明性、ユーザー保護、プライバシーに関する特定の義務に従うために、デジタルサービス法(DSA)の下で要求される。
これらの要件の遵守を検証するため、DSAはプラットフォームに対して独立した監査を実施するよう義務付けている。
現在の監査プラクティスや、そのようなコンプライアンスを確保する上での有効性については、ほとんど分かっていない。
この目的のために、未成年者へのプロファイリングの制限、レコメンダシステムの透明性、センシティブなデータを用いたターゲット広告の制限という、3つの重要なアルゴリズム関連条項で選択された監査レポートを批判的に検証することで、規制と技術的視点を橋渡しする。
分析の結果,AIを用いたシステム評価における方法論の矛盾と技術的深度の欠如が示唆された。
コンプライアンスアセスメントの深さ,スケール,独立性を高めるため,ユーザ行動のシミュレーション,アルゴリズム応答の観察,監査された現象の分析などにより,AIアルゴリズムの行動アセスメントのプロセスであるアルゴリズム監査を採用することを提案する。
関連論文リスト
- DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - Does Machine Unlearning Truly Remove Knowledge? [80.83986295685128]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。