論文の概要: Automated Transparency: A Legal and Empirical Analysis of the Digital Services Act Transparency Database
- arxiv url: http://arxiv.org/abs/2404.02894v1
- Date: Wed, 3 Apr 2024 17:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 16:40:30.935846
- Title: Automated Transparency: A Legal and Empirical Analysis of the Digital Services Act Transparency Database
- Title(参考訳): 自動透明性:デジタルサービス法透明性データベースの法的および実証分析
- Authors: Rishabh Kaushal, Jacob van de Kerkhof, Catalina Goanta, Gerasimos Spanakis, Adriana Iamnitchi,
- Abstract要約: 2022年11月1日、デジタルサービス法(DSA)が採択された。
DSAは、オンラインプラットフォームがコンテンツモデレーションの決定を報告する必要性を強調している(理由のステートメント' - SoRs)。
SoRは現在、2023年9月に欧州委員会によってローンチされたDSA Transparency Databaseで利用可能である。
本研究の目的は,透明性データベースがDSAの透明性の約束を果たすのに役立つかどうかを理解することである。
- 参考スコア(独自算出の注目度): 6.070078201123852
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Digital Services Act (DSA) is a much awaited platforms liability reform in the European Union that was adopted on 1 November 2022 with the ambition to set a global example in terms of accountability and transparency. Among other obligations, the DSA emphasizes the need for online platforms to report on their content moderation decisions (`statements of reasons' - SoRs), which is a novel transparency mechanism we refer to as automated transparency in this study. SoRs are currently made available in the DSA Transparency Database, launched by the European Commission in September 2023. The DSA Transparency Database marks a historical achievement in platform governance, and allows investigations about the actual transparency gains, both at structure level as well as at the level of platform compliance. This study aims to understand whether the Transparency Database helps the DSA to live up to its transparency promises. We use legal and empirical arguments to show that while there are some transparency gains, compliance remains problematic, as the current database structure allows for a lot of discretion from platforms in terms of transparency practices. In our empirical study, we analyze a representative sample of the Transparency Database (131m SoRs) submitted in November 2023, to characterise and evaluate platform content moderation practices.
- Abstract(参考訳): デジタルサービス法(DSA、Digital Services Act)は、2022年11月1日に採択された欧州連合のプラットフォーム責任改革である。
その他の義務の中で、DSAは、オンラインプラットフォームがコンテンツモデレーションの決定を報告する必要性を強調しています('理由のステートメント' - SoRs')。
SoRは現在、2023年9月に欧州委員会によってローンチされたDSA Transparency Databaseで利用可能である。
DSA Transparency Databaseは、プラットフォームガバナンスにおける歴史的な成果であり、構造レベルでもプラットフォームコンプライアンスのレベルでも、実際の透明性向上に関する調査を可能にする。
本研究の目的は,透明性データベースがDSAの透明性の約束を果たすのに役立つかどうかを理解することである。
現在のデータベース構造は、透明性のプラクティスの観点からプラットフォームから多くの判断を下すことができるので、透明性が向上する一方で、コンプライアンスが問題であることを示すために、法律的および実証的な議論を使用します。
本研究では,2023年11月に提出されたTransparency Database (131m SoRs) の代表例を分析し,プラットフォームコンテンツモデレーションの実践を特徴づけ,評価する。
関連論文リスト
- AI data transparency: an exploration through the lens of AI incidents [2.255682336735152]
本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
論文 参考訳(メタデータ) (2024-09-05T07:23:30Z) - The Foundation Model Transparency Index v1.1: May 2024 [54.78174872757794]
2023年10月、インデクスは100の透明性指標について10の主要なファンデーションモデル開発者を評価した。
当時、開発者は非常に限られた情報を公開しており、平均スコアは100点中37点だった。
開発者は、平均して100点中58点を獲得し、v1.0よりも21点改善している。
論文 参考訳(メタデータ) (2024-07-17T18:03:37Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - The DSA Transparency Database: Auditing Self-reported Moderation Actions by Social Media [0.4597131601929317]
データベースの最初の100日間で、EUの8大ソーシャルメディアプラットフォームから提出された353.12万レコードを分析した。
さまざまな分野にわたる政策立案者や学者にとって,本研究は大きな意味を持つ。
論文 参考訳(メタデータ) (2023-12-16T00:02:49Z) - The Foundation Model Transparency Index [55.862805799199194]
Foundation Model Transparency Indexは、ファンデーションモデルの透明性を規定する100の指標を規定している。
私たちは、彼らの旗艦となる基盤モデルのプラクティスに関連して、開発者をスコア付けします。
全体として、インデックスは、基盤モデルガバナンスの進展を促進するために、今日の透明性のレベルを確立します。
論文 参考訳(メタデータ) (2023-10-19T17:39:02Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - TILT: A GDPR-Aligned Transparency Information Language and Toolkit for
Practical Privacy Engineering [0.0]
TILTは透明性情報を表すために設計された透明性情報言語およびツールキットである。
形式的な透明性言語に必要なものを特定するために、透明性義務を詳細に分析する。
そこで本研究では,形式言語を規定し,それぞれに完全に実装されたツールキットを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。