論文の概要: The Great Data Standoff: Researchers vs. Platforms Under the Digital Services Act
- arxiv url: http://arxiv.org/abs/2505.01122v1
- Date: Fri, 02 May 2025 09:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.979151
- Title: The Great Data Standoff: Researchers vs. Platforms Under the Digital Services Act
- Title(参考訳): 素晴らしいデータスタンドオフ:デジタルサービス法の下での研究者 vs. プラットフォーム
- Authors: Catalina Goanta, Savvas Zannettou, Rishabh Kaushal, Jacob van de Kerkhof, Thales Bertaglia, Taylor Annabell, Haoyang Gui, Gerasimos Spanakis, Adriana Iamnitchi,
- Abstract要約: 我々は2024年のルーマニア大統領選挙の干渉事件に焦点を当てている。
これは欧州委員会によるシステム的リスク調査を誘発するこの種のイベントとしては初めてである。
この事件を解析することにより、選挙に関連したシステムリスクを理解して、実践的な研究課題を探求することができる。
- 参考スコア(独自算出の注目度): 9.275892768167122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To facilitate accountability and transparency, the Digital Services Act (DSA) sets up a process through which Very Large Online Platforms (VLOPs) need to grant vetted researchers access to their internal data (Article 40(4)). Operationalising such access is challenging for at least two reasons. First, data access is only available for research on systemic risks affecting European citizens, a concept with high levels of legal uncertainty. Second, data access suffers from an inherent standoff problem. Researchers need to request specific data but are not in a position to know all internal data processed by VLOPs, who, in turn, expect data specificity for potential access. In light of these limitations, data access under the DSA remains a mystery. To contribute to the discussion of how Article 40 can be interpreted and applied, we provide a concrete illustration of what data access can look like in a real-world systemic risk case study. We focus on the 2024 Romanian presidential election interference incident, the first event of its kind to trigger systemic risk investigations by the European Commission. During the elections, one candidate is said to have benefited from TikTok algorithmic amplification through a complex dis- and misinformation campaign. By analysing this incident, we can comprehend election-related systemic risk to explore practical research tasks and compare necessary data with available TikTok data. In particular, we make two contributions: (i) we combine insights from law, computer science and platform governance to shed light on the complexities of studying systemic risks in the context of election interference, focusing on two relevant factors: platform manipulation and hidden advertising; and (ii) we provide practical insights into various categories of available data for the study of TikTok, based on platform documentation, data donations and the Research API.
- Abstract(参考訳): 説明責任と透明性を容易にするため、デジタルサービス法(DSA)は、VLOP(Very Large Online Platforms)が調査対象の研究者に内部データへのアクセスを許可する必要があるプロセスを定めている(第40条(4))。
このようなアクセスの運用は、少なくとも2つの理由から難しい。
第一に、データアクセスは欧州市民に影響を及ぼすシステム的リスクの研究のためにのみ利用可能であり、高いレベルの法的な不確実性を持つ概念である。
第二に、データアクセスは固有のスタンドオフ問題に悩まされる。
研究者は特定のデータを要求する必要があるが、VLOPが処理するすべての内部データを知る立場にはいない。
これらの制限を考慮して、DSAによるデータアクセスは謎のままである。
第40条の解釈と適用に関する議論に寄与するため,実世界のシステム的リスクケーススタディにおいて,データアクセスがどのようなものか,具体的な実例を示す。
2024年のルーマニア大統領選挙の干渉事件は、欧州委員会によるシステム的リスク調査を誘発する最初の出来事である。
選挙期間中、ある候補者は複雑な偽情報と偽情報のキャンペーンを通じて、TikTokのアルゴリズム増幅の恩恵を受けたと言われている。
この事件を分析して、選挙関連のシステムリスクを理解して、実践的な研究課題を探求し、必要なデータと利用可能なTikTokデータを比較する。
特に、私たちは2つの貢献をしています。
一 法律、コンピュータ科学及びプラットフォームガバナンスの知見を組み合わせて、選挙干渉の文脈におけるシステム的リスクの研究の複雑さに光を当て、プラットフォーム操作と隠蔽広告の2つの関連要因に焦点を当てる。
(II)プラットフォームドキュメンテーション,データ提供,リサーチAPIに基づくTikTokの研究のために,利用可能なデータのさまざまなカテゴリに関する実践的な洞察を提供する。
関連論文リスト
- Data-Centric AI in the Age of Large Language Models [51.20451986068925]
本稿では,大規模言語モデル(LLM)に着目した,AI研究におけるデータ中心の視点を提案する。
本研究では,LLMの発達段階(事前学習や微調整など)や推論段階(文脈内学習など)において,データが有効であることを示す。
データを中心とした4つのシナリオを特定し、データ中心のベンチマークとデータキュレーション、データ属性、知識伝達、推論コンテキスト化をカバーします。
論文 参考訳(メタデータ) (2024-06-20T16:34:07Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - LeCaRDv2: A Large-Scale Chinese Legal Case Retrieval Dataset [20.315416393247247]
大規模法ケース検索データセットLeCaRDv2(バージョン2)を紹介する。
800のクエリと430万件の刑事事件文書から抽出された55,192の候補で構成されている。
評価,ペナルティ,手順の3つの重要な側面を考慮し,既存の関連基準を充実させる。
データセットのすべてのケースは、刑事法を専門とする複数の法律専門家によって注釈付けされています。
論文 参考訳(メタデータ) (2023-10-26T17:32:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Should I disclose my dataset? Caveats between reproducibility and
individual data rights [5.816090284071069]
裁判所文書のデジタル利用は研究者の可能性を増大させる。
しかし、個人データ保護法は、データ露出に制限を課している。
我々は,この問題に関する法的・倫理的考察と研究者のガイドラインを提示する。
論文 参考訳(メタデータ) (2022-11-01T14:42:11Z) - PRIVEE: A Visual Analytic Workflow for Proactive Privacy Risk Inspection
of Open Data [3.2136309934080867]
個人情報を含むオープンデータセットは、匿名化しても敵攻撃の影響を受けやすい。
我々は、ローカルで結合可能なデータ地区における開示リスクを、データディフェンダーが認識できるようにするビジュアル分析ソリューションを開発した。
我々はこの問題とドメイン特性を用いて、防御機構としての視覚的分析的介入のセットを開発する。
論文 参考訳(メタデータ) (2022-08-12T19:57:09Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Amplifying Privacy: Scaling Up Transparency Research Through Delegated
Access Requests [0.0]
参加者に対して,研究者へのアクセス権の委譲を求める方法を提案する。
我々は、これを行うための法的根拠、研究者とデータ分野の両方にもたらす利点、手続き的および技術的な設計について論じる。
オランダのパイロット研究でこの方法を試したところ、研究者と参加者の両方にウィンウィンが生まれることがわかった。
論文 参考訳(メタデータ) (2021-06-12T19:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。