論文の概要: A User-Driven Framework for Regulating and Auditing Social Media
- arxiv url: http://arxiv.org/abs/2304.10525v1
- Date: Thu, 20 Apr 2023 17:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 11:57:24.975450
- Title: A User-Driven Framework for Regulating and Auditing Social Media
- Title(参考訳): ソーシャルメディアの規制と監査のためのユーザ駆動フレームワーク
- Authors: Sarah H. Cen, Aleksander Madry, Devavrat Shah
- Abstract要約: アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
- 参考スコア(独自算出の注目度): 94.70018274127231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People form judgments and make decisions based on the information that they
observe. A growing portion of that information is not only provided, but
carefully curated by social media platforms. Although lawmakers largely agree
that platforms should not operate without any oversight, there is little
consensus on how to regulate social media. There is consensus, however, that
creating a strict, global standard of "acceptable" content is untenable (e.g.,
in the US, it is incompatible with Section 230 of the Communications Decency
Act and the First Amendment).
In this work, we propose that algorithmic filtering should be regulated with
respect to a flexible, user-driven baseline. We provide a concrete framework
for regulating and auditing a social media platform according to such a
baseline. In particular, we introduce the notion of a baseline feed: the
content that a user would see without filtering (e.g., on Twitter, this could
be the chronological timeline). We require that the feeds a platform filters
contain "similar" informational content as their respective baseline feeds, and
we design a principled way to measure similarity. This approach is motivated by
related suggestions that regulations should increase user agency. We present an
auditing procedure that checks whether a platform honors this requirement.
Notably, the audit needs only black-box access to a platform's filtering
algorithm, and it does not access or infer private user information. We provide
theoretical guarantees on the strength of the audit. We further show that
requiring closeness between filtered and baseline feeds does not impose a large
performance cost, nor does it create echo chambers.
- Abstract(参考訳): 人々は自分の観察する情報に基づいて判断し、決定する。
その情報の一部は提供されるだけでなく、ソーシャルメディアプラットフォームによって注意深く収集される。
議員は、プラットフォームは監視なしでは運用すべきではないとほぼ同意するが、ソーシャルメディアの規制についてはほとんど合意がない。
しかし、「受け入れ可能な」コンテンツの厳格でグローバルな標準を作成することは不可能である(例えば、アメリカ合衆国では、通信規制法第230条と修正第1条と互換性がない)という合意がある。
本研究では,フレキシブルでユーザ主導のベースラインに対して,アルゴリズムフィルタリングを規制することを提案する。
このようなベースラインに従ってソーシャルメディアプラットフォームを規制および監査するための具体的なフレームワークを提供する。
特に、ベースラインフィードの概念を紹介します:ユーザがフィルタリングせずに見ることができるコンテンツ(例えば、Twitterでは、これは時系列タイムラインかもしれません)。
プラットフォームフィルタのフィードには,各ベースラインフィードと「類似」情報コンテンツが含まれており,類似度を測定するための基本的手法を設計する必要がある。
このアプローチは、規制がユーザーエージェンシーを増加させるという関連する提案に動機づけられている。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
特に、監査にはプラットフォームのフィルタリングアルゴリズムへのブラックボックスアクセスのみが必要で、プライベートユーザ情報へのアクセスや推論は行わない。
監査の強さに関する理論的保証を提供する。
さらに、フィルタフィードとベースラインフィードの密接性を要求することは、大きなパフォーマンスコストを課したり、エコーチャンバーを生成したりしないことを示した。
関連論文リスト
- Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Mathematical Framework for Online Social Media Auditing [5.384630221560811]
ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示されるコンテンツを選択的に選択することは、ユーザの意思決定にある程度、マイナーまたはメジャーの影響を与える可能性がある。
我々は,この枠組みを数学的に定式化し,データ駆動型統計監査手法の構築に利用した。
論文 参考訳(メタデータ) (2022-09-12T19:04:14Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Disinformation, Stochastic Harm, and Costly Filtering: A Principal-Agent
Analysis of Regulating Social Media Platforms [2.9747815715612713]
Facebookなどのソーシャルメディアプラットフォームにおける偽情報の拡散は社会に有害である。
偽情報のフィルタリングは、フィルタリングアルゴリズムの実装や手作業によるフィルタリングに限らず、費用がかかる。
有害なコンテンツのコストは他の団体によって負担されるため、プラットフォームは社会的に最適なレベルでフィルタリングするインセンティブを持っていない。
論文 参考訳(メタデータ) (2021-06-17T23:27:43Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Second layer data governance for permissioned blockchains: the privacy
management challenge [58.720142291102135]
新型コロナウイルス(COVID-19)やエボラウイルス(エボラ出血熱)のようなパンデミックの状況では、医療データを共有することに関連する行動は、大規模な感染を避け、死亡者を減らすために重要である。
この意味において、許可されたブロックチェーン技術は、スマートコントラクトが管理する不変で統一された分散データベースを通じて、データのオーナシップ、透明性、セキュリティを提供する権利をユーザに与えるために登場します。
論文 参考訳(メタデータ) (2020-10-22T13:19:38Z) - Regulating algorithmic filtering on social media [14.873907857806357]
ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
論文 参考訳(メタデータ) (2020-06-17T04:14:20Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。