論文の概要: Regulating algorithmic filtering on social media
- arxiv url: http://arxiv.org/abs/2006.09647v4
- Date: Tue, 2 Nov 2021 12:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-13 15:57:22.671146
- Title: Regulating algorithmic filtering on social media
- Title(参考訳): ソーシャルメディア上でのアルゴリズムフィルタリングの制御
- Authors: Sarah H. Cen and Devavrat Shah
- Abstract要約: ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
- 参考スコア(独自算出の注目度): 14.873907857806357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By filtering the content that users see, social media platforms have the
ability to influence users' perceptions and decisions, from their dining
choices to their voting preferences. This influence has drawn scrutiny, with
many calling for regulations on filtering algorithms, but designing and
enforcing regulations remains challenging. In this work, we examine three
questions. First, given a regulation, how would one design an audit to enforce
it? Second, does the audit impose a performance cost on the platform? Third,
how does the audit affect the content that the platform is incentivized to
filter? In response, we propose a method such that, given a regulation, an
auditor can test whether that regulation is met with only black-box access to
the filtering algorithm. We then turn to the platform's perspective. The
platform's goal is to maximize an objective function while meeting regulation.
We find that there are conditions under which the regulation does not place a
high performance cost on the platform and, notably, that content diversity can
play a key role in aligning the interests of the platform and regulators.
- Abstract(参考訳): ユーザが見るコンテンツをフィルタリングすることで、ソーシャルメディアプラットフォームは、ダイニング選択から投票の選好まで、ユーザの知覚と判断に影響を与えることができる。
この影響は精査され、フィルタリングアルゴリズムに関する規制を求める声が多かったが、規制の設計と実施は依然として困難である。
本稿では,3つの質問について検討する。
まず、規制を前提に、どのように監査を実施すればいいのか?
第二に、監査はプラットフォームにパフォーマンスコストを課すのか?
第三に、監査はプラットフォームがフィルターするインセンティブのあるコンテンツにどのように影響するか?
そこで本研究では,規制を前提として,その規制がフィルタアルゴリズムへのブラックボックスアクセスにのみ適合するかどうかを監査者が検証する手法を提案する。
そして、プラットフォームの視点に目を向けます。
プラットフォームの目的は、規制を満たしながら目的関数を最大化することである。
我々は、規制がプラットフォームに高いパフォーマンスコストを課さないという条件があること、特に、コンテンツの多様性がプラットフォームと規制当局の利益を調整する上で重要な役割を果たすことを見出します。
関連論文リスト
- Tracing Influence at Scale: A Contrastive Learning Approach to Linking
Public Comments and Regulator Responses [22.240224575601644]
米連邦規制当局(Federal Regulators)は、企業や利害団体、一般市民から毎年100万件以上のコメント状を受け取り、いずれも提案された規制の変更を提唱している。
特定のコメントの影響を測定するのは難しいのは、規制当局はコメントに応答する必要があるが、どのコメントに対処しているかを特定する必要はないからだ。
本稿では,公開コメントからのテキストとレギュレータによる応答のマッチングを目的としたニューラルモデルを,反復的コントラスト法を用いて訓練することにより,シンプルで効果的な解を提案する。
論文 参考訳(メタデータ) (2023-11-24T23:32:13Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Mathematical Framework for Online Social Media Auditing [5.384630221560811]
ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示されるコンテンツを選択的に選択することは、ユーザの意思決定にある程度、マイナーまたはメジャーの影響を与える可能性がある。
我々は,この枠組みを数学的に定式化し,データ駆動型統計監査手法の構築に利用した。
論文 参考訳(メタデータ) (2022-09-12T19:04:14Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - An Empirical Investigation of Personalization Factors on TikTok [77.34726150561087]
TikTokのアルゴリズムがプラットフォームの成功とコンテンツの配布に重要であるにもかかわらず、アルゴリズムの実証的な分析はほとんど行われていない。
我々は,私たちが開発したカスタムアルゴリズムを用いたソック・パペット・監査手法を用いて,TikTokへのアクセスに使用される言語と位置情報の効果を検証,分析した。
その結果,フォローフェールが最も強い影響を受けており,ライクフェールやビデオ視聴率が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-28T17:40:00Z) - Obvious Manipulability of Voting Rules [105.35249497503527]
Gibbard-Satterthwaite の定理は、全会一致で非独裁的な投票規則は、戦略的なものではないと述べる。
我々は投票規則を再検討し、明らかでない操作性という戦略的安全性の弱い概念を考察する。
論文 参考訳(メタデータ) (2021-11-03T02:41:48Z) - Disinformation, Stochastic Harm, and Costly Filtering: A Principal-Agent
Analysis of Regulating Social Media Platforms [2.9747815715612713]
Facebookなどのソーシャルメディアプラットフォームにおける偽情報の拡散は社会に有害である。
偽情報のフィルタリングは、フィルタリングアルゴリズムの実装や手作業によるフィルタリングに限らず、費用がかかる。
有害なコンテンツのコストは他の団体によって負担されるため、プラットフォームは社会的に最適なレベルでフィルタリングするインセンティブを持っていない。
論文 参考訳(メタデータ) (2021-06-17T23:27:43Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。