論文の概要: Mathematical Framework for Online Social Media Auditing
- arxiv url: http://arxiv.org/abs/2209.05550v2
- Date: Tue, 20 Feb 2024 08:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 21:54:59.142368
- Title: Mathematical Framework for Online Social Media Auditing
- Title(参考訳): オンラインソーシャルメディア監査のための数学的枠組み
- Authors: Wasim Huleihel and Yehonathan Refael
- Abstract要約: ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示されるコンテンツを選択的に選択することは、ユーザの意思決定にある程度、マイナーまたはメジャーの影響を与える可能性がある。
我々は,この枠組みを数学的に定式化し,データ駆動型統計監査手法の構築に利用した。
- 参考スコア(独自算出の注目度): 5.384630221560811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms (SMPs) leverage algorithmic filtering (AF) as a means
of selecting the content that constitutes a user's feed with the aim of
maximizing their rewards. Selectively choosing the contents to be shown on the
user's feed may yield a certain extent of influence, either minor or major, on
the user's decision-making, compared to what it would have been under a
natural/fair content selection. As we have witnessed over the past decade,
algorithmic filtering can cause detrimental side effects, ranging from biasing
individual decisions to shaping those of society as a whole, for example,
diverting users' attention from whether to get the COVID-19 vaccine or inducing
the public to choose a presidential candidate. The government's constant
attempts to regulate the adverse effects of AF are often complicated, due to
bureaucracy, legal affairs, and financial considerations. On the other hand
SMPs seek to monitor their own algorithmic activities to avoid being fined for
exceeding the allowable threshold. In this paper, we mathematically formalize
this framework and utilize it to construct a data-driven statistical auditing
procedure to regulate AF from deflecting users' beliefs over time, along with
sample complexity guarantees. This state-of-the-art algorithm can be used
either by authorities acting as external regulators or by SMPs for
self-auditing.
- Abstract(参考訳): ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示すべきコンテンツを選択的に選択することは、自然的/公正なコンテンツ選択の下にあったものと比較して、ユーザの意思決定にある程度の影響をもたらす可能性がある。
過去10年にわたって見てきたように、アルゴリズムによるフィルタリングは、個々の決定の偏りから、全体の社会を形作ること、例えば、ユーザーの注意を新型コロナウイルスワクチンを入手するか、あるいは大統領候補を選ぶよう大衆に誘導することなど、有害な副作用を引き起こす可能性がある。
AFの悪影響を規制しようとする政府の継続的な試みは、官僚主義、法務、財政的な配慮により、しばしば複雑である。
一方、SMPは許容しきい値を超えた罰金を科されるのを避けるために、自身のアルゴリズム活動を監視する。
本稿では,この枠組みを数学的に定式化し,データ駆動型統計監査手順を構築し,ユーザの信念を時間とともに逸脱させないようにし,サンプル複雑性の保証を行う。
この最先端のアルゴリズムは、外部の規制当局または自己監査のためにSMPによって使用される。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making [21.152377319502705]
等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
論文 参考訳(メタデータ) (2021-09-18T00:30:43Z) - Disinformation, Stochastic Harm, and Costly Filtering: A Principal-Agent
Analysis of Regulating Social Media Platforms [2.9747815715612713]
Facebookなどのソーシャルメディアプラットフォームにおける偽情報の拡散は社会に有害である。
偽情報のフィルタリングは、フィルタリングアルゴリズムの実装や手作業によるフィルタリングに限らず、費用がかかる。
有害なコンテンツのコストは他の団体によって負担されるため、プラットフォームは社会的に最適なレベルでフィルタリングするインセンティブを持っていない。
論文 参考訳(メタデータ) (2021-06-17T23:27:43Z) - Regulating algorithmic filtering on social media [14.873907857806357]
ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
論文 参考訳(メタデータ) (2020-06-17T04:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。