論文の概要: Disincentivizing Polarization in Social Networks
- arxiv url: http://arxiv.org/abs/2305.14537v1
- Date: Tue, 23 May 2023 21:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:35:36.061875
- Title: Disincentivizing Polarization in Social Networks
- Title(参考訳): ソーシャルネットワークにおける分極の分散化
- Authors: Christian Borgs, Jennifer Chayes, Christian Ikeokwu, Ellen Vitercik
- Abstract要約: 本稿では,フィルタバブルを回避するコンテンツキュレーションとパーソナライゼーションのモデルを提案する。
推奨を最適化するためのアルゴリズム保証を提供する。
実世界の嗜好データを用いて、我々のモデルでは、利用者は小さなユーティリティ損失のみで多様化の重荷を共有していることを確認した。
- 参考スコア(独自算出の注目度): 10.758115514959593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: On social networks, algorithmic personalization drives users into filter
bubbles where they rarely see content that deviates from their interests. We
present a model for content curation and personalization that avoids filter
bubbles, along with algorithmic guarantees and nearly matching lower bounds. In
our model, the platform interacts with $n$ users over $T$ timesteps, choosing
content for each user from $k$ categories. The platform receives stochastic
rewards as in a multi-arm bandit. To avoid filter bubbles, we draw on the
intuition that if some users are shown some category of content, then all users
should see at least a small amount of that content. We first analyze a naive
formalization of this intuition and show it has unintended consequences: it
leads to ``tyranny of the majority'' with the burden of diversification borne
disproportionately by those with minority interests. This leads us to our model
which distributes this burden more equitably. We require that the probability
any user is shown a particular type of content is at least $\gamma$ times the
average probability all users are shown that type of content. Full
personalization corresponds to $\gamma = 0$ and complete homogenization
corresponds to $\gamma = 1$; hence, $\gamma$ encodes a hard cap on the level of
personalization. We also analyze additional formulations where the platform can
exceed its cap but pays a penalty proportional to its constraint violation. We
provide algorithmic guarantees for optimizing recommendations subject to these
constraints. These include nearly matching upper and lower bounds for the
entire range of $\gamma \in [0,1]$ showing that the reward of a multi-agent
variant of UCB is nearly optimal. Using real-world preference data, we
empirically verify that under our model, users share the burden of
diversification with only minor utility loss under our constraints.
- Abstract(参考訳): ソーシャルネットワークでは、アルゴリズムによるパーソナライゼーションによって、ユーザーが興味から逸脱するコンテンツを見ることがほとんどないフィルターバブルに陥る。
本稿では,フィルタバブルを回避するコンテンツキュレーションとパーソナライズのためのモデルを提案する。
私たちのモデルでは、プラットフォームは、$T$タイムステップ以上の$n$ユーザと対話し、$k$カテゴリから各ユーザのコンテンツを選択する。
プラットフォームはマルチアームのバンディットのように確率的な報酬を受け取る。
フィルタバブルを避けるために、一部のユーザーがあるカテゴリーのコンテンツを見せられた場合、そのコンテンツの少なくとも一部を全ユーザーが見るべきであるという直感を描いている。
我々はまず,この直観のナイーブな形式化をまず分析し,意図しない結果をもたらすことを示した。
これは、この重荷を公平に分配する我々のモデルにつながります。
特定のタイプのコンテンツを表示する確率は、すべてのユーザがそのタイプのコンテンツを示す平均確率の少なくとも$\gamma$である必要がある。
完全パーソナライゼーションは$\gamma = 0$に対応し、完全ホモジェネライゼーションは$\gamma = 1$に対応するので、$\gamma$はパーソナライゼーションのレベルでハードキャップを符号化する。
また、プラットフォームが上限を超えることができるが、制約違反に比例するペナルティを支払う追加の定式化も分析する。
これらの制約を満たす推奨事項を最適化するためのアルゴリズム的保証を提供する。
これらには、$\gamma \in [0,1]$の全範囲における上界と下界がほぼ一致することを含み、UCBのマルチエージェント多様体の報酬がほぼ最適であることを示す。
実世界の嗜好データを用いて,本モデルでは,利用者が制約条件下での小規模のユーティリティ損失のみを伴い,多様化の負担を負うことを実証的に検証する。
関連論文リスト
- Privacy Amplification via Shuffling: Unified, Simplified, and Tightened [20.10078781197001]
シングルメッセージとマルチメッセージのシャッフルプロトコルの両方において、プライバシーを増幅するための包括的なフレームワークを提案する。
我々の理論的な結果は、特に極端確率設計を持つ局所確率化器に対して、我々のフレームワークがより厳密な境界を提供することを示している。
私たちのバウンダリは、非常に効率的な$tildeO(n)$アルゴリズムで、$n=108$ユーザに対して10$秒未満で、数値的にプライバシを増幅します。
論文 参考訳(メタデータ) (2023-04-11T06:27:25Z) - (Private) Kernelized Bandits with Distributed Biased Feedback [13.312928989951505]
分散バイアスフィードバックを用いたカーネル化された帯域幅について検討する。
Emphdistributed phase-then-batch-based elimination (textttDPBE)アルゴリズムを提案する。
textttDPBE は $tildeO(T1-alpha/2+sqrtgamma_TT)$ のサブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-01-28T02:30:15Z) - Modeling Attrition in Recommender Systems with Departing Bandits [84.85560764274399]
政策に依存した地平線を捉えた新しいマルチアームバンディット構成を提案する。
まず、全てのユーザが同じタイプを共有しているケースに対処し、最近の UCB ベースのアルゴリズムが最適であることを実証する。
次に、ユーザが2つのタイプに分けられる、より困難なケースを前進させます。
論文 参考訳(メタデータ) (2022-03-25T02:30:54Z) - Coordinated Attacks against Contextual Bandits: Fundamental Limits and
Defense Mechanisms [75.17357040707347]
オンラインレコメンデーションシステムによってモチベーションされた我々は,文脈的包帯における最適政策の発見問題を提案する。
目標は、優れたユーザに対する報酬を可能な限り少ないユーザインタラクションで最大化するポリシーを、しっかりと学習することだ。
効率的なロバストな平均推定器を用いることで、$tildeO(min(S,A)cdot alpha/epsilon2)$ upper-boundを実現できることを示す。
論文 参考訳(メタデータ) (2022-01-30T01:45:13Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Tight and Robust Private Mean Estimation with Few Users [16.22135057266913]
ユーザレベルの差分プライバシーに基づく高次元平均推定について検討する。
可能な限り少数のユーザを使って、$(eps,delta)$-differentially privateメカニズムを設計します。
論文 参考訳(メタデータ) (2021-10-22T16:02:21Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。