論文の概要: Content-Agnostic Moderation for Stance-Neutral Recommendation
- arxiv url: http://arxiv.org/abs/2405.18941v1
- Date: Wed, 29 May 2024 09:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 17:39:58.632465
- Title: Content-Agnostic Moderation for Stance-Neutral Recommendation
- Title(参考訳): Stance-Neutral Recommendation における内容非依存的モデレーション
- Authors: Nan Li, Bo Kang, Tijl De Bie,
- Abstract要約: コンテンツに依存しないモデレーションは、実際のコンテンツが適格化されることに頼らない。
本稿では,コンテンツ機能に頼らずに,コンテンツレコメンデータからのリコメンデーションを変更する2つの新しいコンテンツ非依存モデレーション手法を提案する。
この結果から,直接コンテンツ情報なしでのスタンス中立性の実現は実現可能であるだけでなく,ユーザのエンゲージメントを著しく低下させることなく,よりバランスのとれた情報的レコメンデーションシステムを開発する上でも有効であることが示唆された。
- 参考スコア(独自算出の注目度): 13.210645250173997
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Personalized recommendation systems often drive users towards more extreme content, exacerbating opinion polarization. While (content-aware) moderation has been proposed to mitigate these effects, such approaches risk curtailing the freedom of speech and of information. To address this concern, we propose and explore the feasibility of \emph{content-agnostic} moderation as an alternative approach for reducing polarization. Content-agnostic moderation does not rely on the actual content being moderated, arguably making it less prone to forms of censorship. We establish theoretically that content-agnostic moderation cannot be guaranteed to work in a fully generic setting. However, we show that it can often be effectively achieved in practice with plausible assumptions. We introduce two novel content-agnostic moderation methods that modify the recommendations from the content recommender to disperse user-item co-clusters without relying on content features. To evaluate the potential of content-agnostic moderation in controlled experiments, we built a simulation environment to analyze the closed-loop behavior of a system with a given set of users, recommendation system, and moderation approach. Through comprehensive experiments in this environment, we show that our proposed moderation methods significantly enhance stance neutrality and maintain high recommendation quality across various data scenarios. Our results indicate that achieving stance neutrality without direct content information is not only feasible but can also help in developing more balanced and informative recommendation systems without substantially degrading user engagement.
- Abstract(参考訳): パーソナライズされたレコメンデーションシステムは、しばしばユーザーをより極端なコンテンツへと誘導し、意見の偏りを悪化させる。
これらの効果を緩和する(コンテンツ認識)モデレーションが提案されているが、そのようなアプローチは言論の自由と情報の自由を危険にさらす。
この問題に対処するために、偏光低減のための代替アプローチとして、emph{content-agnostic}モデレーションの実現可能性を提案し、検討する。
コンテンツに依存しないモデレーションは、実際のコンテンツが適格化されることに頼らない。
我々は、コンテンツに依存しないモデレーションが完全に汎用的な環境で動作することを保証できないことを理論的に確立する。
しかし,実証可能な仮定で効果的に実現できることがしばしば示されている。
本稿では,コンテンツ機能に頼らずに,コンテンツレコメンデータからのリコメンデーションを変更する2つの新しいコンテンツ非依存モデレーション手法を提案する。
制御実験におけるコンテンツに依存しないモデレーションの可能性を評価するため,ユーザセット,レコメンデーションシステム,モデレーションアプローチを用いて,システムのクローズドループ動作を分析するシミュレーション環境を構築した。
この環境での総合的な実験を通して、提案手法は、様々なデータシナリオにおいて、スタント中立性を著しく向上させ、高いレコメンデーション品質を維持することを示します。
この結果から,直接コンテンツ情報なしでのスタンス中立性の実現は実現可能であるだけでなく,ユーザのエンゲージメントを著しく低下させることなく,よりバランスのとれた情報的レコメンデーションシステムを開発する上でも有効であることが示唆された。
関連論文リスト
- Improving Recommendation System Serendipity Through Lexicase Selection [53.57498970940369]
本稿では,レコメンデーションシステムにおけるエコーチャンバーとホモフィリーの存在を測定するための新しいセレンディピティー指標を提案する。
そこで我々は,レキシケース選択と呼ばれる親選択アルゴリズムを採用することにより,よく知られたレコメンデーション手法の多様性保存性の向上を試みる。
以上の結果から,レキシケースの選択とランキングの混合は,パーソナライゼーション,カバレッジ,セレンディピティー・ベンチマークにおいて,純粋にランク付けされている。
論文 参考訳(メタデータ) (2023-05-18T15:37:38Z) - The Amplification Paradox in Recommender Systems [12.723777984461693]
シミュレーションを通して、レコメンデータシステムの協調フィルタリングの性質と極度のコンテンツのニッチさが明らかにパラドックスを解消できることを示す。
提案手法は,「アルゴリズム増幅の微妙な解釈」であり,レコメンデータシステムの監査において,利用者にコンテンツの有用性をモデル化することの重要性を強調したものである。
論文 参考訳(メタデータ) (2023-02-22T09:12:48Z) - Recommending to Strategic Users [10.079698681921673]
ユーザーは、将来推奨されるコンテンツの種類に影響を与えるために、戦略的にコンテンツを選択する。
本稿では,戦略的消費を考慮した推奨品質向上のための3つの介入を提案する。
論文 参考訳(メタデータ) (2023-02-13T17:57:30Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Reliable Decision from Multiple Subtasks through Threshold Optimization:
Content Moderation in the Wild [7.176020195419459]
ソーシャルメディアプラットフォームは、コンテンツモデレーションを通じて有害なコンテンツからユーザーを守るのに苦労している。
これらのプラットフォームは最近、大量のユーザー生成コンテンツに毎日対処するために機械学習モデルを活用している。
サードパーティーのコンテンツモデレーションサービスは、未成年者の存在、失礼なジェスチャー、武器など、複数のサブタスクの予測スコアを提供する。
本稿では,複数のサブタスクの最適しきい値を探索し,信頼性の高いモデレーション決定をコスト効率よく行うための,シンプルで効果的なしきい値最適化手法を提案する。
論文 参考訳(メタデータ) (2022-08-16T03:51:43Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Towards Fair Personalization by Avoiding Feedback Loops [3.180077164673223]
自己強化フィードバックループは、対話型レコメンデーションシステムにおけるコンテンツのオーバー&アンダー表示の影響と原因である。
代替案への体系的かつ限定的な露出を明示的に含み、あるいは無視する2つのモデルを考察する。
論文 参考訳(メタデータ) (2020-12-20T19:28:57Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Confounding-Robust Policy Evaluation in Infinite-Horizon Reinforcement
Learning [70.01650994156797]
教育医療などのバッチ強化学習において、観察データからのシーケンシャルな意思決定方針のオフ・アセスメントが必要である。
我々は、ある政策の境界を推定するアプローチを開発する。
より凝縮したデータを集めることで、シャープな境界への収束を証明します。
論文 参考訳(メタデータ) (2020-02-11T16:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。