論文の概要: AutoLike: Auditing Social Media Recommendations through User Interactions
- arxiv url: http://arxiv.org/abs/2502.08933v1
- Date: Thu, 13 Feb 2025 03:32:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:45.515711
- Title: AutoLike: Auditing Social Media Recommendations through User Interactions
- Title(参考訳): AutoLike: ユーザーインタラクションによるソーシャルメディアレコメンデーションの監査
- Authors: Hieu Le, Salma Elmalaki, Zubair Shafiq, Athina Markopoulou,
- Abstract要約: 興味のあるトピックや感情をソーシャルメディアプラットフォームで監査するフレームワークであるAutoLikeを紹介した。
ケーススタディとして,TikTokプラットフォームにAutoLikeフレームワークを適用した。
- 参考スコア(独自算出の注目度): 23.589572863847607
- License:
- Abstract: Modern social media platforms, such as TikTok, Facebook, and YouTube, rely on recommendation systems to personalize content for users based on user interactions with endless streams of content, such as "For You" pages. However, these complex algorithms can inadvertently deliver problematic content related to self-harm, mental health, and eating disorders. We introduce AutoLike, a framework to audit recommendation systems in social media platforms for topics of interest and their sentiments. To automate the process, we formulate the problem as a reinforcement learning problem. AutoLike drives the recommendation system to serve a particular type of content through interactions (e.g., liking). We apply the AutoLike framework to the TikTok platform as a case study. We evaluate how well AutoLike identifies TikTok content automatically across nine topics of interest; and conduct eight experiments to demonstrate how well it drives TikTok's recommendation system towards particular topics and sentiments. AutoLike has the potential to assist regulators in auditing recommendation systems for problematic content. (Warning: This paper contains qualitative examples that may be viewed as offensive or harmful.)
- Abstract(参考訳): TikTok、Facebook、YouTubeなどの現代のソーシャルメディアプラットフォームは、"For You"ページのような無限のコンテンツストリームとのユーザーインタラクションに基づいて、ユーザのコンテンツをパーソナライズするためのレコメンデーションシステムに依存している。
しかし、これらの複雑なアルゴリズムは、自傷病、メンタルヘルス、摂食障害に関連する問題のあるコンテンツを不注意に提供することができる。
興味のあるトピックや感情をソーシャルメディアプラットフォームで監査するフレームワークであるAutoLikeを紹介した。
プロセスを自動化するために、我々は強化学習問題として問題を定式化する。
AutoLikeはレコメンデーションシステムを駆動し、インタラクション(例えば、好み)を通じて特定のタイプのコンテンツを提供する。
ケーススタディとして,TikTokプラットフォームにAutoLikeフレームワークを適用した。
我々は、AutoLikeが興味のある9つのトピックで自動的にTikTokコンテンツを認識するかどうかを評価し、TikTokの推奨システムを特定のトピックや感情に対していかにうまく駆動するかを示す8つの実験を行った。
AutoLikeは、問題のあるコンテンツに対するレコメンデーションシステムの監査を規制当局に支援する可能性がある。
(ウォーニング)この論文には、攻撃的または有害と見なされる定性的な例が含まれている。)
関連論文リスト
- Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Conversational Agents to Facilitate Deliberation on Harmful Content in WhatsApp Groups [13.830408652480418]
WhatsAppグループは有害なコンテンツの拡散の温床となっている。
プラットフォームのエンドツーエンドの暗号化を考えると、モデレーションの責務はグループ管理者とメンバーにある。
WhatsAppグループにおける有害コンテンツに対する議論の促進における会話エージェントの役割について検討する。
論文 参考訳(メタデータ) (2024-05-30T17:07:07Z) - Learning about Data, Algorithms, and Algorithmic Justice on TikTok in Personally Meaningful Ways [5.797792274568239]
我々は、TikTokと関わり合う際に、若者が個々に意味のある方法でどのように学習するかについて異なる視点を提示する。
このアプリケーションは若者が相互に接続するためのグローバルな空間になっている。
我々は、TikTokがどのように機能するかを若者がどのように調査し、倫理とアルゴリズムの正義の問題を考慮し、プラットフォームに対する理解を利用して変化を提唱するかについて議論する。
論文 参考訳(メタデータ) (2024-05-24T11:07:48Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - What is wrong with you?: Leveraging User Sentiment for Automatic Dialog
Evaluation [73.03318027164605]
本稿では,次のユーザの発話から自動的に抽出できる情報をプロキシとして利用して,前のシステム応答の質を測定することを提案する。
本モデルは,実際のユーザおよび有償ユーザから収集した音声と書面の両方のオープンドメインダイアログコーパスを一般化する。
論文 参考訳(メタデータ) (2022-03-25T22:09:52Z) - An Empirical Investigation of Personalization Factors on TikTok [77.34726150561087]
TikTokのアルゴリズムがプラットフォームの成功とコンテンツの配布に重要であるにもかかわらず、アルゴリズムの実証的な分析はほとんど行われていない。
我々は,私たちが開発したカスタムアルゴリズムを用いたソック・パペット・監査手法を用いて,TikTokへのアクセスに使用される言語と位置情報の効果を検証,分析した。
その結果,フォローフェールが最も強い影響を受けており,ライクフェールやビデオ視聴率が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-28T17:40:00Z) - DepressionNet: A Novel Summarization Boosted Deep Framework for
Depression Detection on Social Media [12.820775223409857]
Twitterは、ユーザーが生成したコンテンツを共有できる人気のオンラインソーシャルメディアプラットフォームである。
応用の1つは、うつ病などの精神疾患を自動的に発見することである。
オンラインソーシャルメディア上で、抑うつされたユーザーを自動的に検出する以前の研究は、ユーザー行動と言語パターンに大きく依存している。
論文 参考訳(メタデータ) (2021-05-23T08:05:53Z) - DEUX: An Attribute-Guided Framework for Sociable Recommendation Dialog
Systems [43.329497326119935]
タスク上のコンテンツとソーシャルコンテンツの両方として実行するよう推奨ダイアログシステムにとって重要である。
従来のダイアログ状態追跡は、ソーシャルコンテンツの属性をトラッキングしないため、そのようなシステムには適用できない。
DEUXは、映画推奨タスクを達成しながら、より良いユーザーエクスペリエンスを作成するための新しい属性ガイドフレームワークです。
論文 参考訳(メタデータ) (2021-04-16T12:12:26Z) - On the Social and Technical Challenges of Web Search Autosuggestion
Moderation [118.47867428272878]
自動提案は通常、検索ログと文書表現のコーパスに基づいてトレーニングされた機械学習(ML)システムによって生成される。
現在の検索エンジンは、このような問題のある提案を抑えるのに、ますます熟練している。
問題のある提案のいくつかの側面、パイプラインに沿った困難な問題、そしてWeb検索を超えたアプリケーションの増加になぜ私たちの議論が適用されるのかについて論じる。
論文 参考訳(メタデータ) (2020-07-09T19:22:00Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。