論文の概要: QUEST: Queue Simulation for Content Moderation at Scale
- arxiv url: http://arxiv.org/abs/2103.16816v1
- Date: Wed, 31 Mar 2021 05:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 02:24:47.852320
- Title: QUEST: Queue Simulation for Content Moderation at Scale
- Title(参考訳): QUEST: 大規模コンテンツモデレーションのためのキューシミュレーション
- Authors: Rahul Makhijani, Parikshit Shah, Vashist Avadhanula, Caner Gocmen,
Nicol\'as E. Stier-Moses, Juli\'an Mestre
- Abstract要約: Facebookなどの大手プラットフォームでは、数千人のレビュアーによるプラットフォームコンテンツの手作業によるレビューと機械学習をブレンドしている。
待ち行列理論とシミュレーションのアイデアを用いて,このようなレビューシステムを大規模に最適に運用する問題を検討する。
- 参考スコア(独自算出の注目度): 2.634250827781387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moderating content in social media platforms is a formidable challenge due to
the unprecedented scale of such systems, which typically handle billions of
posts per day. Some of the largest platforms such as Facebook blend machine
learning with manual review of platform content by thousands of reviewers.
Operating a large-scale human review system poses interesting and challenging
methodological questions that can be addressed with operations research
techniques. We investigate the problem of optimally operating such a review
system at scale using ideas from queueing theory and simulation.
- Abstract(参考訳): ソーシャルメディアプラットフォームにおけるコンテンツのモデレーションは、通常毎日何十億もの投稿を処理する、前例のない規模のシステムのために、非常に難しい課題である。
Facebookなどの大手プラットフォームでは、数千人のレビュアーによるプラットフォームコンテンツの手作業によるレビューと機械学習をブレンドしている。
大規模な人間レビューシステムの運用は、オペレーションリサーチ技術で対処できる、興味深い、そして困難な方法論的な疑問を呈する。
本稿では,待ち行列理論とシミュレーションのアイデアを用いて,大規模レビューシステムを最適に運用する問題を検討する。
関連論文リスト
- MM-Soc: Benchmarking Multimodal Large Language Models in Social Media
Platforms [27.610607218826157]
本稿では,マルチモーダル大規模言語モデルによるソーシャルメディアコンテンツの理解を評価するためのベンチマークであるMM-Socを紹介する。
MM-Socは、注目すべきマルチモーダルデータセットをコンパイルし、新しい大規模なYouTubeタグ付けデータセットを組み込む。
我々は,モデルの社会的理解能力の向上の必要性を浮き彫りにして,重要な性能格差を特定した。
論文 参考訳(メタデータ) (2024-02-21T22:27:40Z) - MMBench: Is Your Multi-modal Model an All-around Player? [117.53230227207521]
大規模な視覚言語モデルを評価する方法は依然として大きな障害であり、将来のモデル開発を妨げる。
従来のベンチマークは、定量的なパフォーマンス測定を提供するが、きめ細かい能力評価と非破壊評価の指標が欠如している。
近年のOwlEvalのような主観的ベンチマークは、人間の労働を取り入れたモデル能力の包括的な評価を提供するが、それらはスケーラブルではなく、重大なバイアスを示す。
MMBenchは、視覚言語モデルの様々な能力を頑健に評価するための、体系的に設計された客観的ベンチマークである。
論文 参考訳(メタデータ) (2023-07-12T16:23:09Z) - User Simulation for Evaluating Information Access Systems [48.33512411880656]
インタラクティブな知能システムの有効性を評価することは 複雑な科学的課題です
本書は,評価に特化して設計されたユーザシミュレーション技術について,詳細な理解を提供する。
ユーザシミュレータを設計するための一般的なフレームワークと、検索エンジン、レコメンダシステム、会話アシスタントとのユーザインタラクションをシミュレートする特定のモデルとアルゴリズムの両方をカバーする。
論文 参考訳(メタデータ) (2023-06-14T14:54:06Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - HardVis: Visual Analytics to Handle Instance Hardness Using
Undersampling and Oversampling Techniques [74.09665819220567]
HardVisは、主に不均衡な分類シナリオでインスタンスの硬さを処理するために設計されたビジュアル分析システムである。
ユーザはさまざまな視点からデータのサブセットを探索して、これらのパラメータをすべて決定できる。
HardVisの有効性と有効性は仮説的利用シナリオとユースケースで実証される。
論文 参考訳(メタデータ) (2022-03-29T17:04:16Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - Recommendation System Simulations: A Discussion of Two Key Challenges [0.0]
シミュレーションは、レコメンデーションシステムが個人や社会に与える影響を理解するための道を提供する。
本稿では、まず、推奨項目を選択したり、関わったりするためのモデルを定義し、次に、プラットフォームから直接推奨されない項目に遭遇するためのメカニズムを定義します。
論文 参考訳(メタデータ) (2021-08-25T15:11:38Z) - On the Social and Technical Challenges of Web Search Autosuggestion
Moderation [118.47867428272878]
自動提案は通常、検索ログと文書表現のコーパスに基づいてトレーニングされた機械学習(ML)システムによって生成される。
現在の検索エンジンは、このような問題のある提案を抑えるのに、ますます熟練している。
問題のある提案のいくつかの側面、パイプラインに沿った困難な問題、そしてWeb検索を超えたアプリケーションの増加になぜ私たちの議論が適用されるのかについて論じる。
論文 参考訳(メタデータ) (2020-07-09T19:22:00Z) - A Survey of Machine Learning Methods and Challenges for Windows Malware
Classification [43.4550536920809]
調査は、マルウェア問題に機械学習を適用する方法についてより詳しく学びたいサイバーセキュリティ実践者や、データサイエンティストにこの独特な複雑な領域における課題に対する必要な背景を提供することの両方に有用である。
論文 参考訳(メタデータ) (2020-06-15T17:46:12Z) - Large-scale Hybrid Approach for Predicting User Satisfaction with
Conversational Agents [28.668681892786264]
ユーザの満足度を測定することは難しい課題であり、大規模な会話エージェントシステムの開発において重要な要素である。
人間のアノテーションに基づくアプローチは簡単に制御できるが、スケールするのは難しい。
新たなアプローチとして,会話エージェントシステムに埋め込まれたフィードバック誘導システムを通じて,ユーザの直接的なフィードバックを収集する手法がある。
論文 参考訳(メタデータ) (2020-05-29T16:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。