論文の概要: Scaling Up LLM Reviews for Google Ads Content Moderation
- arxiv url: http://arxiv.org/abs/2402.14590v1
- Date: Wed, 7 Feb 2024 23:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 16:43:39.726928
- Title: Scaling Up LLM Reviews for Google Ads Content Moderation
- Title(参考訳): Google AdsコンテンツモデレーションのためのLCMレビューのスケールアップ
- Authors: Wei Qiao, Tushar Dogra, Otilia Stretcu, Yu-Han Lyu, Tiantian Fang,
Dongjin Kwon, Chun-Ta Lu, Enming Luo, Yuan Wang, Chih-Chun Chia, Ariel
Fuxman, Fangzhou Wang, Ranjay Krishna, Mehmet Tek
- Abstract要約: 大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールであるが、その推論コストとレイテンシは、大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google Ads におけるコンテンツに対する LLM レビューのスケールアップ手法を提案する。
- 参考スコア(独自算出の注目度): 22.43127685744644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are powerful tools for content moderation, but
their inference costs and latency make them prohibitive for casual use on large
datasets, such as the Google Ads repository. This study proposes a method for
scaling up LLM reviews for content moderation in Google Ads. First, we use
heuristics to select candidates via filtering and duplicate removal, and create
clusters of ads for which we select one representative ad per cluster. We then
use LLMs to review only the representative ads. Finally, we propagate the LLM
decisions for the representative ads back to their clusters. This method
reduces the number of reviews by more than 3 orders of magnitude while
achieving a 2x recall compared to a baseline non-LLM model. The success of this
approach is a strong function of the representations used in clustering and
label propagation; we found that cross-modal similarity representations yield
better results than uni-modal representations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールだが、その推論コストとレイテンシは、Google Adsリポジトリのような大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google AdsにおけるコンテンツモデレーションのためのLCMレビューのスケールアップ手法を提案する。
まず、ヒューリスティックスを用いて、フィルタリングと重複除去によって候補を選定し、クラスタ毎に1つの代表広告を選択する広告のクラスタを作成する。
LLMを使って、代表広告のみをレビューします。
最後に、代表広告のllm決定を彼らのクラスタに伝達します。
この手法は,ベースラインの非LLMモデルと比較して2倍のリコールを実現しつつ,レビュー数を3桁以上削減する。
このアプローチの成功はクラスタリングやラベル伝搬に使用される表現の強い機能であり、クロスモーダルな類似性表現はユニモーダルな表現よりも優れた結果をもたらすことがわかった。
関連論文リスト
- SkillAggregation: Reference-free LLM-Dependent Aggregation [14.46141987797362]
大規模言語モデル(LLM)は、NLPタスクの評価にますます使用される。
最近の研究は、審査員が性能を向上させるために複数のLLMを使うことを示唆している。
この研究は、参照ラベルが使用できない複数のシステムからの予測を集約することに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-14T07:13:47Z) - Paraphrase and Aggregate with Large Language Models for Minimizing Intent Classification Errors [19.601600598570215]
大規模言語モデル(LLM)は,大規模な多クラス分類タスクにおいて高い性能を達成できるが,いまだに分類誤りを発生させ,さらに悪化させ,語彙外なクラスラベルを生成する。
本稿では、LLMが入力クエリ(並列クエリ)の複数のパラフレーズを生成するParaphrase and AGgregate (PAG)-LLMアプローチを提案する。
PAG-LLM は LLM が不確実なハードケースでは特に有効であり, 致命的誤分類と幻覚的ラベル生成誤差を低減させる。
論文 参考訳(メタデータ) (2024-06-24T22:30:26Z) - Show, Don't Tell: Aligning Language Models with Demonstrated Feedback [54.10302745921713]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Detecting Generated Native Ads in Conversational Search [33.5694271503764]
YouChatやMicrosoft Copilotといった会話型検索エンジンは、大きな言語モデル(LLM)を使用してクエリに対する応答を生成する。
同じテクノロジーが生成されたレスポンスに広告を挿入するのも、ほんの少しのステップにすぎない。
インサート広告は、ネイティブ広告やプロダクトの配置を思い出させるだろう。
論文 参考訳(メタデータ) (2024-02-07T14:22:51Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。