論文の概要: SLM-Mod: Small Language Models Surpass LLMs at Content Moderation
- arxiv url: http://arxiv.org/abs/2410.13155v1
- Date: Thu, 17 Oct 2024 02:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:20:19.053578
- Title: SLM-Mod: Small Language Models Surpass LLMs at Content Moderation
- Title(参考訳): SLM-Mod: コンテンツモデレーションにおけるLLMを超越した小言語モデル
- Authors: Xianyang Zhan, Agam Goyal, Yilun Chen, Eshwar Chandrasekharan, Koustuv Saha,
- Abstract要約: 大規模言語モデル(LLM)は、コンテンツモデレーションを含む多くの自然言語理解タスクにおいて有望であることを示している。
コミュニティ固有のコンテンツモデレーションタスクにおいて,SLM(Small Language Model)のオープンソース利用について検討する。
15のRedditコミュニティからの150万のコメントを使って、SLMはコンテンツモデレーションにおいてLLMよりも優れています。
- 参考スコア(独自算出の注目度): 13.759689015188698
- License:
- Abstract: Large language models (LLMs) have shown promise in many natural language understanding tasks, including content moderation. However, these models can be expensive to query in real-time and do not allow for a community-specific approach to content moderation. To address these challenges, we explore the use of open-source small language models (SLMs) for community-specific content moderation tasks. We fine-tune and evaluate SLMs (less than 15B parameters) by comparing their performance against much larger open- and closed-sourced models. Using 150K comments from 15 popular Reddit communities, we find that SLMs outperform LLMs at content moderation -- 11.5% higher accuracy and 25.7% higher recall on average across all communities. We further show the promise of cross-community content moderation, which has implications for new communities and the development of cross-platform moderation techniques. Finally, we outline directions for future work on language model based content moderation. Code and links to HuggingFace models can be found at https://github.com/AGoyal0512/SLM-Mod.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテンツモデレーションを含む多くの自然言語理解タスクにおいて有望であることを示している。
しかし、これらのモデルはリアルタイムにクエリするのに高価であり、コンテンツモデレーションに対するコミュニティ固有のアプローチを許さない。
これらの課題に対処するために、コミュニティ固有のコンテンツモデレーションタスクにオープンソースのSLM(Small Language Model)の使用について検討する。
我々は、より大規模なオープンソースモデルとクローズドソースモデルを比較して、SLM(15Bパラメータ未満)を微調整し、評価する。
15のRedditコミュニティからの150Kコメントを使用して、SLMはコンテンツモデレーションにおいてLLMよりも11.5%高い精度で、すべてのコミュニティで平均25.7%高いリコールを達成している。
また,新たなコミュニティに影響を及ぼすクロスコミュニティコンテンツモデレーションの約束と,クロスプラットフォームモデレーション技術の開発について述べる。
最後に,言語モデルに基づくコンテンツモデレーションの今後の取り組みについて概説する。
HuggingFaceモデルへのコードとリンクはhttps://github.com/AGoyal0512/SLM-Modにある。
関連論文リスト
- Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - The Curious Case of Nonverbal Abstract Reasoning with Multi-Modal Large Language Models [19.213774611556]
MLLM(Multi-modal large language model)は、言語情報と視覚情報を統合したものである。
MLLMの革新的展望にもかかわらず、推論能力に対する我々の理解は限られている。
本研究では,オープンソースおよびクローズドソースMLLMの非言語的抽象的推論能力を評価する。
論文 参考訳(メタデータ) (2024-01-22T16:57:05Z) - The Ups and Downs of Large Language Model Inference with Vocabulary Trimming by Language Heuristics [74.99898531299148]
本研究は,興味のある言語への埋め込みエントリを制限し,時間と記憶効率を高めることによる語彙トリミング(VT)について検討する。
Unicodeベースのスクリプトフィルタリングとコーパスベースの選択という2つの言語を異なる言語ファミリやサイズに適用する。
その結果、VTは小型モデルのメモリ使用量を50%近く削減し、生成速度が25%向上した。
論文 参考訳(メタデータ) (2023-11-16T09:35:50Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - On the Safety of Open-Sourced Large Language Models: Does Alignment
Really Prevent Them From Being Misused? [49.99955642001019]
オープンソースでアライメントされた大きな言語モデルは、望ましくないコンテンツを生成するために簡単に誤解される可能性があることを示す。
我々のキーとなる考え方は、オープンソースLLMの生成プロセスを直接操作して、望ましくないコンテンツを生成するのを誤解することです。
論文 参考訳(メタデータ) (2023-10-02T19:22:01Z) - Watch Your Language: Investigating Content Moderation with Large
Language Models [5.306187298781318]
大規模言語モデル(LLM)は、様々な自然言語タスクを実行する能力によって、人気が高まっている。
我々は,ルールベースのコミュニティ・モデレーションと有害なコンテンツ検出という2つの共通コンテンツモデレーションタスクにおいて,コモディティLLMのスイートを評価する。
論文 参考訳(メタデータ) (2023-09-25T20:23:51Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z) - Masked Part-Of-Speech Model: Does Modeling Long Context Help
Unsupervised POS-tagging? [94.68962249604749]
フレキシブルな依存性モデリングを容易にするために,MPoSM(Masked Part-of-Speech Model)を提案する。
MPoSMは任意のタグ依存をモデル化し、マスクされたPOS再構成の目的を通じてPOS誘導を行うことができる。
英語のPenn WSJデータセットと10の多様な言語を含むユニバーサルツリーバンクの競合的な結果を得た。
論文 参考訳(メタデータ) (2022-06-30T01:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。