論文の概要: Perplexed by Quality: A Perplexity-based Method for Adult and Harmful
Content Detection in Multilingual Heterogeneous Web Data
- arxiv url: http://arxiv.org/abs/2212.10440v1
- Date: Tue, 20 Dec 2022 17:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 15:49:09.347759
- Title: Perplexed by Quality: A Perplexity-based Method for Adult and Harmful
Content Detection in Multilingual Heterogeneous Web Data
- Title(参考訳): 品質に困惑した:多言語ヘテロジニアスwebデータにおける成人および有害コンテンツ検出のためのパープレキシティに基づく手法
- Authors: Tim Jansen, Yangling Tong, Victoria Zevallos, Pedro Ortiz Suarez
- Abstract要約: 我々は多言語不均一なWebデータにおいて、成人と有害なコンテンツを検出する様々な方法を探究する。
我々は、成人および有害なテキストデータのみを訓練し、与えられたしきい値以上の難易度値の文書を選択する。
このアプローチは、文書を事実上2つの異なるグループにクラスタリングし、パープレキシティのしきい値の選択を大幅に促進します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As demand for large corpora increases with the size of current
state-of-the-art language models, using web data as the main part of the
pre-training corpus for these models has become a ubiquitous practice. This, in
turn, has introduced an important challenge for NLP practitioners, as they are
now confronted with the task of developing highly optimized models and
pipelines for pre-processing large quantities of textual data, which implies,
effectively classifying and filtering multilingual, heterogeneous and noisy
data, at web scale. One of the main components of this pre-processing step for
the pre-training corpora of large language models, is the removal of adult and
harmful content. In this paper we explore different methods for detecting adult
and harmful of content in multilingual heterogeneous web data. We first show
how traditional methods in harmful content detection, that seemingly perform
quite well in small and specialized datasets quickly break down when confronted
with heterogeneous noisy web data. We then resort to using a perplexity based
approach but with a twist: Instead of using a so-called "clean" corpus to train
a small language model and then use perplexity so select the documents with low
perplexity, i.e., the documents that resemble this so-called "clean" corpus the
most. We train solely with adult and harmful textual data, and then select the
documents having a perplexity value above a given threshold. This approach will
virtually cluster our documents into two distinct groups, which will greatly
facilitate the choice of the threshold for the perplexity and will also allow
us to obtain higher precision than with the traditional classification methods
for detecting adult and harmful content.
- Abstract(参考訳): 大規模コーパスの需要が現在の最先端言語モデルのサイズとともに増大するにつれ、これらのモデルの事前学習コーパスの主要部分としてwebデータを使用することは、ユビキタスな実践となっている。
今や、大量のテキストデータを前処理するための高度に最適化されたモデルとパイプラインを開発するという課題に直面しており、これはWebスケールで多言語、異種、ノイズの多いデータを効果的に分類し、フィルタリングすることを意味している。
大規模言語モデルの事前学習コーパスにおけるこの前処理ステップの主な構成要素の1つは、成人および有害なコンテンツの削除である。
本稿では,多言語ヘテロジニアスwebデータにおける成人および有害コンテンツの検出方法について検討する。
まず, 有害コンテンツ検出における従来の手法が, 不均一な web データに直面すると, 小規模で特殊なデータセットで非常にうまく機能することを示す。
いわゆる"クリーン"コーパスを使用して小さな言語モデルをトレーニングし、パープレキシティを使用して低パープレキシティのドキュメントを選択する代わりに、このいわゆる"クリーン"コーパスに最もよく似たドキュメントを選択します。
我々は、成人および有害なテキストデータのみを訓練し、与えられた閾値を超える複雑な値の文書を選択する。
このアプローチは文書を2つの異なるグループに事実上クラスタ化することで、難易度に対するしきい値の選択を大幅に促進し、また、従来の成人および有害なコンテンツの検出方法よりも高い精度を得ることができる。
関連論文リスト
- Assessing In-context Learning and Fine-tuning for Topic Classification of German Web Data [3.2771631221674333]
トピック関連コンテンツの検出をバイナリ分類タスクとしてモデル化する。
トピックごとの注釈付きデータポイントはわずか数百で、ドイツの3つのポリシーに関連するコンテンツを検出する。
論文 参考訳(メタデータ) (2024-07-23T14:31:59Z) - Summarization-based Data Augmentation for Document Classification [16.49709049899731]
文書分類のための簡易かつ効果的な要約型データ拡張であるSUMMaugを提案する。
まず、対象文書分類タスクの学習が容易な例を示す。
次に、生成された擬似例を用いてカリキュラム学習を行う。
論文 参考訳(メタデータ) (2023-12-01T11:34:37Z) - Sieve: Multimodal Dataset Pruning Using Image Captioning Models [11.362835828985494]
Vision-Language Models (VLM) は、大規模で多様でノイズの多いWebcrawledデータセットで事前トレーニングされている。
提案手法は,CLIPがノイズラベルを事前学習しているため,偽陽性や陰性などの複数の制約を伴っていると論じる。
そこで我々は,小,多様,整列した画像テキストペア上で事前訓練された画像キャプションモデルによって生成された合成キャプションを用いたプルーニング信号Sieveを提案する。
論文 参考訳(メタデータ) (2023-10-03T14:53:53Z) - Curating corpora with classifiers: A case study of clean energy
sentiment online [0.0]
ソーシャルメディア投稿の大規模なコーパスには、幅広い世論が含まれている。
世論調査は、数日や数週間で実施し、世論を下ろすのに費用がかかる。
本稿では,解析用文書の最適コーパスを迅速に選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T18:15:45Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - What's in the Box? An Analysis of Undesirable Content in the Common
Crawl Corpus [77.34726150561087]
言語モデルの訓練に広く使用されるコロッサルwebコーパスであるcommon crawlを分析した。
ヘイトスピーチや性的明示的なコンテンツなど、フィルタリング処理後も、好ましくないコンテンツがかなりの量含まれていることがわかりました。
論文 参考訳(メタデータ) (2021-05-06T14:49:43Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - WAC: A Corpus of Wikipedia Conversations for Online Abuse Detection [0.0]
本稿では,ウィキペディアのコメントコーパスに基づいて,異なるタイプのコメントレベルアノテーションを用いた独自のフレームワークを提案する。
380k以上の注釈付きメッセージからなるこの大規模なコーパスは、オンライン不正検出、特にコンテキストベースのアプローチに対する視点を開放する。
また、このコーパスに加えて、コンテンツ乱用検出の問題に関する科学的研究を刺激し、適切に比較するための完全なベンチマークプラットフォームも提案する。
論文 参考訳(メタデータ) (2020-03-13T10:26:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。