論文の概要: Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning
- arxiv url: http://arxiv.org/abs/2310.03400v2
- Date: Thu, 7 Mar 2024 12:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:45:25.239538
- Title: Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning
- Title(参考訳): コンテンツモデレーションに大規模言語モデルを適用する - データエンジニアリングと教師付き微調整の落とし穴-
- Authors: Huan Ma, Changqing Zhang, Huazhu Fu, Peilin Zhao, Bingzhe Wu
- Abstract要約: 大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
- 参考スコア(独自算出の注目度): 79.53130089003986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, billions of people engage in communication and express their
opinions on the internet daily. Unfortunately, not all of these expressions are
friendly or compliant, making content moderation an indispensable task. A
common approach is to use a discriminative model to classify the content, but
this method often requires strict data engineering, otherwise it will face
unacceptable overfitting. With the successful development of Large Language
Models (LLMs) in recent years, LLM-based methods have become a feasible
solution for handling tasks in various domains. Thanks to the knowledge of the
foundation models, we can develop more robust privately deployed models with
limited data via fine-tuning these foundation models. Moreover, as a generative
model, it can provide detailed analysis of the review process, enhancing
interpretability. In this paper, we introduce how to fine-tune a LLM model that
can be privately deployed for content moderation. Specifically, we discuss the
differences between discriminative and generative models using content
moderation as an example. Additionally, we reveal that incorporating reasoning
processes during the fine-tuning of LLMs can effectively alleviate overfitting,
even if the model is not allowed to directly output reasoning processes during
deployment. We present a complete process, from data collection and
construction to model training and overfitting elimination, for fine-tuning
LLMs in vertical domain deployments. We report the entire research process and
the key findings in this paper, hoping to provide valuable experience for
researchers who are fine-tuning privately deployed models in their
domain-specific research.
- Abstract(参考訳): 今日では何十億という人々がコミュニケーションに携わり、毎日インターネット上で意見を表明している。
残念なことに、これらすべての表現は友好的あるいは準拠的であり、コンテンツモデレーションは必須のタスクである。
一般的なアプローチは、コンテンツを分類するために差別モデルを使用することであるが、この方法は厳密なデータエンジニアリングを必要とすることが多い。
近年、LLM(Large Language Models)の開発が成功し、LLMベースの手法が様々な分野のタスクを扱うための実現可能なソリューションとなった。
ファンデーションモデルの知識のおかげで、これらのファンデーションモデルを微調整することで、限られたデータでより堅牢なプライベートデプロイモデルを開発することができます。
さらに、生成モデルとして、レビュープロセスの詳細な分析を提供し、解釈可能性を高めることができる。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
具体的には、コンテンツモデレーションを例として、識別モデルと生成モデルの違いについて論じる。
さらに,LLMの微調整中に推論プロセスを組み込むことで,モデルが配置中に推論プロセスを直接出力できない場合でも,オーバーフィッティングを効果的に軽減できることを明らかにした。
データ収集や構築からモデルトレーニングやオーバーフィッティング除去まで,垂直領域展開における微調整 LLM の完全なプロセスを提案する。
本論文では,研究プロセス全体と重要な成果を報告し,ドメイン固有の研究にプライベートにデプロイされたモデルを微調整している研究者に貴重な経験を提供することを期待する。
関連論文リスト
- Can Large Language Models Learn Independent Causal Mechanisms? [9.950033005734165]
大きな言語モデル(LLM)は、一般的でない設定や分散シフトで同じタスクで不足する。
我々は,複数の疎相互作用言語モデリングモジュールからなる新しいLLMアーキテクチャを開発した。
このような因果的制約は、抽象的および因果的推論タスクにおけるアウト・オブ・ディストリビューション性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-04T23:04:02Z) - Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large
Language Models [11.57282859281814]
異なる知識レベルと属性戦略を考慮し、最良の方法で10の微調整されたモデルのうち8つを正確に追跡できることに気付きます。
論文 参考訳(メタデータ) (2023-06-15T17:42:48Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - CALM: Continuous Adaptive Learning for Language Modeling [18.72860206714457]
自然言語処理コミュニティでは,大規模言語表現モデルのトレーニングが標準となっている。
これらの事前学習モデルが破滅的忘れという形で性能劣化を示すことを示す。
言語モデリングのための継続的適応学習CALM:複数のドメインにまたがる知識を保持するモデルをレンダリングする手法を提案する。
論文 参考訳(メタデータ) (2020-04-08T03:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。