論文の概要: The Importance of Human-Labeled Data in the Era of LLMs
- arxiv url: http://arxiv.org/abs/2306.14910v1
- Date: Sun, 18 Jun 2023 12:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-02 13:27:13.586086
- Title: The Importance of Human-Labeled Data in the Era of LLMs
- Title(参考訳): llms時代におけるヒューマンラベルデータの重要性
- Authors: Yang Liu
- Abstract要約: 大規模言語モデル(LLM)の出現は、カスタマイズされた機械学習モデルの開発に革命をもたらした。
LLMの訓練と実施によって促進される自動化は、人間レベルのラベリング介入が、教師付き学習の時代と同じレベルの重要さをもはや持たないという議論や願望につながった。
- 参考スコア(独自算出の注目度): 6.2646642083846436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of large language models (LLMs) has brought about a revolution in
the development of tailored machine learning models and sparked debates on
redefining data requirements. The automation facilitated by the training and
implementation of LLMs has led to discussions and aspirations that human-level
labeling interventions may no longer hold the same level of importance as in
the era of supervised learning. This paper presents compelling arguments
supporting the ongoing relevance of human-labeled data in the era of LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現は、カスタマイズされた機械学習モデルの開発に革命をもたらし、データ要件の再定義に関する議論を引き起こした。
LLMの訓練と実施によって促進される自動化は、人間レベルのラベリング介入が、教師付き学習の時代と同じレベルの重要さをもはや持たないという議論や願望につながった。
本稿では LLM 時代における人間ラベルデータの継続的な関連性を支持する説得力のある議論について述べる。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Unmemorization in Large Language Models via Self-Distillation and
Deliberate Imagination [58.36408867180233]
大規模言語モデル(LLM)は、プライバシー侵害や機密データの不要な露出といった重要な問題に苦慮している。
我々は、LLMアンラーニングの文脈において、意図的な想像力という新しいアプローチを導入する。
本研究は,異なるモデルとサイズにまたがるこのアプローチの有用性を示し,パラメータ効率の良い微調整を行った。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Rethinking Machine Unlearning for Large Language Models [87.85043572895296]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Continual Learning for Large Language Models: A Survey [95.79977915131145]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。
本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-02-02T12:34:09Z) - FreeAL: Towards Human-Free Active Learning in the Era of Large Language
Models [21.88032973150393]
大規模言語モデル(LLM)からのタスク固有知識の対話的蒸留とフィルタリング
8つのベンチマークデータセットの実験では、FreeALは人間の監督なしに、SLMとLLMのゼロショット性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-27T08:23:08Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。