論文の概要: Fine-tuning with HED-IT: The impact of human post-editing for dialogical language models
- arxiv url: http://arxiv.org/abs/2406.07288v1
- Date: Tue, 11 Jun 2024 14:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:44:22.888556
- Title: Fine-tuning with HED-IT: The impact of human post-editing for dialogical language models
- Title(参考訳): HED-ITを用いた微調整:対話型言語モデルにおける人間の後編集の影響
- Authors: Daniela Occhipinti, Michele Marchi, Irene Mondella, Huiyuan Lai, Felice Dell'Orletta, Malvina Nissim, Marco Guerini,
- Abstract要約: 微調整ダイアログモデルにおける人間の介入が機械生成データに与える影響について検討する。
その結果、トレーニングデータの異なる品質が明確に認識され、そのようなデータでトレーニングされたモデルにも影響を及ぼすことが示された。
- 参考スコア(独自算出の注目度): 20.73194678992831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic methods for generating and gathering linguistic data have proven effective for fine-tuning Language Models (LMs) in languages less resourced than English. Still, while there has been emphasis on data quantity, less attention has been given to its quality. In this work, we investigate the impact of human intervention on machine-generated data when fine-tuning dialogical models. In particular, we study (1) whether post-edited dialogues exhibit higher perceived quality compared to the originals that were automatically generated; (2) whether fine-tuning with post-edited dialogues results in noticeable differences in the generated outputs; and (3) whether post-edited dialogues influence the outcomes when considering the parameter size of the LMs. To this end we created HED-IT, a large-scale dataset where machine-generated dialogues are paired with the version post-edited by humans. Using both the edited and unedited portions of HED-IT, we fine-tuned three different sizes of an LM. Results from both human and automatic evaluation show that the different quality of training data is clearly perceived and it has an impact also on the models trained on such data. Additionally, our findings indicate that larger models are less sensitive to data quality, whereas this has a crucial impact on smaller models. These results enhance our comprehension of the impact of human intervention on training data in the development of high-quality LMs.
- Abstract(参考訳): 言語データの自動生成と収集は、英語に劣る言語における微調整言語モデル(LM)に有効であることが証明されている。
それでも、データ量に重点を置いているものの、その品質にはあまり注意が払われていない。
本研究では,人間の介入が微調整ダイアログモデルにおける機械生成データに与える影響について検討する。
特に,(1)編集後対話が自動生成した原文と比較して高い品質を示すか否か,(2)編集後対話による微調整が生成した出力に顕著な差をもたらすか否か,(3)編集後対話がLMのパラメータサイズを考慮した結果に影響を及ぼすかどうかを検討する。
この目的のために私たちは、機械生成対話を人間によって後編集されたバージョンと組み合わせた大規模なデータセットであるHED-ITを作成しました。
HED-ITの編集部と未編集部の両方を用いて,3種類のLMサイズを微調整した。
人的・自動的な評価の結果から、トレーニングデータの異なる品質が明確に認識され、そのようなデータに基づいてトレーニングされたモデルにも影響を及ぼすことが示された。
さらに,より大規模なモデルではデータ品質に敏感でないことが示唆された。
これらの結果は、高品質なLMの開発において、人間の介入がトレーニングデータに与える影響の理解を深めるものである。
関連論文リスト
- Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - A Multilingual Evaluation of NER Robustness to Adversarial Inputs [0.0]
言語モデルの敵対的評価は典型的には英語のみに焦点をあてる。
本稿では,入力中の小さな摂動に対する頑健性の観点から,名前付きエンティティ認識(NER)の多言語評価を行った。
既存のNERモデルに適応するために,新たなNERモデルをトレーニングするための強化トレーニングデータとして,生成した逆数データセットの一部を用いて既存のNERモデルを改善することが可能か,あるいは微調整データとして検討した。
論文 参考訳(メタデータ) (2023-05-30T10:50:49Z) - Analysing the Impact of Audio Quality on the Use of Naturalistic
Long-Form Recordings for Infant-Directed Speech Research [62.997667081978825]
早期言語習得のモデリングは、幼児が言語スキルをブートストラップする方法を理解することを目的としている。
近年の進歩により、より自然主義的なトレーニングデータを計算モデルに利用できるようになった。
音質がこれらのデータに対する分析やモデリング実験にどう影響するかは、現時点では不明である。
論文 参考訳(メタデータ) (2023-05-03T08:25:37Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - An Empirical Study of Automatic Post-Editing [56.86393786396992]
APEは、機械翻訳出力のエラーを自動的に修正することで、手作業による後処理の労力を削減することを目的としている。
真のトレーニングデータの不足を軽減するため、現在のAPEシステムの多くは、大規模な人工コーパスを生成するためにデータ拡張手法を採用している。
本研究では,既存のAPEシステムにおける問題点を解析するために,難解なAPEデータセット上での最先端のAPEモデルの出力について検討する。
論文 参考訳(メタデータ) (2022-09-16T07:38:27Z) - The Impact of Data Corruption on Named Entity Recognition for
Low-resourced Languages [0.10641561702689348]
データ可用性と品質は、低リソース言語の自然言語処理において大きな課題である。
低リソース環境における事前学習言語モデルの性能に及ぼすデータ量と品質の影響を計測する。
論文 参考訳(メタデータ) (2022-08-09T07:15:20Z) - GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate
Degradation of Artificial Neural Language Models [7.8430387435520625]
一般英語テキストで事前学習したTransformer DLモデル(GPT-2)を,人工劣化版(GPT-D)と組み合わせて提案する手法を提案する。
この手法は、広く使われている「Cookie Theft」画像記述タスクから得られたテキストデータに対する最先端のパフォーマンスにアプローチする。
本研究は, 生成型ニューラル言語モデルの内部動作, 生成する言語, 認知症が人間の発話や言語特性に与える影響について, より深く理解するためのステップである。
論文 参考訳(メタデータ) (2022-03-25T00:25:42Z) - On the Importance of Data Size in Probing Fine-tuned Models [18.69409646532038]
符号化された言語知識の程度は、微調整サンプルの数に依存することを示す。
我々は、微調整データサイズがモデルの言語知識に対する変更の回復可能性に影響を及ぼす一連の実験を通して示す。
論文 参考訳(メタデータ) (2022-03-17T21:45:17Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - AuGPT: Dialogue with Pre-trained Language Models and Data Augmentation [0.0]
言語モデルファインタニングのための改良された学習目標を提案する。
我々は、トレーニングデータの多様性を高めるために、バックトランスレーションによる大規模なデータ拡張を採用している。
提案モデルは,MultiWOZデータ上での最先端性能を実現し,人間の評価における競合性能を示す。
論文 参考訳(メタデータ) (2021-02-09T20:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。