論文の概要: Towards Robust and Generalizable Training: An Empirical Study of Noisy
Slot Filling for Input Perturbations
- arxiv url: http://arxiv.org/abs/2310.03518v1
- Date: Thu, 5 Oct 2023 12:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:12:56.923425
- Title: Towards Robust and Generalizable Training: An Empirical Study of Noisy
Slot Filling for Input Perturbations
- Title(参考訳): ロバストと一般化可能なトレーニングに向けて:入力摂動に対する雑音性スロット充満の実証的研究
- Authors: Jiachi Liu, Liwen Wang, Guanting Dong, Xiaoshuai Song, Zechen Wang,
Zhengyang Wang, Shanglin Lei, Jinzheng Zhao, Keqing He, Bo Xiao, Weiran Xu
- Abstract要約: スロット充足作業のためのノイズ-SFというノイズロバスト性評価データセットを提案する。
提案するデータセットには,5種類の人称アノテートノイズが含まれている。
ベースラインモデルはロバスト性評価において性能が劣ることがわかった。
- 参考スコア(独自算出の注目度): 38.766702041991046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real dialogue scenarios, as there are unknown input noises in the
utterances, existing supervised slot filling models often perform poorly in
practical applications. Even though there are some studies on noise-robust
models, these works are only evaluated on rule-based synthetic datasets, which
is limiting, making it difficult to promote the research of noise-robust
methods. In this paper, we introduce a noise robustness evaluation dataset
named Noise-SF for slot filling task. The proposed dataset contains five types
of human-annotated noise, and all those noises are exactly existed in real
extensive robust-training methods of slot filling into the proposed framework.
By conducting exhaustive empirical evaluation experiments on Noise-SF, we find
that baseline models have poor performance in robustness evaluation, and the
proposed framework can effectively improve the robustness of models. Based on
the empirical experimental results, we make some forward-looking suggestions to
fuel the research in this direction. Our dataset Noise-SF will be released at
https://github.com/dongguanting/Noise-SF.
- Abstract(参考訳): 実際の対話シナリオでは、発話中に未知の入力ノイズがあるため、既存の教師付きスロット充填モデルは実用的な用途では性能が悪いことが多い。
ノイズロバストモデルに関する研究はいくつかあるが、これらの研究はルールベースの合成データセットでのみ評価されるため、ノイズロバスト法の研究を促進することは困難である。
本稿では,スロット充填作業のためのノイズロバスト性評価データセットである noise-sf を提案する。
提案したデータセットには,5種類の有意なノイズが含まれており,これらすべてのノイズは,提案フレームワークへのスロットフィリングの本格的な頑健な学習方法に正確に存在している。
ノイズ-SFの実験的評価実験により, ベースラインモデルはロバスト性評価において性能が劣り, 提案フレームワークはモデルのロバスト性を効果的に向上できることがわかった。
実験結果をもとに,この方向の研究を加速するために,先見的な提案を行う。
当社のデータセットであるNoss-SFはhttps://github.com/dongguanting/Noise-SFで公開される予定です。
関連論文リスト
- Dataset Distillers Are Good Label Denoisers In the Wild [16.626153947696743]
ノイズ除去にデータセット蒸留を利用する新しい手法を提案する。
本手法は,既存の手法に共通するフィードバックループを回避し,訓練効率を向上させる。
各種ノイズ条件下での3つの代表的なデータセット蒸留法(DATM, DANCE, RCIG)を厳格に評価した。
論文 参考訳(メタデータ) (2024-11-18T06:26:41Z) - Towards Robust Transcription: Exploring Noise Injection Strategies for Training Data Augmentation [55.752737615873464]
本研究では,SNR(Signal-to-Noise Ratio)レベルにおける白色雑音の影響について検討した。
この研究は、様々な音環境における一貫した性能を維持する転写モデルの開発に向けた予備的な研究として、貴重な洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2024-10-18T02:31:36Z) - Effective Noise-aware Data Simulation for Domain-adaptive Speech Enhancement Leveraging Dynamic Stochastic Perturbation [25.410770364140856]
クロスドメイン音声強調(SE)は、目に見えない対象領域におけるノイズや背景情報の不足により、しばしば深刻な課題に直面している。
本研究では,ノイズ抽出技術とGANを利用した新しいデータシミュレーション手法を提案する。
本研究では,動的摂動の概念を導入し,制御された摂動を推論中の雑音埋め込みに注入する。
論文 参考訳(メタデータ) (2024-09-03T02:29:01Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - Realistic Noise Synthesis with Diffusion Models [68.48859665320828]
Deep Image Denoisingモデルは、しばしば高品質なパフォーマンスのために大量のトレーニングデータに依存します。
本稿では,拡散モデル,すなわちRealistic Noise Synthesize Diffusor(RNSD)を用いて現実的な雑音を合成する新しい手法を提案する。
RNSDは、より現実的なノイズや空間的相関を複数の周波数で生成できるような、ガイド付きマルチスケールコンテンツを組み込むことができる。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Analysing the Noise Model Error for Realistic Noisy Label Data [14.766574408868806]
本研究では,ノイズモデルの予測誤差を導出して,理論的な側面から推定ノイズモデルの品質について検討する。
NLPドメインから新たなノイズラベルデータセットであるNoisyNERも公開しています。
論文 参考訳(メタデータ) (2021-01-24T17:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。