論文の概要: From Disfluency Detection to Intent Detection and Slot Filling
- arxiv url: http://arxiv.org/abs/2209.08359v1
- Date: Sat, 17 Sep 2022 16:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:34:01.158506
- Title: From Disfluency Detection to Intent Detection and Slot Filling
- Title(参考訳): 拡散検出から入射検出・スロット充満へ
- Authors: Mai Hoang Dao, Thinh Hung Truong, Dat Quoc Nguyen
- Abstract要約: PhoATISはベトナム語で流用するインテント検出とスロットフィリングデータセットを拡張し,文脈の相違を手作業で追加し,注釈を付ける。
我々は, 学習済み言語モデルに基づく, 強いベースラインを用いて, 拡散検出, 共同意図検出, スロット充填を行う実験を行った。
i)下流の意図検出とスロット充足タスクのパフォーマンスに負の影響を及ぼし、(ii)分散コンテキストにおいて、事前学習された多言語言語モデルXLM-Rは、事前学習された単言語モデルPhoよりも優れた意図検出とスロット充足パフォーマンスをもたらす。
- 参考スコア(独自算出の注目度): 12.289620439224839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first empirical study investigating the influence of
disfluency detection on downstream tasks of intent detection and slot filling.
We perform this study for Vietnamese -- a low-resource language that has no
previous study as well as no public dataset available for disfluency detection.
First, we extend the fluent Vietnamese intent detection and slot filling
dataset PhoATIS by manually adding contextual disfluencies and annotating them.
Then, we conduct experiments using strong baselines for disfluency detection
and joint intent detection and slot filling, which are based on pre-trained
language models. We find that: (i) disfluencies produce negative effects on the
performances of the downstream intent detection and slot filling tasks, and
(ii) in the disfluency context, the pre-trained multilingual language model
XLM-R helps produce better intent detection and slot filling performances than
the pre-trained monolingual language model PhoBERT, and this is opposite to
what generally found in the fluency context.
- Abstract(参考訳): インテント検出とスロット充填の下流作業における拡散検出の影響について,最初の実証的研究を行った。
この研究はベトナムの低リソース言語で、これまでの研究は行わず、拡散検出のためのパブリックデータセットも持っていません。
まず,ベトナム語で流布したインテント検出とスロット充足データセットPhoATISを,手動でコンテキスト不一致を加えて注釈付けすることで拡張する。
次に, 事前学習した言語モデルに基づいて, 不流動性検出と統合意図検出, スロット充填のための強力なベースラインを用いた実験を行う。
私たちはそれを見つけました
一 下流の意図検出及びスロット充填作業の性能に不純物が悪影響を及ぼすこと。
(ii)不流動性文脈において、事前訓練された多言語モデル xlm-r は、事前訓練された単言語モデル phobert よりも、より良い意図検出とスロット充填性能を生み出すのに役立つ。
関連論文リスト
- Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method [108.56493934296687]
本研究では,乱数から発散する概念に触発された偏差に基づくキャリブレーション手法を導入し,プリトレーニングデータ検出のためのトークン確率のキャリブレーションを行う。
我々は,中国語テキスト上でのLLMの検出手法の性能を評価するために,中国語のベンチマークであるPatentMIAを開発した。
論文 参考訳(メタデータ) (2024-09-23T07:55:35Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Zero-shot Cross-lingual Stance Detection via Adversarial Language Adaptation [7.242609314791262]
本稿では,ゼロショット言語間スタンス検出,多言語翻訳拡張BERT (MTAB) に対する新しいアプローチを提案する。
本手法では,ゼロショット性能を向上させるために翻訳拡張を用い,モデルの有効性をさらに向上するために,対角学習と組み合わせる。
提案手法の有効性を実証し,強力なベースラインモデルと改良されたモデルとの比較を行った。
論文 参考訳(メタデータ) (2024-04-22T16:56:43Z) - A New Benchmark and Reverse Validation Method for Passage-level
Hallucination Detection [63.56136319976554]
大きな言語モデル(LLM)は幻覚を発生させ、ミッションクリティカルなタスクにデプロイすると大きなダメージを与える可能性がある。
本稿では,逆検証に基づく自己チェック手法を提案し,ゼロリソース方式で事実誤りを自動的に検出する。
提案手法と既存のゼロリソース検出手法を2つのデータセット上で実証的に評価した。
論文 参考訳(メタデータ) (2023-10-10T10:14:59Z) - Adapting the NICT-JLE Corpus for Disfluency Detection Models [9.90780328490921]
本稿では,NICT-JLEコーパスの拡散検出モデルトレーニングおよび評価に適した形式への適応について述べる。
NICT-JLE と Switchboard コーパスの相違点について検討し,タグセットとメタ機能への適応について概説した。
本研究の結果は,学習者音声の拡散検出に使用される標準列車,ホールドアウト,テストセットを提供する。
論文 参考訳(メタデータ) (2023-08-04T17:54:52Z) - Sample Efficient Approaches for Idiomaticity Detection [6.481818246474555]
本研究は, 慣用性検出の効率的な手法を探索する。
特に,いくつかの分類法であるPET(Pattern Exploit Training)と,文脈埋め込みの効率的な方法であるBERTRAM(BERTRAM)の影響について検討した。
実験の結果,PETは英語のパフォーマンスを向上するが,ポルトガル語やガリシア語では効果が低下し,バニラmBERTと同程度の総合的な性能が得られた。
論文 参考訳(メタデータ) (2022-05-23T13:46:35Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Auxiliary Sequence Labeling Tasks for Disfluency Detection [6.460424516393765]
本稿では,NERとPOSを補助的シーケンスラベリング(SL)タスクとして用い,不規則検出のための手法を提案する。
本稿では, 副SLタスクを用いた拡散検出モデルのトレーニングにより, 拡散検出におけるFスコアの向上が期待できることを示す。
広範に使われている英語スイッチボードデータセットによる実験結果から,本手法は拡散検出における従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-10-24T02:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。