論文の概要: Design Considerations For Hypothesis Rejection Modules In Spoken
Language Understanding Systems
- arxiv url: http://arxiv.org/abs/2211.09711v1
- Date: Mon, 31 Oct 2022 21:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 13:59:17.552784
- Title: Design Considerations For Hypothesis Rejection Modules In Spoken
Language Understanding Systems
- Title(参考訳): 音声言語理解システムにおける仮説退避モジュールの設計考察
- Authors: Aman Alok, Rahul Gupta, Shankar Ananthakrishnan
- Abstract要約: 音声言語理解(SLU)システムは通常、SLU仮説を生成するために協調して動作する機械学習モデルからなる。
下流に送る前に誤った仮説を破棄することが望ましい。
本稿では,SLU仮説拒絶モジュールの2つの設計について述べる。
- 参考スコア(独自算出の注目度): 20.108139456417007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spoken Language Understanding (SLU) systems typically consist of a set of
machine learning models that operate in conjunction to produce an SLU
hypothesis. The generated hypothesis is then sent to downstream components for
further action. However, it is desirable to discard an incorrect hypothesis
before sending it downstream. In this work, we present two designs for SLU
hypothesis rejection modules: (i) scheme R1 that performs rejection on domain
specific SLU hypothesis and, (ii) scheme R2 that performs rejection on
hypothesis generated from the overall SLU system. Hypothesis rejection modules
in both schemes reject/accept a hypothesis based on features drawn from the
utterance directed to the SLU system, the associated SLU hypothesis and SLU
confidence score. Our experiments suggest that both the schemes yield similar
results (scheme R1: 2.5% FRR @ 4.5% FAR, scheme R2: 2.5% FRR @ 4.6% FAR), with
the best performing systems using all the available features. We argue that
while either of the rejection schemes can be chosen over the other, they carry
some inherent differences which need to be considered while making this choice.
Additionally, we incorporate ASR features in the rejection module (obtaining an
1.9% FRR @ 3.8% FAR) and analyze the improvements.
- Abstract(参考訳): 音声言語理解(SLU)システムは通常、SLU仮説を生成するために協調して動作する機械学習モデルからなる。
生成された仮説は、さらにアクションを起こすために下流のコンポーネントに送られる。
しかし、下流に送る前に誤った仮説を破棄することが望ましい。
本稿では,slu仮説拒絶モジュールの2つの設計について述べる。
(i)ドメイン固有SLU仮説の拒絶を行うスキームR1及び
(ii)全体SLUシステムから生成された仮説を拒絶するスキームR2。
両方のスキームにおける仮説拒絶モジュールは、SLUシステムに向けられた発話、関連するSLU仮説、およびSLU信頼スコアから引き出された特徴に基づいて仮説を拒絶/受容する。
実験の結果、どちらの方式も類似した結果(スキーマR1: 2.5% FRR @ 4.5% FAR、スキームR2: 2.5% FRR @ 4.6% FAR)が得られることが示唆された。
いずれかの拒絶スキームは他方で選択できるが、この選択をしながら考慮する必要がある固有の相違がいくつかあると我々は論じる。
さらに、ASR機能をリジェクションモジュール(1.9% FRR @ 3.8% FAR)に組み込んで、改善点を分析します。
関連論文リスト
- Smoothness Adaptive Hypothesis Transfer Learning [8.557392136621894]
Smoothness Adaptive Transfer Learning (SATL) は、2相のカーネルリッジ回帰(KRR)に基づくアルゴリズムである。
我々はまず、ターゲットのみのKRR学習において、不特定な固定帯域幅ガウスカーネルを用いることで、最小限の最適性が得られることを証明した。
我々は,学習問題の極小境界を過度なリスクで導出し,SATLが対数係数までの一致した上限を享受していることを示す。
論文 参考訳(メタデータ) (2024-02-22T21:02:19Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Integrating Pretrained ASR and LM to Perform Sequence Generation for
Spoken Language Understanding [29.971414483624823]
本稿では,ASR と LMworks を,シーケンス生成タスクのための SLU の定式化に効果的に統合する 3 パスのエンドツーエンド(E2E) SLU システムを提案する。
提案した3パスSLUシステムは,2つのベンチマークSLUデータセット上でのカスケードモデルとE2E SLUモデルの性能向上を示す。
論文 参考訳(メタデータ) (2023-07-20T16:34:40Z) - End-to-end Spoken Language Understanding with Tree-constrained Pointer
Generator [19.372248692745167]
本稿では、文脈バイアスを利用して、エンドツーエンドの音声言語理解を改善する。
SLURPデータセットの実験では、TCPGenとSPBを使用して一貫したSLU-F1の改善が見られた。
スロット充填に加えて,意図分類精度も向上した。
論文 参考訳(メタデータ) (2022-10-29T10:03:56Z) - Deliberation Model for On-Device Spoken Language Understanding [69.5587671262691]
我々は、エンドツーエンド(E2E)音声言語理解(SLU)に対する新しい議論に基づくアプローチを提案する。
提案手法は,自然言語から合成音声訓練に移行する際の劣化を著しく低減できることを示す。
論文 参考訳(メタデータ) (2022-04-04T23:48:01Z) - Variable Selection with the Knockoffs: Composite Null Hypotheses [2.725698729450241]
我々は、ノックオフ手順の理論を合成ヌル仮説を用いたテストに拡張する。
主な技術的課題は、任意の設計から依存した特徴と組み合わせて合成ヌルを扱うことである。
論文 参考訳(メタデータ) (2022-03-06T01:40:35Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Robust Spoken Language Understanding with RL-based Value Error Recovery [35.82890898452309]
Spoken Language Understanding (SLU) は、音声認識されたテキストから構造化された意味表現(例えば、スロット値対)を抽出することを目的としている。
本稿では,ルールベースの値エラー回復モジュールを用いてSLU入力適応を誘導する,新しいロバストなSLUフレームワークを提案する。
パブリックCATSLUデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-09-07T13:32:07Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。