論文の概要: Data Augmentation with Paraphrase Generation and Entity Extraction for
Multimodal Dialogue System
- arxiv url: http://arxiv.org/abs/2205.04006v1
- Date: Mon, 9 May 2022 02:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-11 00:33:04.785288
- Title: Data Augmentation with Paraphrase Generation and Entity Extraction for
Multimodal Dialogue System
- Title(参考訳): マルチモーダル対話システムのためのparaphrase生成とエンティティ抽出によるデータ拡張
- Authors: Eda Okur, Saurav Sahay, Lama Nachman
- Abstract要約: 我々は,小学生が基本数学の概念を学ぶための多モーダル対話システムに向けて研究している。
本研究では,音声対話システムパイプラインの自然言語理解モジュールのパラフレーズ生成によるデータ拡張の可能性を探る。
我々は,小型シードデータを用いたモデル・イン・ザ・ループ(MITL)戦略のパラフレーズ化が,インテント認識タスクの性能改善をもたらす有望なアプローチであることを示した。
- 参考スコア(独自算出の注目度): 9.912419882236918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contextually aware intelligent agents are often required to understand the
users and their surroundings in real-time. Our goal is to build Artificial
Intelligence (AI) systems that can assist children in their learning process.
Within such complex frameworks, Spoken Dialogue Systems (SDS) are crucial
building blocks to handle efficient task-oriented communication with children
in game-based learning settings. We are working towards a multimodal dialogue
system for younger kids learning basic math concepts. Our focus is on improving
the Natural Language Understanding (NLU) module of the task-oriented SDS
pipeline with limited datasets. This work explores the potential benefits of
data augmentation with paraphrase generation for the NLU models trained on
small task-specific datasets. We also investigate the effects of extracting
entities for conceivably further data expansion. We have shown that
paraphrasing with model-in-the-loop (MITL) strategies using small seed data is
a promising approach yielding improved performance results for the Intent
Recognition task.
- Abstract(参考訳): コンテキスト的に認識されたインテリジェントエージェントは、リアルタイムにユーザとその周囲を理解するために必要となることが多い。
私たちの目標は、子どもたちの学習プロセスを支援する人工知能(AI)システムを構築することです。
このような複雑なフレームワークの中では、ゲームベースの学習環境において、子供たちとの効率的なタスク指向コミュニケーションを扱うために、SDS(Spken Dialogue Systems)が重要なビルディングブロックである。
我々は,幼児の基本的な数学概念を学ぶためのマルチモーダル対話システムに向けて取り組んでいる。
我々の焦点は、限られたデータセットでタスク指向SDSパイプラインの自然言語理解(NLU)モジュールを改善することです。
この研究は、小さなタスク固有のデータセットでトレーニングされたNLUモデルのパラフレーズ生成によるデータ拡張の可能性を探る。
また, 抽出剤のさらなるデータ拡張効果についても検討した。
我々は,小型シードデータを用いたモデル・イン・ザ・ループ(MITL)戦略のパラフレーズ化が,インテント認識タスクの性能改善をもたらす有望なアプローチであることを示した。
関連論文リスト
- RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Neural-Bayesian Program Learning for Few-shot Dialogue Intent Parsing [14.90367428035125]
本稿では,対話・対話型プログラム(DI-)というニューラルベイズ学習モデルを提案する。
DI-はデータハングリー設定下でのインテント解析を専門とし、有望なパフォーマンス改善を提供する。
実験により、DI-は最先端のディープラーニングモデルより優れており、産業用アプリケーションに実用的な利点があることが示された。
論文 参考訳(メタデータ) (2024-10-08T16:54:00Z) - Developing Instruction-Following Speech Language Model Without Speech Instruction-Tuning Data [84.01401439030265]
最近のエンドツーエンド言語モデル(SLM)は、大規模言語モデル(LLM)の機能に拡張されている。
音声とテキストのペアデータを生成するための,シンプルで効果的な自動処理手法を提案する。
本モデルでは,音声教育データを必要としない音声関連タスクの汎用性を示す。
論文 参考訳(メタデータ) (2024-09-30T07:01:21Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Creating Spoken Dialog Systems in Ultra-Low Resourced Settings [0.0]
我々はフレミッシュにおける意図分類のための既存の光モデルを構築している。
音声レベルと音声書き起こしレベルという2つのレベルに異なる拡張手法を適用した。
両レベルにおいて、我々のデータ拡張技術は、多くのタスクにおけるモデルパフォーマンスを改善していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T10:04:05Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Inspecting Spoken Language Understanding from Kids for Basic Math
Learning at Home [8.819665252533104]
本研究では,Kid Space用に開発されたタスク指向対話システムにおいて,音声言語理解(SLU)パイプラインについて検討する。
自動音声認識 (ASR) と自然言語理解 (NLU) のコンポーネントをホーム配置データから評価した。
論文 参考訳(メタデータ) (2023-06-01T09:31:57Z) - NLU for Game-based Learning in Real: Initial Evaluations [9.912419882236918]
本研究では、最近提案されたトランスフォーマーベースマルチタスクNLUアーキテクチャの利点について検討する。
主に、小規模のドメイン固有の教育ゲームデータセット上でIntent Recognitionを実行する。
我々は、より単純なベースラインアプローチと比較して、Dual IntentとEntity Transformer(DIET)アーキテクチャは現実世界のデータを扱うのに十分な堅牢であることを示した。
論文 参考訳(メタデータ) (2022-05-27T03:48:32Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。