論文の概要: Improving Dialogue State Tracking by Joint Slot Modeling
- arxiv url: http://arxiv.org/abs/2109.14144v1
- Date: Wed, 29 Sep 2021 02:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 15:02:23.111078
- Title: Improving Dialogue State Tracking by Joint Slot Modeling
- Title(参考訳): ジョイントスロットモデリングによる対話状態追跡の改善
- Authors: Ting-Rui Chiang, Yi-Ting Yeh
- Abstract要約: 本稿では,スロットを共同でモデル化するTripPy-MRFとTripPy-LSTMを提案する。
この結果から,上記の混乱を緩和し,データセットMultiWoZ 2.1の最先端を推し進めることができた。
- 参考スコア(独自算出の注目度): 5.9394103049943485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue state tracking models play an important role in a task-oriented
dialogue system. However, most of them model the slot types conditionally
independently given the input. We discover that it may cause the model to be
confused by slot types that share the same data type. To mitigate this issue,
we propose TripPy-MRF and TripPy-LSTM that models the slots jointly. Our
results show that they are able to alleviate the confusion mentioned above, and
they push the state-of-the-art on dataset MultiWoZ 2.1 from 58.7 to 61.3. Our
implementation is available at https://github.com/CTinRay/Trippy-Joint.
- Abstract(参考訳): 対話状態追跡モデルはタスク指向対話システムにおいて重要な役割を果たす。
しかし、そのほとんどは入力を条件に独立してスロットタイプをモデル化している。
モデルが同じデータ型を共有するスロットタイプと混同される可能性があることを発見した。
この問題を軽減するために,スロットを共同でモデル化するTripPy-MRFとTripPy-LSTMを提案する。
その結果、上記の混乱を緩和でき、データセットのマルチウォズ2.1を58.7から61.3にプッシュできることがわかった。
私たちの実装はhttps://github.com/ctinray/trippy-jointで利用可能です。
関連論文リスト
- Data-Juicer Sandbox: A Comprehensive Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは包括的な実験プラットフォームを提供し、データとモデルの両方の迅速なイテレーションと洞察駆動による改善を可能にする。
また、徹底的なベンチマークから得られた実りある洞察を明らかにし、データ品質、多様性、モデル行動の間の重要な相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Transfer Learning with Point Transformers [3.678615604632945]
Point Transformerは、Point Cloudデータの分類、セグメンテーション、検出のための最先端モデルである。
モデルNet10データセットに基づくこれらの注目ネットワークの分類性能について検討し、3次元MNISTデータセットを微調整後に分類するためにトレーニングされたモデルを用いた。
論文 参考訳(メタデータ) (2024-04-01T01:23:58Z) - UnIVAL: Unified Model for Image, Video, Audio and Language Tasks [105.77733287326308]
UnIVALモデルは2つのモードを超えて、テキスト、画像、ビデオ、オーディオを1つのモデルに統合する。
本モデルは,タスクバランスとマルチモーダルカリキュラム学習に基づいて,多くのタスクに対して効率的に事前学習を行う。
統一モデルにより、重み一般化によるマルチモーダルモデルの融合に関する新しい研究を提案する。
論文 参考訳(メタデータ) (2023-07-30T09:48:36Z) - Dissecting Multimodality in VideoQA Transformer Models by Impairing Modality Fusion [54.33764537135906]
VideoQA Transformerモデルは標準ベンチマークで競合性能を示す。
これらのモデルはビデオとテキストからリッチなマルチモーダル構造とダイナミックスを一緒に捉えていますか?
彼らはバイアスと刺激的な特徴を利用して高いスコアを達成していますか?
論文 参考訳(メタデータ) (2023-06-15T06:45:46Z) - On Tracking Dialogue State by Inheriting Slot Values in Mentioned Slot
Pools [6.093245378608679]
対話状態追跡(DST)はタスク指向の対話システムの一部である。
多くのDSTモデルはスロット値を適切に更新できない。
本研究は,更新問題に対処するため,参照スロットプール(MSP)を用いたモデルの設計を行った。
論文 参考訳(メタデータ) (2022-02-15T03:03:38Z) - GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple
Intent Detection and Slot Filling [31.833158491112005]
マルチインテントSLUは、発話中に複数のインテントを処理できるため、注目を集めている。
本稿では,複数方向検出とスロット充填のための非自己回帰モデルについて検討する。
我々のフレームワークは11.5倍高速で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-03T15:22:38Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - SlotRefine: A Fast Non-Autoregressive Model for Joint Intent Detection
and Slot Filling [22.6796529031142]
スロットフィリングとインテント検出は、音声言語理解(SLU)システムにおける2つの主要なタスクである。
本稿では,SlotRefineという非自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T13:16:53Z) - Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling [65.09621991654745]
クロスドメインスロットフィリングはタスク指向ダイアログシステムにおいて重要なタスクである。
クロスドメインスロットフィリングのための粗粒度アプローチ(Coach)を提案する。
実験結果から,本モデルはスロット充填における最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-24T13:07:12Z) - Goal-Oriented Multi-Task BERT-Based Dialogue State Tracker [0.1864131501304829]
State Tracking(DST)は、AlexaやSiriなどの仮想アシスタントの中核的なコンポーネントである。
本研究では,GOaL指向マルチタスクBERTベースの対話状態トラッカー(GOLOMB)を提案する。
論文 参考訳(メタデータ) (2020-02-05T22:56:12Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。