論文の概要: Vector Representations of Idioms in Conversational Systems
- arxiv url: http://arxiv.org/abs/2205.03666v1
- Date: Sat, 7 May 2022 14:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-05-15 07:55:46.503937
- Title: Vector Representations of Idioms in Conversational Systems
- Title(参考訳): 会話システムにおけるイディオムのベクトル表現
- Authors: Tosin Adewumi, Foteini Liwicki and Marcus Liwicki
- Abstract要約: 我々は,2つの課題に対して,潜在的表現(PIE)-英語イディオムコーパスを利用する。
SoTA T5モデルを用いて分類作業において,98%のマクロF1スコアの最先端(SoTA)を達成した。
その結果、イディオムコーパスで訓練されたモデルは、イディオム71.9%を含むプロンプトに対してより適合した反応を生じさせることがわかった。
- 参考スコア(独自算出の注目度): 1.6507910904669727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate, in this study, that an open-domain conversational system
trained on idioms or figurative language generates more fitting responses to
prompts containing idioms. Idioms are part of everyday speech in many
languages, across many cultures, but they pose a great challenge for many
Natural Language Processing (NLP) systems that involve tasks such as
Information Retrieval (IR) and Machine Translation (MT), besides conversational
AI. We utilize the Potential Idiomatic Expression (PIE)-English idioms corpus
for the two tasks that we investigate: classification and conversation
generation. We achieve state-of-the-art (SoTA) result of 98% macro F1 score on
the classification task by using the SoTA T5 model. We experiment with three
instances of the SoTA dialogue model, Dialogue Generative Pre-trained
Transformer (DialoGPT), for conversation generation. Their performances are
evaluated using the automatic metric perplexity and human evaluation. The
results show that the model trained on the idiom corpus generates more fitting
responses to prompts containing idioms 71.9% of the time, compared to a similar
model not trained on the idioms corpus. We contribute the model checkpoint/demo
and code on the HuggingFace hub for public access.
- Abstract(参考訳): 本研究では,イディオムやフィギュラティブ言語で学習したオープンドメイン会話システムがイディオムを含むプロンプトに対して,より適切な応答を生成することを示す。
イディオムは多くの言語、多くの文化において日常会話の一部であるが、会話型ai以外にも情報検索(ir)や機械翻訳(mt)といったタスクを含む多くの自然言語処理(nlp)システムにとって大きな課題となっている。
我々は,この2つの課題について,潜在的慣用表現(pie)-英語慣用表現コーパスを用いて分類と会話生成を行う。
sota t5モデルを用いて分類タスクにおける98%のマクロf1得点の最先端(sota)結果を得る。
会話生成のための対話生成事前学習型変換器(DialoGPT)の3つの例を実験した。
これらの性能は自動的メートル法と人的評価を用いて評価される。
その結果、イディオムコーパスで訓練されたモデルは、イディオムコーパスで訓練されていない類似のモデルと比較して、71.9%の時間を含むプロンプトに対してより適合した応答を生成することが示された。
私たちは、公開アクセスのためにhuggingface hubにモデルチェックポイント/デモとコードを寄贈します。
関連論文リスト
- Can Language Models Learn to Listen? [96.01685069483025]
本稿では,話者の言葉に基づく社会的対話における聞き手から適切な表情応答を生成するための枠組みを提案する。
提案手法は,VQ-VAEを用いて定量化したリスナーの顔のジェスチャー列であるリスナーの応答を自己回帰的に予測する。
生成したリスナーの動きは,定量的メトリクスと質的ユーザスタディを通じて,言語意味論に精通し,反映していることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:59:02Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations [22.894541507068933]
本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
論文 参考訳(メタデータ) (2022-03-08T12:26:57Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - Sm{\aa}prat: DialoGPT for Natural Language Generation of Swedish
Dialogue by Transfer Learning [1.6111818380407035]
自然言語対話生成のための最先端のモデルは、英語で人間のような単行会話をシミュレートする際、印象的な性能を示した。
この研究は、経験的な研究により、そのようなモデルのスウェーデン語への変換学習の可能性について調査する。
論文 参考訳(メタデータ) (2021-10-12T18:46:43Z) - Speaker-Conditioned Hierarchical Modeling for Automated Speech Scoring [60.55025339250815]
本研究では、話者条件付き階層型モデリングと呼ばれる非ネイティブASSのための新しいディープラーニング手法を提案する。
本手法では, 口腔熟練度テストが候補に対して複数の応答を評価できるという事実を生かして, 候補に対して複数の応答を評価できる。これらの応答からコンテキストを抽出し, ネットワークに付加的な話者固有のコンテキストとして与えて, 特定の応答をスコアする。
論文 参考訳(メタデータ) (2021-08-30T07:00:28Z) - Mixtures of Deep Neural Experts for Automated Speech Scoring [11.860560781894458]
本論文は,言語学習者の音声応答からテストプロンプトに対する第二言語能力の自動評価の課題に対処する。
本手法は,(1)音声対話のテキスト書き起こしを自動生成する音声認識システム,(2)テキスト書き起こしを習熟クラスに分類する深層学習者に基づく複数分類システム,の2つの異なるモジュールに依存している。
論文 参考訳(メタデータ) (2021-06-23T15:44:50Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - The Paradigm Discovery Problem [121.79963594279893]
我々は、パラダイム発見問題を定式化し、システム判定のためのメトリクスを開発する。
5つの多言語に対する経験的結果について報告する。
私たちのコードとデータは公開されています。
論文 参考訳(メタデータ) (2020-05-04T16:38:54Z) - An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation [23.343006562849126]
本稿では,オープンドメイン対話生成作業のための事前学習型トランスフォーマーに基づく自動回帰言語モデルについて実験的に検討する。
事前訓練と微調整の訓練パラダイムは、学習を行うために使用される。
実験は、Weibo、Douban、Reddit、DailyDialog、Persona-Chatといった典型的なシングルターンとマルチターンの対話コーパスで行われる。
論文 参考訳(メタデータ) (2020-03-09T15:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。