論文の概要: "No, they did not": Dialogue response dynamics in pre-trained language
models
- arxiv url: http://arxiv.org/abs/2210.02526v1
- Date: Wed, 5 Oct 2022 19:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:19:11.411536
- Title: "No, they did not": Dialogue response dynamics in pre-trained language
models
- Title(参考訳): no, they didn」--事前学習された言語モデルにおける対話応答ダイナミクス
- Authors: Sanghee J. Kim and Lang Yu and Allyson Ettinger
- Abstract要約: 我々は,事前学習された言語モデルにおいて,不完全性やエリプシスの現象を含む力学に対する感度に焦点をあてる。
また, 先行発話の主節内容を対象にした応答に対する一般の嗜好も見いだされた。
結果は、未発行コンテンツと非発行コンテンツとを対象とするすべてのダイナミックスを捉えることに関して、混在し、一般的に弱い傾向を示している。
- 参考スコア(独自算出の注目度): 11.393681326784849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical component of competence in language is being able to identify
relevant components of an utterance and reply appropriately. In this paper we
examine the extent of such dialogue response sensitivity in pre-trained
language models, conducting a series of experiments with a particular focus on
sensitivity to dynamics involving phenomena of at-issueness and ellipsis. We
find that models show clear sensitivity to a distinctive role of embedded
clauses, and a general preference for responses that target main clause content
of prior utterances. However, the results indicate mixed and generally weak
trends with respect to capturing the full range of dynamics involved in
targeting at-issue versus not-at-issue content. Additionally, models show
fundamental limitations in grasp of the dynamics governing ellipsis, and
response selections show clear interference from superficial factors that
outweigh the influence of principled discourse constraints.
- Abstract(参考訳): 言語能力の重要な構成要素は、発話の関連成分を識別し、適切に返信することができることである。
本稿では,事前学習された言語モデルにおける対話応答の感度について検討し,発声と楕円現象のダイナミクスに対する感受性に着目した一連の実験を行った。
モデルは、埋め込み節の特徴的な役割と、先行発話の主節内容をターゲットにした応答に対する一般的な選択に対する明確な感受性を示すことが判明した。
しかし,本研究の結果は,対象コンテンツと対象コンテンツとに係わるダイナミックスの全範囲を捉える上で,混合的かつ一般に弱い傾向を示している。
加えて、モデルは楕円を統治するダイナミクスの把握において基本的な制限を示し、応答選択は原則付き談話制約の影響を上回る表面的要因からの明らかな干渉を示す。
関連論文リスト
- Joint Learning of Context and Feedback Embeddings in Spoken Dialogue [3.8673630752805446]
コントラスト学習目標を用いて,同じ表現空間に短い対話コンテキストとフィードバック応答を埋め込む可能性を検討する。
実験結果から,本モデルは人間に同じランキングタスクを施し,学習された埋め込みはフィードバック応答の会話機能に関する情報を伝達することがわかった。
論文 参考訳(メタデータ) (2024-06-11T14:22:37Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Acoustic and linguistic representations for speech continuous emotion
recognition in call center conversations [2.0653090022137697]
本稿では,AlloSat corpus へのトランスファー学習の一形態として,事前学習した音声表現の利用について検討する。
実験により,事前学習した特徴を用いて得られた性能の大きな向上を確認した。
驚いたことに、言語内容が満足度予測の主要な要因であることは明らかでした。
論文 参考訳(メタデータ) (2023-10-06T10:22:51Z) - An analysis on the effects of speaker embedding choice in non
auto-regressive TTS [4.619541348328938]
本稿では,非自己回帰的分解型マルチ話者音声合成アーキテクチャが,異なる話者埋め込みセットに存在する情報をどのように活用するかを理解するための最初の試みを紹介する。
使用済みの埋め込みと学習戦略にかかわらず、ネットワークは様々な話者識別を等しく扱うことができることを示す。
論文 参考訳(メタデータ) (2023-07-19T10:57:54Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Measuring the Impact of Individual Domain Factors in Self-Supervised
Pre-Training [60.825471653739555]
音素領域因子は事前学習において重要な役割を担っているが,文法的・統語的要因はそれほど重要ではない。
本研究は,音声認識のための自己教師付き事前学習における事前学習セットのドメイン特性をよりよく理解するための最初の研究である。
論文 参考訳(メタデータ) (2022-03-01T17:40:51Z) - NOPE: A Corpus of Naturally-Occurring Presuppositions in English [33.69537711677911]
英語におけるNaturally-Occurring Presuppositions(NOPE)を紹介する。
本研究は,10種類のプレポーズトリガーの文脈感度について検討した。
我々は、人間の推論を予測する機械学習モデルの能力を評価する。
論文 参考訳(メタデータ) (2021-09-14T22:03:23Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。