論文の概要: A Neural Network-Based Linguistic Similarity Measure for Entrainment in
Conversations
- arxiv url: http://arxiv.org/abs/2109.01924v1
- Date: Sat, 4 Sep 2021 19:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:57:08.618861
- Title: A Neural Network-Based Linguistic Similarity Measure for Entrainment in
Conversations
- Title(参考訳): 会話における学習のためのニューラルネットワークに基づく言語類似度尺度
- Authors: Mingzhi Yu, Diane Litman, Shuang Ma, Jian Wu
- Abstract要約: 言語訓練は、人々が会話でお互いを模倣する傾向がある現象である。
現在の類似度尺度のほとんどは、back-of-wordsアプローチに基づいている。
本稿では,ニューラルネットワークモデルを用いて,運動の類似度を測定することを提案する。
- 参考スコア(独自算出の注目度): 12.052672647509732
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Linguistic entrainment is a phenomenon where people tend to mimic each other
in conversation. The core instrument to quantify entrainment is a linguistic
similarity measure between conversational partners. Most of the current
similarity measures are based on bag-of-words approaches that rely on
linguistic markers, ignoring the overall language structure and dialogue
context. To address this issue, we propose to use a neural network model to
perform the similarity measure for entrainment. Our model is context-aware, and
it further leverages a novel component to learn the shared high-level
linguistic features across dialogues. We first investigate the effectiveness of
our novel component. Then we use the model to perform similarity measure in a
corpus-based entrainment analysis. We observe promising results for both
evaluation tasks.
- Abstract(参考訳): 言語訓練は、人々が会話でお互いを模倣する傾向がある現象である。
エントレメントを定量化するための中核的な手段は、会話相手間の言語的類似度尺度である。
現在の類似度尺度のほとんどは、言語的マーカーに依存し、言語構造や対話のコンテキストを無視するback-of-wordsアプローチに基づいている。
この問題に対処するため,我々はニューラルネットワークモデルを用いて学習の類似度尺度を提案する。
我々のモデルは文脈認識であり、さらに新しいコンポーネントを活用して対話間での高水準言語的特徴の共有を学習する。
まず,新規成分の有効性について検討する。
次に,コーパスに基づく学習分析において類似度測定を行うためにモデルを用いる。
両評価課題の有望な結果を観察する。
関連論文リスト
- Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Relationship between auditory and semantic entrainment using Deep Neural
Networks (DNN) [0.0]
本研究では、BERTやTRILL(TRILL)ベクターのような最先端の埋め込みを利用して、対話中のターンの意味的および聴覚的類似性を測定する特徴を抽出した。
聴覚機能と比較して意味的特徴を訓練する傾向が見られた。
本研究の成果は,ヒトと機械の相互作用(HMI)におけるエントレインメントのメカニズムの実装に役立つかもしれない。
論文 参考訳(メタデータ) (2023-12-27T14:50:09Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - A study of conceptual language similarity: comparison and evaluation [0.3093890460224435]
自然言語処理(NLP)に関する興味深い研究は、言語型学を取り入れ、言語多様性を橋渡しすることを目的としている。
最近の研究は、それらが基本的な概念をどのように表現するかに基づいて、言語類似性を定義する新しいアプローチを導入している。
本研究では,概念的類似性を詳細に研究し,二項分類タスクにおいて広範囲に評価する。
論文 参考訳(メタデータ) (2023-05-22T18:28:02Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - On the Effects of Using word2vec Representations in Neural Networks for
Dialogue Act Recognition [0.6767885381740952]
文中の単語列をキャプチャする再帰モデルを探索するディープニューラルネットワークを提案する。
このモデルを英語、フランス語、チェコ語という3つの言語で検証する。
論文 参考訳(メタデータ) (2020-10-22T07:21:17Z) - Multi-agent Communication meets Natural Language: Synergies between
Functional and Structural Language Learning [16.776753238108036]
本稿では,マルチエージェント通信と従来のデータ駆動型アプローチを組み合わせた自然言語学習手法を提案する。
私たちの出発点は、タスク固有の言語データではなく、ジェネリックに基づいて訓練された言語モデルです。
次に、このモデルをマルチエージェントのセルフプレイ環境に配置し、モデルへの適応や修正に使用するタスク固有の報酬を生成する。
論文 参考訳(メタデータ) (2020-05-14T15:32:23Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。