論文の概要: Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning
- arxiv url: http://arxiv.org/abs/2205.09172v1
- Date: Wed, 18 May 2022 18:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 12:48:04.751339
- Title: Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning
- Title(参考訳): データ駆動学習と実用的推論から生じる色過修正
- Authors: Fei Fang, Kunal Sinha, Noah D. Goodman, Christopher Potts, Elisa
Kreiss
- Abstract要約: 話者の指示表現は、実践的な言語使用の性質を照らし出すのに役立つ方法で、コミュニケーションイデアルから逸脱していることを示す。
ニューラルネットワークを学習エージェントとして採用することにより、過度な修正は、頻度の低い、あるいは正常な環境特性に結びつく可能性が高いことを示す。
- 参考スコア(独自算出の注目度): 53.088796874029974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speakers' referential expressions often depart from communicative ideals in
ways that help illuminate the nature of pragmatic language use. Patterns of
overmodification, in which a speaker uses a modifier that is redundant given
their communicative goal, have proven especially informative in this regard. It
seems likely that these patterns are shaped by the environment a speaker is
exposed to in complex ways. Unfortunately, systematically manipulating these
factors during human language acquisition is impossible. In this paper, we
propose to address this limitation by adopting neural networks (NN) as learning
agents. By systematically varying the environments in which these agents are
trained, while keeping the NN architecture constant, we show that
overmodification is more likely with environmental features that are infrequent
or salient. We show that these findings emerge naturally in the context of a
probabilistic model of pragmatic communication.
- Abstract(参考訳): 話者の指示表現は、実用的言語の使用の性質を照らすのに役立つ方法で、しばしばコミュニケーションの理想から逸脱する。
話者がコミュニケーションの目的に対して冗長な修飾子を使用する過度修飾のパターンは、この点において特に有益であることが証明されている。
これらのパターンは、話者が複雑な方法で露出する環境によって形成される可能性が高い。
残念ながら、人間の言語習得においてこれらの要因を体系的に操作することは不可能である。
本稿では,ニューラルネットワーク(NN)を学習エージェントとして活用することで,この制限に対処することを提案する。
NNのアーキテクチャを一定に保ちながら、これらのエージェントを訓練する環境を体系的に変化させることで、過度な修正は、頻度の低い環境特性や健全な環境特性に結びつくことを示す。
これらの知見は,実用的コミュニケーションの確率論的モデルにおいて自然に現れることを示す。
関連論文リスト
- Addressing the Blind Spots in Spoken Language Processing [4.626189039960495]
人間のコミュニケーションを理解するには、非言語的要素を含むために、テキスト語や音声語を超越した、より包括的なアプローチが必要である、と我々は主張する。
本稿では,これらの非言語的手がかりをテキスト形式で書き起こす汎用的な自動ジェスチャーセグメンテーションと書き起こしモデルの開発を提案する。
論文 参考訳(メタデータ) (2023-09-06T10:29:25Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - Evaluating Models of Robust Word Recognition with Serial Reproduction [8.17947290421835]
広範囲確率的生成言語モデルと人間の言語的期待を捉える能力の比較を行った。
先行した言語的文脈の抽象表現を利用するこれらのモデルは、連続再生の過程で人々が行った変化を最もよく予測する。
論文 参考訳(メタデータ) (2021-01-24T20:16:12Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Local and non-local dependency learning and emergence of rule-like
representations in speech data by Deep Convolutional Generative Adversarial
Networks [0.0]
本稿では、音声データにおける局所的および非局所的依存関係に対するGANのトレーニングは、ディープニューラルネットワークが連続データをどのように識別するかについての洞察を与える。
論文 参考訳(メタデータ) (2020-09-27T00:02:34Z) - Generative Adversarial Phonology: Modeling unsupervised phonetic and
phonological learning with neural networks [0.0]
音声データにおけるよく理解された依存関係に基づくディープニューラルネットワークのトレーニングは、内部表現の学習方法に関する新たな洞察を提供することができる。
本稿では, 音声の獲得を, 生成適応型ネットワークアーキテクチャにおけるランダム空間と生成した音声データ間の依存性としてモデル化することができることを論じる。
本稿では,音韻的・音韻的特性に対応するネットワークの内部表現を明らかにする手法を提案する。
論文 参考訳(メタデータ) (2020-06-06T20:31:23Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。