論文の概要: Examining the rhetorical capacities of neural language models
- arxiv url: http://arxiv.org/abs/2010.00153v2
- Date: Sun, 4 Oct 2020 22:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:02:45.061089
- Title: Examining the rhetorical capacities of neural language models
- Title(参考訳): ニューラルランゲージモデルの修辞的能力の検討
- Authors: Zining Zhu, Chuer Pan, Mohamed Abdalla, Frank Rudzicz
- Abstract要約: 本稿では,ニューラルネットワークの修辞能力を定量的に評価する手法を提案する。
BERTベースのLMは、他のトランスフォーマーLMよりも優れており、中間層表現におけるより豊かな談話知識が明らかにされている。
GPT-2 と XLNet はどうやら修辞学的な知識を減らし,言語哲学からの説明を提案する。
- 参考スコア(独自算出の注目度): 16.93374735406622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, neural language models (LMs) have demonstrated impressive abilities
in generating high-quality discourse. While many recent papers have analyzed
the syntactic aspects encoded in LMs, there has been no analysis to date of the
inter-sentential, rhetorical knowledge. In this paper, we propose a method that
quantitatively evaluates the rhetorical capacities of neural LMs. We examine
the capacities of neural LMs understanding the rhetoric of discourse by
evaluating their abilities to encode a set of linguistic features derived from
Rhetorical Structure Theory (RST). Our experiments show that BERT-based LMs
outperform other Transformer LMs, revealing the richer discourse knowledge in
their intermediate layer representations. In addition, GPT-2 and XLNet
apparently encode less rhetorical knowledge, and we suggest an explanation
drawing from linguistic philosophy. Our method shows an avenue towards
quantifying the rhetorical capacities of neural LMs.
- Abstract(参考訳): 近年、ニューラルネットワークモデル(LM)は、高品質な談話を生成する際、印象的な能力を示している。
近年の論文の多くは、LMに符号化された構文的側面を解析しているが、その間、修辞的知識の分析は行われていない。
本稿では,神経lmsの修辞的容量を定量的に評価する手法を提案する。
RST(Rhetorical Structure Theory)から派生した言語的特徴のセットを符号化する能力を評価することにより,談話の修辞的理解能力について検討した。
実験の結果,BERT をベースとした LM は他の Transformer LM よりも優れており,中間層表現におけるより豊かな談話知識が明らかとなった。
さらに, GPT-2 と XLNet は, 言語学的な知識の少ないことを示唆し, 言語哲学からの説明を提案する。
本手法は,ニューラルネットワークの修辞能力の定量化への道筋を示す。
関連論文リスト
- Lower Bounds on the Expressivity of Recurrent Neural Language Models [47.537525313391164]
ニューラルLMの表現能力の研究は、形式言語を認識できる能力に主に焦点を絞っている。
本稿では, RNN LM の表現能力について, 線形有界精度を持つ RNN LM が任意の正則な LM を表現可能であることを示す。
論文 参考訳(メタデータ) (2024-05-29T16:02:09Z) - Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Investigating the Encoding of Words in BERT's Neurons using Feature
Textualization [11.943486282441143]
本稿では,埋め込み語空間におけるニューロンの表現を生成する手法を提案する。
生成した表現は、個々のニューロンにおける符号化された知識についての洞察を与えることができる。
論文 参考訳(メタデータ) (2023-11-14T15:21:49Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - BrainBERT: Self-supervised representation learning for intracranial
recordings [18.52962864519609]
我々は、神経科学に現代的な表現学習アプローチをもたらす頭蓋内記録のための再利用可能な変換器BrainBERTを開発した。
NLPや音声認識と同様に、この変換器は複雑な概念を高い精度で、はるかに少ないデータで分類することができる。
将来的には、表現学習を使用することで、はるかに多くの概念がニューラル録音から切り離され、言語モデルがアンロックされた言語のように脳をアンロックする可能性がある。
論文 参考訳(メタデータ) (2023-02-28T07:40:37Z) - Surrogate Gradient Spiking Neural Networks as Encoders for Large
Vocabulary Continuous Speech Recognition [91.39701446828144]
スパイクニューラルネットワークは, 代理勾配法を用いて, 通常のリカレントニューラルネットワークのように訓練可能であることを示す。
彼らは音声コマンド認識タスクについて有望な結果を示した。
繰り返し発生する非スパイキングとは対照的に、ゲートを使わずに爆発する勾配問題に対して堅牢性を示す。
論文 参考訳(メタデータ) (2022-12-01T12:36:26Z) - Discovering Salient Neurons in Deep NLP Models [31.18937787704794]
本稿では,モデル内のサルエントニューロンを抽出する言語相関解析法を提案する。
我々のデータ駆動量分析は興味深い発見を照らす。
我々のコードはNeuroXツールキットの一部として公開されています。
論文 参考訳(メタデータ) (2022-06-27T13:31:49Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - What do End-to-End Speech Models Learn about Speaker, Language and
Channel Information? A Layer-wise and Neuron-level Analysis [16.850888973106706]
本稿では,事前学習した音声モデルの探索フレームワークを用いたポストホック機能解析を行う。
話者認識や方言識別といった様々なタスクのために訓練された音声モデルの発話レベル表現を解析する。
i) チャネル情報と性別情報はネットワーク全体に分散され,i) 情報はタスクに関してニューロンで冗長に利用可能であり,iv) 弁証情報などの複雑な特性はタスク指向の事前学習ネットワークでのみ符号化される。
論文 参考訳(メタデータ) (2021-07-01T13:32:55Z) - Syntax Role for Neural Semantic Role Labeling [77.5166510071142]
意味的役割ラベリング(SRL)は、文の意味的述語・代名詞構造を認識することを目的としている。
従来のモデルでは、構文情報はSRLのパフォーマンスに顕著な貢献をする可能性がある。
最近の神経SRL研究は、構文情報は神経意味的役割のラベル付けにおいてはるかに重要でないことを示している。
論文 参考訳(メタデータ) (2020-09-12T07:01:12Z) - On the Effectiveness of Neural Text Generation based Data Augmentation
for Recognition of Morphologically Rich Speech [0.0]
我々は、RNNLMからの知識をテキスト生成に基づくデータ拡張による単一パスBNLMに転送することで、会話音声書き起こしシステムのオンライン性能を大幅に改善した。
第1パスでRNN-BNLMを使用し、第2パスで、オフラインのASR結果をさらに改善できることが示される。
論文 参考訳(メタデータ) (2020-06-09T09:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。