論文の概要: Production vs Perception: The Role of Individuality in Usage-Based
Grammar Induction
- arxiv url: http://arxiv.org/abs/2104.09033v1
- Date: Mon, 19 Apr 2021 03:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 04:04:48.214661
- Title: Production vs Perception: The Role of Individuality in Usage-Based
Grammar Induction
- Title(参考訳): 生産対知覚: 使用法に基づく文法誘導における個人性の役割
- Authors: Jonathan Dunn and Andrea Nini
- Abstract要約: 生産ベースと知覚ベースの文法誘導の区別は、文法と語彙の成長曲線に影響を与える。
3つの計算実験のセットは、生産ベース文法が全ての条件における知覚ベース文法と大きく異なることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper asks whether a distinction between production-based and
perception-based grammar induction influences either (i) the growth curve of
grammars and lexicons or (ii) the similarity between representations learned
from independent sub-sets of a corpus. A production-based model is trained on
the usage of a single individual, thus simulating the grammatical knowledge of
a single speaker. A perception-based model is trained on an aggregation of many
individuals, thus simulating grammatical generalizations learned from exposure
to many different speakers. To ensure robustness, the experiments are
replicated across two registers of written English, with four additional
registers reserved as a control. A set of three computational experiments shows
that production-based grammars are significantly different from
perception-based grammars across all conditions, with a steeper growth curve
that can be explained by substantial inter-individual grammatical differences.
- Abstract(参考訳): 本稿では,文法と語彙の成長曲線(i)コーパスの独立部分集合から学習した表現の類似性(ii)について,生産ベースと知覚ベースの文法誘導の区別が影響するかどうかを問う。
生産ベースモデルは、個々の個人の使用に基づいて訓練され、単一の話者の文法的知識をシミュレートする。
知覚に基づくモデルは、多くの個人の集合に基づいて訓練され、多くの異なる話者への暴露から学んだ文法的一般化をシミュレートする。
堅牢性を確保するため、実験は2つの英語のレジスタに複製され、さらに4つのレジスタがコントロールとして保持される。
3つの計算実験のセットは、生産ベースの文法が全ての条件における知覚に基づく文法と大きく異なることを示し、より急勾配な成長曲線は、実質的な個人間の文法的差異によって説明できる。
関連論文リスト
- Leveraging Grammar Induction for Language Understanding and Generation [7.459693992079273]
言語理解と生成のための教師なし文法帰納法を提案する。
我々は,下流タスクで同時に訓練された選挙区構造と係り受け関係を誘導する文法を構築した。
複数の機械翻訳タスクの自然言語理解タスクに対して,本手法の評価と適用を行った。
論文 参考訳(メタデータ) (2024-10-07T09:57:59Z) - Evaluating Contextualized Representations of (Spanish) Ambiguous Words: A New Lexical Resource and Empirical Analysis [2.2530496464901106]
スペイン語の単言語モデルと多言語BERTモデルを用いて、文脈におけるスペイン語のあいまいな名詞の意味表現を評価する。
様々な BERT ベースの LM の文脈的意味表現は、人間の判断に多少の違いがあるが、ヒトのベンチマークには及ばない。
論文 参考訳(メタデータ) (2024-06-20T18:58:11Z) - Every word counts: A multilingual analysis of individual human alignment
with model attention [7.066531752554282]
我々は、母国語(L1)と英語(L2)の両方で読む13言語話者の視線追跡データを解析する。
言語間ではかなりの差異があるだけでなく、スキップ率、総読解時間、語彙知識(LexTALE)といった個々の読解行動が人間とモデルの整合性に影響を与えることも見出した。
論文 参考訳(メタデータ) (2022-10-05T12:44:35Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese
Language Models [22.57309958548928]
構造的監督が言語モデルの文法的依存の学習能力を向上させるかどうかを検討する。
LSTM、リカレントニューラルネットワーク文法、トランスフォーマー言語モデル、および異なるサイズのデータセットに対する生成解析モデルをトレーニングする。
構造的監督がコンテンツ間のシナティクス状態の表現に役立ち、低データ設定における性能向上に役立つという示唆的な証拠が得られます。
論文 参考訳(メタデータ) (2021-09-22T22:11:30Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z) - Composed Variational Natural Language Generation for Few-shot Intents [118.37774762596123]
現実的な不均衡シナリオにおいて、数ショットのインテントに対するトレーニング例を生成します。
生成した発話の質を評価するために、一般化された複数ショット意図検出タスクについて実験を行った。
提案モデルでは,2つの実世界の意図検出データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-21T17:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。