論文の概要: The Effect of Efficient Messaging and Input Variability on Neural-Agent
Iterated Language Learning
- arxiv url: http://arxiv.org/abs/2104.07637v1
- Date: Thu, 15 Apr 2021 17:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:19:46.015213
- Title: The Effect of Efficient Messaging and Input Variability on Neural-Agent
Iterated Language Learning
- Title(参考訳): ニューラルエージェント反復型言語学習における効率的なメッセージングと入力変動の影響
- Authors: Yuchen Lian, Arianna Bisazza and Tessa Verhoef
- Abstract要約: 同様のトレードオフは、ニューラルネットワークベースのエージェントによる反復言語学習の最近のシミュレーションでは見られていない。
本研究は,エージェントの労力に基づく圧力の欠如と,初期入力言語における変数の欠如という,2つの重要な要因から,この結果を再評価するものである。
- 参考スコア(独自算出の注目度): 2.9434930072968584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural languages commonly display a trade-off among different strategies to
convey constituent roles. A similar trade-off, however, has not been observed
in recent simulations of iterated language learning with neural network based
agents (Chaabouni et al., 2019b). In this work, we re-evaluate this result in
the light of two important factors, namely: the lack of effort-based pressure
in the agents and the lack of variability in the initial input language.
- Abstract(参考訳): 自然言語は一般的に、構成的役割を伝える様々な戦略のトレードオフを示す。
しかし、ニューラルネットワークベースのエージェント(chaabouni et al., 2019b)による反復型言語学習の最近のシミュレーションでは、同様のトレードオフは観測されていない。
本研究は,エージェントの労力に基づく圧力の欠如と,初期入力言語における変数の欠如という,2つの重要な要因から,この結果を再評価するものである。
関連論文リスト
- Unknown Script: Impact of Script on Cross-Lingual Transfer [2.5398014196797605]
言語間移動は、言語間で知識を伝達する効果的な方法となっている。
対象言語とそのスクリプトが事前訓練されたモデルの一部ではない場合を考える。
この結果から, 共通スクリプト, 言語類似性, モデルサイズよりも, トークン化の重要性が示唆された。
論文 参考訳(メタデータ) (2024-04-29T15:48:01Z) - NeuroPrune: A Neuro-inspired Topological Sparse Training Algorithm for Large Language Models [35.10729451729596]
自然言語処理(NLP)におけるトランスフォーマーベース言語モデルの普及
しかし、高価なトレーニングや推論は、その適用性に重大な障害となる。
脳神経ネットワークにインスパイアされた我々は、ネットワークトポロジーのレンズを通してスパーシティアプローチを探索する。
論文 参考訳(メタデータ) (2024-02-28T22:21:47Z) - Characterization of effects of transfer learning across domains and
languages [0.0]
事前学習されたニューラルネットワークモデルからのトランスファーラーニング(TL)は、長年にわたって強力なテクニックとして現れてきた。
本研究では,TLが3つの自然言語処理(NLP)タスクに対して,一般的な事前学習モデルの性能にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-10-03T17:17:07Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z) - Convolutional Neural Networks and a Transfer Learning Strategy to
Classify Parkinson's Disease from Speech in Three Different Languages [0.0]
本稿では,パーキンソン病を3つの言語(スペイン語,ドイツ語,チェコ語)で分類する手法を提案する。
提案手法では,3言語間の時間周波数表現と伝達学習戦略を訓練した畳み込みニューラルネットワークを検討する。
論文 参考訳(メタデータ) (2020-02-11T13:48:38Z) - Cross-lingual, Character-Level Neural Morphological Tagging [57.0020906265213]
文字レベルのリカレントなニューラルタグをトレーニングし、高リソース言語と低リソース言語を併用して形態的タグ付けを予測する。
複数の関連言語間の共同文字表現の学習は、高リソース言語から低リソース言語への知識伝達を成功させ、モノリンガルモデルの精度を最大30%向上させる。
論文 参考訳(メタデータ) (2017-08-30T08:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。