論文の概要: A Tale of Two Lexica Testing Computational Hypotheses with Deep
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2104.06271v1
- Date: Tue, 13 Apr 2021 15:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 17:52:18.913780
- Title: A Tale of Two Lexica Testing Computational Hypotheses with Deep
Convolutional Neural Networks
- Title(参考訳): 深部畳み込みニューラルネットワークによる2つのレキシカテスト計算仮説の物語
- Authors: Enes Avcu, Olivia Newman, David Gow
- Abstract要約: 2つの並列ワードフォームストア(背側および腹側処理ストリーム)の存在を調査します。
仮説をテストするために、2つの深層畳み込みニューラルネットワーク(CNN)を作成しました。
私たちの結果は、腹側および背側処理ストリームの異なる処理要求が複数のレキシカの開発に計算圧力を課すという仮説と一致しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gow's (2012) dual lexicon model suggests that the primary purpose of words is
to mediate the mappings between acoustic-phonetic input and other forms of
linguistic representation. Motivated by evidence from functional imaging,
aphasia, and behavioral results, the model argues for the existence of two
parallel wordform stores: the dorsal and ventral processing streams. In this
paper, we tested the hypothesis that the complex, but systematic mapping
between sound and articulation in the dorsal stream poses different
computational pressures on feature sets than the more arbitrary mapping between
sound and meaning. To test this hypothesis, we created two deep convolutional
neural networks (CNNs). While the dorsal network was trained to identify
individual spoken words, the ventral network was trained to map them onto
semantic classes. We then extracted patterns of network activation from the
penultimate level of each network and tested how well features generated by the
network supported generalization to linguistic categorization associated with
the dorsal versus ventral processing streams. Our preliminary results showed
both models successfully learned their tasks. Secondary generalization testing
showed the ventral CNN outperformed the dorsal CNN on a semantic task:
concreteness classification, while the dorsal CNN outperformed the ventral CNN
on articulation tasks: classification by onset phoneme class and syllable
length. These results are consistent with the hypothesis that the divergent
processing demands of the ventral and dorsal processing streams impose
computational pressures for the development of multiple lexica.
- Abstract(参考訳): Gow (2012) の二重辞書モデルは、単語の第一の目的は、音響音声入力と他の言語表現のマッピングを仲介することである。
機能画像、失語症、行動結果の証拠によって動機づけられたこのモデルは、2つの平行なワードフォーム、背側および腹側処理ストリームの存在を論じている。
本稿では,音と意味のより任意のマッピングよりも,背後の流れにおける音と調音の複雑だが体系的なマッピングが特徴集合に異なる計算圧力を与えるという仮説を検証した。
この仮説をテストするために、2つのディープ畳み込みニューラルネットワーク(CNN)を作成しました。
背側ネットワークは個々の話し言葉を特定するために訓練されたが、腹側ネットワークはそれらを意味クラスにマッピングするように訓練された。
次に,各ネットワークのペナルティメイトレベルからネットワーク活性化のパターンを抽出し,背側と腹側処理ストリームに関連する言語分類への一般化をサポートするネットワークの特徴を検証した。
予備実験の結果,両モデルともにタスクを学習できた。
第2の一般化試験では、腹側CNNは意味的タスクにおいて背側CNNより優れており、背側CNNは調音タスクにおいて腹側CNNより優れていた。
これらの結果は、腹側および背側処理ストリームの異なる処理要求が複数のlexicaの開発に計算圧力を課すという仮説と一致している。
関連論文リスト
- Deception Detection from Linguistic and Physiological Data Streams Using Bimodal Convolutional Neural Networks [19.639533220155965]
本稿では,畳み込み型ニューラルネットワークのマルチモーダルな騙し検出への応用について検討する。
2つのトピックについて104人の被験者にインタビューして構築したデータセットを使用します。
論文 参考訳(メタデータ) (2023-11-18T02:44:33Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Effect of Word Embedding Models on Hate and Offensive Speech Detection [1.7403133838762446]
単語埋め込みモデルとニューラルネットワークアーキテクチャの両方が予測精度に与える影響について検討する。
まず、大規模なアラビア文字コーパスに複数の単語埋め込みモデルを訓練する。
検出タスク毎に、事前学習された単語埋め込みモデルを用いて、ニューラルネットワーク分類器を訓練する。
このタスクは多数の学習モデルをもたらし、徹底的な比較を可能にする。
論文 参考訳(メタデータ) (2020-11-23T02:43:45Z) - On the Effects of Using word2vec Representations in Neural Networks for
Dialogue Act Recognition [0.6767885381740952]
文中の単語列をキャプチャする再帰モデルを探索するディープニューラルネットワークを提案する。
このモデルを英語、フランス語、チェコ語という3つの言語で検証する。
論文 参考訳(メタデータ) (2020-10-22T07:21:17Z) - Identity-Based Patterns in Deep Convolutional Networks: Generative
Adversarial Phonology and Reduplication [0.0]
我々は、CNNが情報データを生成するという要求から有意義な表現を学習する、ciwGANアーキテクチャのBeguvsを使用している。
そこで本研究では,4つの生成テストに基づいて学習したWug-test CNNの手法を提案する。
論文 参考訳(メタデータ) (2020-09-13T23:12:49Z) - Combine Convolution with Recurrent Networks for Text Classification [12.92202472766078]
本稿では,2つのネットワークの強みを最大限に維持するための新しい手法を提案する。
提案モデルでは、畳み込みニューラルネットワークを用いて、各行が異なる側面から各単語の重要性を反映する2次元重み行列を学習する。
両方向のRNNを用いて各単語を処理し、前後に隠された状態を融合して単語表現を得る神経テンソル層を用いる。
論文 参考訳(メタデータ) (2020-06-29T03:36:04Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。