論文の概要: Language Cognition and Language Computation -- Human and Machine
Language Understanding
- arxiv url: http://arxiv.org/abs/2301.04788v1
- Date: Thu, 12 Jan 2023 02:37:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:20:46.331557
- Title: Language Cognition and Language Computation -- Human and Machine
Language Understanding
- Title(参考訳): 言語認知と言語計算-人間と機械による言語理解
- Authors: Shaonan Wang, Nai Ding, Nan Lin, Jiajun Zhang, Chengqing Zong
- Abstract要約: 言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
これらの規律を組み合わせることで、インテリジェントな言語モデルを構築する上で、新たな洞察が得られますか?
- 参考スコア(独自算出の注目度): 51.56546543716759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language understanding is a key scientific issue in the fields of cognitive
and computer science. However, the two disciplines differ substantially in the
specific research questions. Cognitive science focuses on analyzing the
specific mechanism of the brain and investigating the brain's response to
language; few studies have examined the brain's language system as a whole. By
contrast, computer scientists focus on the efficiency of practical applications
when choosing research questions but may ignore the most essential laws of
language. Given these differences, can a combination of the disciplines offer
new insights for building intelligent language models and studying language
cognitive mechanisms? In the following text, we first review the research
questions, history, and methods of language understanding in cognitive and
computer science, focusing on the current progress and challenges. We then
compare and contrast the research of language understanding in cognitive and
computer sciences. Finally, we review existing work that combines insights from
language cognition and language computation and offer prospects for future
development trends.
- Abstract(参考訳): 言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
しかし、この2つの分野は特定の研究課題において大きく異なる。
認知科学は、脳の特定のメカニズムを分析し、言語に対する脳の反応を調べることに焦点を当てている。
対照的に、コンピュータ科学者は研究課題を選択する際に実用的応用の効率性に重点を置いているが、言語に関する最も重要な法則を無視する可能性がある。
これらの違いを考えると、これらの分野の組み合わせは、知的言語モデルの構築と言語認知メカニズムの研究に新たな洞察を与えることができるだろうか?
以下のテキストでは、認知科学とコンピュータ科学における言語理解の研究課題、歴史、方法について概観し、現在の進歩と課題に焦点をあてる。
次に、認知科学とコンピュータ科学における言語理解の研究を比較し、対比する。
最後に,言語認知と言語計算の知見を組み合わせた既存の研究をレビューし,今後の開発動向を展望する。
関連論文リスト
- Decoding Linguistic Representations of Human Brain [21.090956290947275]
テキスト形式と音声形式の両方を脳から言語へ復号する分類法を提案する。
この研究は、言語理解に焦点を当てた神経科学と深層学習に基づく脳復号という2つのタイプの研究を統合している。
論文 参考訳(メタデータ) (2024-07-30T07:55:44Z) - Lost in Translation: The Algorithmic Gap Between LMs and the Brain [8.799971499357499]
言語モデル(LM)は、様々な言語課題において印象的な性能を達成しているが、脳内の人間の言語処理との関係は未だ不明である。
本稿では、異なるレベルの分析において、LMと脳のギャップと重複について検討する。
神経科学からの洞察(空間性、モジュール性、内部状態、インタラクティブ学習など)が、より生物学的に妥当な言語モデルの開発にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2024-07-05T17:43:16Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Tapping into the Natural Language System with Artificial Languages when
Learning Programming [7.5520627446611925]
本研究の目的は,言語学習機構の活性化による学習プログラムの強化を図り,その実現可能性を検討することである。
我々は,人工言語の学習をカリキュラムに簡単に組み込むことができることを観察した。
しかし,本研究の文脈では,学生がまず人工言語を学ぶと,プログラミング能力に有意な利益が得られなかった。
論文 参考訳(メタデータ) (2024-01-12T07:08:55Z) - Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human
Narrative Processing [0.0]
これまでの研究では、言語モデルの特徴がfMRI脳活動にマッピングできることが示されている。
これは、言語モデルにおける情報処理と人間の脳の間に共通点があるのだろうか?
言語モデルにおける情報フローパターンを推定するために,異なる層間の因果関係について検討した。
論文 参考訳(メタデータ) (2023-11-17T10:09:12Z) - Retentive or Forgetful? Diving into the Knowledge Memorizing Mechanism
of Language Models [49.39276272693035]
大規模事前学習型言語モデルは、顕著な記憶能力を示している。
プレトレーニングのないバニラニューラルネットワークは、破滅的な忘れ物問題に悩まされていることが長年観察されてきた。
1)バニラ言語モデルは忘れがちである; 2)事前学習は暗黙の言語モデルにつながる; 3)知識の妥当性と多様化は記憶形成に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-16T03:50:38Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z) - Data-driven models and computational tools for neurolinguistics: a
language technology perspective [12.082438928980087]
本稿では,脳画像に基づく神経言語学的研究について,自然言語表現に焦点をあてて概説する。
神経言語学と言語技術の相互豊か化は、脳に認識された自然言語表現の開発につながる。
論文 参考訳(メタデータ) (2020-03-23T20:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。