論文の概要: Universal Syntactic Structures: Modeling Syntax for Various Natural
Languages
- arxiv url: http://arxiv.org/abs/2402.01641v1
- Date: Thu, 28 Dec 2023 20:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 17:14:43.088364
- Title: Universal Syntactic Structures: Modeling Syntax for Various Natural
Languages
- Title(参考訳): ユニバーサル構文構造:様々な自然言語に対するモデリング構文
- Authors: Min K. Kim, Hafu Takero, Sara Fedovik
- Abstract要約: 我々は,人間の脳が文形成の言葉をどう結び付けるかを説明することを目的とする。
構文表現をモデル化する新しい手法が提案され、全ての自然言語に普遍的な構文構造が存在する可能性が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We aim to provide an explanation for how the human brain might connect words
for sentence formation. A novel approach to modeling syntactic representation
is introduced, potentially showing the existence of universal syntactic
structures for all natural languages. As the discovery of DNA's double helix
structure shed light on the inner workings of genetics, we wish to introduce a
basic understanding of how language might work in the human brain. It could be
the brain's way of encoding and decoding knowledge. It also brings some insight
into theories in linguistics, psychology, and cognitive science. After looking
into the logic behind universal syntactic structures and the methodology of the
modeling technique, we attempt to analyze corpora that showcase universality in
the language process of different natural languages such as English and Korean.
Lastly, we discuss the critical period hypothesis, universal grammar, and a few
other assertions on language for the purpose of advancing our understanding of
the human brain.
- Abstract(参考訳): 我々は,人間の脳が文形成の言葉をどう結び付けるかを説明することを目的とする。
構文表現をモデル化する新しいアプローチが導入され、すべての自然言語に対する普遍構文構造の存在を示す可能性がある。
DNAの二重ヘリックス構造が遺伝学の内部構造に光を当てていることから、言語が人間の脳でどのように機能するかの基礎的な理解を導入したいと考えています。
それは脳の知識のエンコーディングと復号化の方法かもしれない。
また、言語学、心理学、認知科学の理論にいくつかの洞察をもたらす。
普遍構文構造の背後にある論理とモデリング手法の方法論を考察した後、英語や韓国語など様々な自然言語の言語プロセスにおける普遍性を示すコーパスの分析を試みる。
最後に、人間の脳の理解を深めるために、臨界期仮説、普遍文法、言語に関するいくつかの主張について議論する。
関連論文リスト
- Finding Structure in Language Models [3.882018118763685]
この論文は、言語モデルが人間のものと似た文法構造を深く理解しているかどうかに関するものである。
我々は,大規模言語モデルの複雑な性質の理解を深める新しい解釈可能性技術を開発する。
論文 参考訳(メタデータ) (2024-11-25T14:37:24Z) - "On the goals of linguistic theory": Revisiting Chomskyan theories in the era of AI [0.20923359361008084]
理論的言語学は、人間の言語とは何か、なぜなのかを説明する。
大きな言語モデルのような人工知能モデルは、印象的な言語能力を持つことが証明されている。
多くの人は、理論言語学が究極的な研究目標に達するのを助けるために、そのようなモデルがどのような役割を果たすべきかを疑問視している。
論文 参考訳(メタデータ) (2024-11-15T19:09:22Z) - Structural Priming Demonstrates Abstract Grammatical Representations in
Multilingual Language Models [6.845954748361076]
我々は,大言語モデルにおける抽象単言語および多言語文法表現の証拠を見出した。
その結果、多言語言語モデルにおける文法表現は言語間で類似しているだけでなく、異なる言語で生成されたテキストに因果的に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2023-11-15T18:39:56Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Verbal behavior without syntactic structures: beyond Skinner and Chomsky [0.0]
言語がどんな人間の行動であるかを再発見しなければならない。
最近の心理学的、計算的、神経生物学的、そして行動の成型と構造に関する進化的な洞察は、我々を新しい、実行可能な言語の説明へと導くかもしれない。
論文 参考訳(メタデータ) (2023-03-11T00:01:21Z) - Language Cognition and Language Computation -- Human and Machine
Language Understanding [51.56546543716759]
言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
これらの規律を組み合わせることで、インテリジェントな言語モデルを構築する上で、新たな洞察が得られますか?
論文 参考訳(メタデータ) (2023-01-12T02:37:00Z) - Same Neurons, Different Languages: Probing Morphosyntax in Multilingual
Pre-trained Models [84.86942006830772]
多言語事前学習モデルは文法に関する言語・ユニバーサルの抽象化を導出できると推測する。
43の言語と14のモルフォシンタクティックなカテゴリーで、最先端のニューロンレベルのプローブを用いて、初めて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-04T12:22:31Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D
World [86.21137454228848]
我々はPIGLeTを物理力学モデルと別言語モデルに分類する。
PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果を文字通りの記号表現を通して伝達する。
80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。
論文 参考訳(メタデータ) (2021-06-01T02:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。