論文の概要: Generative linguistics contribution to artificial intelligence: Where this contribution lies?
- arxiv url: http://arxiv.org/abs/2410.20221v3
- Date: Sat, 02 Nov 2024 18:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:41:07.503899
- Title: Generative linguistics contribution to artificial intelligence: Where this contribution lies?
- Title(参考訳): 生成言語学は人工知能に貢献する:この貢献はどこにあるのか?
- Authors: Mohammed Q. Shormani,
- Abstract要約: この記事では、研究者/読者がGLに属するAIに関わる科学的定理と理性について説明する。
AIへの大きなGL貢献にもかかわらず、言語入力の性質やタイプなど、相違点がまだ残っている、と結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This article aims to characterize Generative linguistics (GL) contribution to artificial intelligence (AI), alluding to the debate among linguists and AI scientists on whether linguistics belongs to humanities or science. In this article, I will try not to be biased as a linguist, studying the phenomenon from an independent scientific perspective. The article walks the researcher/reader through the scientific theorems and rationales involved in AI which belong from GL, specifically the Chomsky School. It, thus, provides good evidence from syntax, semantics, language faculty, Universal Grammar, computational system of human language, language acquisition, human brain, programming languages (e.g. Python), Large Language Models, and unbiased AI scientists that this contribution is huge, and that this contribution cannot be denied. It concludes that however the huge GL contribution to AI, there are still points of divergence including the nature and type of language input.
- Abstract(参考訳): 本稿では、言語学が人文科学に属しているかどうかについての言語学者やAI科学者の間での議論に言及し、人工知能(AI)に対するジェネレーティブ言語学(GL)の貢献を特徴づけることを目的とする。
本稿では,この現象を独立した科学的観点から研究し,言語学者として偏見を抱かないよう努力する。
この記事は、研究者/読者がGL、特にチョムスキー学派に属するAIに関わる科学的定理と理性について説明する。
したがって、構文、意味論、言語学部、ユニバーサル文法、人間の言語計算システム、言語習得、人間の脳、プログラミング言語(例えばPython)、大規模言語モデル、そして偏見のないAI科学者から、この貢献は巨大であり、この貢献は否定できないという明確な証拠を提供する。
AIへの大きなGL貢献にもかかわらず、言語入力の性質やタイプなど、相違点がまだ残っている、と結論付けている。
関連論文リスト
- Generative AI, Pragmatics, and Authenticity in Second Language Learning [0.0]
生成的AI(Artificial Intelligence)を言語学習と教育に統合する上で、明らかなメリットがある。
しかし、AIシステムが人間の言語に耐える方法のため、人間と同じ社会的認識を持つ言語を使えるような、生きた経験が欠けている。
言語や文化のバイアスは、そのトレーニングデータに基づいて構築されており、主に英語であり、主に西洋の情報源から来ている。
論文 参考訳(メタデータ) (2024-10-18T11:58:03Z) - Modelling Language [0.0]
本稿では,大規模言語モデルが言語科学モデルとして機能する上で重要な科学的役割を担っていることを論じる。
これは、大規模な言語モデルが科学モデルとしてどのように機能するかを示すために、科学哲学における最近の研究に基づいている。
論文 参考訳(メタデータ) (2024-04-15T08:40:01Z) - Formal Aspects of Language Modeling [74.16212987886013]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023) [5.2424255020469595]
我々は、「現代言語モデルはチョムスキーの言語へのアプローチに反する」というピアンタドシの主張を批判的に評価する。
大きな言語モデルの性能と実用性にもかかわらず、人間は桁違いに少ないデータに晒された後、言語に対する能力を達成する。
本稿は,21世紀以降の科学分野としての生成言語学が不可欠であると結論付けている。
論文 参考訳(メタデータ) (2023-08-06T23:41:14Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Dissociating language and thought in large language models [52.39241645471213]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
我々は、この区別を人間の神経科学に根ざし、形式的、機能的な能力は異なる神経機構に依存していることを示した。
LLMは形式的能力は驚くほど優れているが、機能的能力のタスクにおける性能はいまだに不明瞭である。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z) - Towards Language-driven Scientific AI [0.0]
私たちは、人間の能力に挑戦して新しい発見を行う複雑な科学的タスクに対処できるAIシステムを設計することにしました。
私たちのアプローチの中心は、自然言語を、科学的なAIと人間の科学者のコア表現、推論、交換フォーマットとする考え方です。
論文 参考訳(メタデータ) (2022-10-27T11:11:08Z) - Human Heuristics for AI-Generated Language Are Flawed [8.465228064780744]
我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
論文 参考訳(メタデータ) (2022-06-15T03:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。