論文の概要: Generative Linguistics, Large Language Models, and the Social Nature of Scientific Success
- arxiv url: http://arxiv.org/abs/2503.20088v1
- Date: Tue, 25 Mar 2025 21:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:03.353327
- Title: Generative Linguistics, Large Language Models, and the Social Nature of Scientific Success
- Title(参考訳): 生成言語学, 大規模言語モデル, 科学的成功の社会性
- Authors: Sophie Hao,
- Abstract要約: チェシの(今後)対象とする論文は、危機にある生成言語学を描いている。
チェシは生き残るために、遺伝学者は形式的で経験的な厳密さのより高い基準に固執しなければならないと警告している。
この反応は、チェシとピアンタドシが記述した危機は、実際は厳密さとはほとんど関係がないが、むしろ遺伝学者の限られた社会的野心の反映であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Chesi's (forthcoming) target paper depicts a generative linguistics in crisis, foreboded by Piantadosi's (2023) declaration that "modern language models refute Chomsky's approach to language." In order to survive, Chesi warns, generativists must hold themselves to higher standards of formal and empirical rigor. This response argues that the crisis described by Chesi and Piantadosi actually has little to do with rigor, but is rather a reflection of generativists' limited social ambitions. Chesi ties the fate of generative linguistics to its intellectual merits, but the current success of language model research is social in nature as much as it is intellectual. In order to thrive, then, generativists must do more than heed Chesi's call for rigor; they must also expand their ambitions by giving outsiders a stake in their future success.
- Abstract(参考訳): チェシの(今後)対象とする論文は、ピアンタドシの2023年の宣言に先駆けて「現代の言語モデルはチョムスキーの言語へのアプローチに反する」という危機的言語学を描いている。
チェシは生き残るために、遺伝学者は形式的で経験的な厳密さのより高い基準に固執しなければならないと警告している。
この反応は、チェシとピアンタドシが記述した危機は、実際は厳密さとはほとんど関係がないが、むしろ遺伝学者の限られた社会的野心の反映であると主張している。
チェシは生成言語学の運命と知的なメリットを結び付けているが、言語モデル研究の現在の成功は本質的には知的であると同時に社会的である。
成長するためには、系譜主義者はチェシの厳格な要求をためらう以上のことをしなければならない。
関連論文リスト
- LIMBA: An Open-Source Framework for the Preservation and Valorization of Low-Resource Languages using Generative Models [62.47865866398233]
この白書は低リソース言語のための言語ツールを生成するためのフレームワークを提案する。
このような言語に対するインテリジェントな応用を妨げるデータ不足に対処することにより、言語多様性の促進に寄与する。
論文 参考訳(メタデータ) (2024-11-20T16:59:41Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Unlocking Anticipatory Text Generation: A Constrained Approach for Large Language Models Decoding [75.06872859716049]
大規模言語モデル(LLM)は、テキスト生成の強力な能力を示している。
毒性や幻覚などの望ましくない行動が現れることがある。
将来制約付き生成問題としてテキスト生成の形式化を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:35:33Z) - Why Linguistics Will Thrive in the 21st Century: A Reply to Piantadosi
(2023) [5.2424255020469595]
我々は、「現代言語モデルはチョムスキーの言語へのアプローチに反する」というピアンタドシの主張を批判的に評価する。
大きな言語モデルの性能と実用性にもかかわらず、人間は桁違いに少ないデータに晒された後、言語に対する能力を達成する。
本稿は,21世紀以降の科学分野としての生成言語学が不可欠であると結論付けている。
論文 参考訳(メタデータ) (2023-08-06T23:41:14Z) - Uncertainty in Natural Language Generation: From Theory to Applications [42.55924708592451]
我々は,不確実性に対する原則的対応が,これらの目標に適合するシステムや評価プロトコルの作成に有効であると主張している。
まず,不確実性を表現するために必要な基本理論,枠組み,語彙について述べる。
そこで,本研究では,一般的なアレタリック/エピステミック二分法よりも情報的かつ忠実な2次元分類法を提案する。
論文 参考訳(メタデータ) (2023-07-28T17:51:21Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Verbal behavior without syntactic structures: beyond Skinner and Chomsky [0.0]
言語がどんな人間の行動であるかを再発見しなければならない。
最近の心理学的、計算的、神経生物学的、そして行動の成型と構造に関する進化的な洞察は、我々を新しい、実行可能な言語の説明へと導くかもしれない。
論文 参考訳(メタデータ) (2023-03-11T00:01:21Z) - Democratizing Ethical Assessment of Natural Language Generation Models [0.0]
自然言語生成モデル(英: natural language generation model)とは、単語の列を文脈として刺激するとコヒーレントな言語を生成するコンピュータシステムである。
ユビキティと多くの有益な応用にもかかわらず、言語生成モデルは社会に害を与える可能性がある。
したがって、これらのモデルの倫理的評価は重要である。
本稿では,自然言語生成モデルの倫理的評価を民主化し,標準化するための新しいツールを紹介する。
論文 参考訳(メタデータ) (2022-06-30T12:20:31Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - The Rediscovery Hypothesis: Language Models Need to Meet Linguistics [8.293055016429863]
現代言語モデルの性能向上に言語知識が必須条件であるかどうかを検討する。
その結果, 言語構造を探索した場合, かなり圧縮されるが, 事前学習目的によく適合する言語モデルは, 良好なスコアを保っていることがわかった。
この結果は再発見仮説を支持し,本論文の第2の貢献である言語モデル目標と言語情報との関連性に関する情報論的枠組みを導出する。
論文 参考訳(メタデータ) (2021-03-02T15:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。