論文の概要: Inaccessible Neural Language Models Could Reinvigorate Linguistic
Nativism
- arxiv url: http://arxiv.org/abs/2301.05272v1
- Date: Thu, 12 Jan 2023 19:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:08:29.101187
- Title: Inaccessible Neural Language Models Could Reinvigorate Linguistic
Nativism
- Title(参考訳): アクセシブルニューラルネットワークモデルは言語的ナチビズムを再活性化させる
- Authors: Patrick Perrine
- Abstract要約: 大規模言語モデル(LLM)は、機械学習コミュニティで大きな波を呼んでいる。
この研究は、このアクセシビリティの欠如が、計算言語学に新しい研究者のナチビストバイアスを具現化できると主張している。
このような出来事は、言語処理コミュニティにおいて、新たなナチビズムの波を引き起こす可能性があると推測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have been making big waves in the machine
learning community within the past few years. The impressive scalability of
LLMs due to the advent of deep learning can be seen as a continuation of
empiricist lingusitic methods, as opposed to rule-based linguistic methods that
are grounded in a nativist perspective. Current LLMs are generally inaccessible
to resource-constrained researchers, due to a variety of factors including
closed source code. This work argues that this lack of accessibility could
instill a nativist bias in researchers new to computational linguistics, given
that new researchers may only have rule-based, nativist approaches to study to
produce new work. Also, given that there are numerous critics of deep learning
claiming that LLMs and related methods may soon lose their relevancy, we
speculate that such an event could trigger a new wave of nativism in the
language processing community. To prevent such a dramatic shift and placing
favor in hybrid methods of rules and deep learning, we call upon researchers to
open source their LLM code wherever possible to allow both empircist and hybrid
approaches to remain accessible.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ここ数年、機械学習コミュニティで大きな波を起こしています。
深層学習の出現によるllmの印象的な拡張性は、経験主義的な言語学的手法の継続と見なすことができ、ナティビズム的な観点から基礎を置く規則に基づく言語的手法とは対照的である。
現在のLLMは、クローズドソースコードを含む様々な要因のため、リソース制約のある研究者には一般にアクセスできない。
この研究は、このアクセシビリティの欠如は、新しい研究者が新しい研究を創造するために、規則に基づいたナティビストのアプローチしか持たない可能性があるため、計算言語学に詳しい研究者にナティビストのバイアスを植え付ける可能性があると主張している。
また,LLMと関連する手法がすぐに関連性を失う可能性があると主張する深層学習に対する批判が多数存在することから,そのような出来事が言語処理コミュニティにおける新たなナチビズムの波を引き起こす可能性があると推測する。
このような劇的な変化を防止し、規則とディープラーニングのハイブリッドな方法に有利な姿勢をとるため、我々は研究者に、実験者およびハイブリッドなアプローチの両方が引き続きアクセス可能であるように、LLMコードをオープンソースにするよう呼びかけた。
関連論文リスト
- Converging to a Lingua Franca: Evolution of Linguistic Regions and Semantics Alignment in Multilingual Large Language Models [11.423589362950812]
大規模言語モデル(LLM)は、特に多言語文脈において顕著な性能を示した。
近年の研究では、LLMは、ある言語で学んだスキルを他の言語に伝達することができることが示唆されているが、この能力の背後にある内部メカニズムはいまだ不明である。
本稿では,LLMの内部動作に関する知見を提供し,言語間能力の向上のための基盤を提供する。
論文 参考訳(メタデータ) (2024-10-15T15:49:15Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Limits for Learning with Language Models [4.20859414811553]
大規模言語モデル(LLM)がボレル階層の第一段階を超えて概念を学習できないことを示す。
LLMは、細部と深い言語的理解を必要とするタスクについて、正式な保証なしに運用を続ける。
論文 参考訳(メタデータ) (2023-06-21T12:11:31Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。