論文の概要: Large language models have learned to use language
- arxiv url: http://arxiv.org/abs/2512.12447v1
- Date: Sat, 13 Dec 2025 20:09:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.265888
- Title: Large language models have learned to use language
- Title(参考訳): 大規模言語モデルが言語の使用を学習した
- Authors: Gary Lupyan,
- Abstract要約: 大きな言語モデルが言語を使うことを学んだことは、言語科学を突破する扉を開くことができる。
これらのブレークスルーを達成するには、言語知識の評価方法に関する長年の考えを捨てる必要があるかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acknowledging that large language models have learned to use language can open doors to breakthrough language science. Achieving these breakthroughs may require abandoning some long-held ideas about how language knowledge is evaluated and reckoning with the difficult fact that we have entered a post-Turing test era.
- Abstract(参考訳): 大きな言語モデルが言語を使うことを学んだことは、言語科学を突破する扉を開くことができる。
これらのブレークスルーを達成するには、言語知識がどのように評価され、私たちがポストチューリングテスト時代に入ったという難しい事実に言及されるかという、長く続いた考えを捨てる必要があるかもしれません。
関連論文リスト
- Language Generation: Complexity Barriers and Implications for Learning [51.449718747429756]
単純でよく研究された言語ファミリであっても、成功した生成に必要なサンプルの数は極端に多いことが示される。
これらの結果は、理論的可能性と効率的な学習可能性の間に大きなギャップがあることを明らかにする。
論文 参考訳(メタデータ) (2025-11-07T23:06:48Z) - Crosslingual Reasoning through Test-Time Scaling [51.55526326294275]
英語中心の推論言語モデル(RLM)に対する推論計算のスケールアップは、多くの言語における多言語数学的推論を改善する。
英語中心の RLM の CoT は自然に英語が主流であるが、引用された非英語入力を推論するための引用と思考のパターンは一貫して従っている。
我々は、ドメイン外推論の一般化、特にSTEMから文化常識の知識まで、英語においても、貧弱なドメイン外推論の一般化を観察する。
論文 参考訳(メタデータ) (2025-05-08T16:50:06Z) - How Linguistics Learned to Stop Worrying and Love the Language Models [17.413438037432414]
我々は、LMの成功は言語理論と構造を研究する必要性を損なうと論じている。
言語学に根ざした議論や考え方を再考せざるを得ない。
言語モデルと言語学の関係について楽観的な見解を提供する。
論文 参考訳(メタデータ) (2025-01-28T16:13:19Z) - Searching for Structure: Investigating Emergent Communication with Large Language Models [0.10923877073891446]
我々は,大規模言語モデルが人工言語を学習し,使用する古典的参照ゲームについてシミュレートする。
この結果から, 当初構造化されていない全体言語は, 2つのLLMエージェントが正常に通信できるような構造的特性を持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-10T16:32:19Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Robust Open-Set Spoken Language Identification and the CU MultiLang
Dataset [2.048226951354646]
オープンセット音声言語識別システムは、入力が元の言語を示さないことを検出できる。
我々は,MFCCとピッチ特徴を用いたオープンセット音声言語識別のための新しい手法を実装した。
我々は、訓練された言語で91.76%の精度を達成し、未知の言語に適応する能力を有する音声言語識別システムを提案する。
論文 参考訳(メタデータ) (2023-08-29T00:44:27Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。