論文の概要: The unreasonable effectiveness of pattern matching
- arxiv url: http://arxiv.org/abs/2601.11432v1
- Date: Fri, 16 Jan 2026 16:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.571681
- Title: The unreasonable effectiveness of pattern matching
- Title(参考訳): パターンマッチングの理にかなわない効果
- Authors: Gary Lupyan, Blaise Agüera y Arcas,
- Abstract要約: 大規模言語モデルは、ほとんどまたは全ての内容語がランダムにナンセンス文字列に置き換えられた「ジャバーウォッキー」言語を理解することができる。
LLMが構造パターンから意味を回復する能力は、パターンマッチングの理にかなった効果である。
- 参考スコア(独自算出の注目度): 1.0780189313017459
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We report on an astonishing ability of large language models (LLMs) to make sense of "Jabberwocky" language in which most or all content words have been randomly replaced by nonsense strings, e.g., translating "He dwushed a ghanc zawk" to "He dragged a spare chair". This result addresses ongoing controversies regarding how to best think of what LLMs are doing: are they a language mimic, a database, a blurry version of the Web? The ability of LLMs to recover meaning from structural patterns speaks to the unreasonable effectiveness of pattern-matching. Pattern-matching is not an alternative to "real" intelligence, but rather a key ingredient.
- Abstract(参考訳): 我々は,大言語モデル(LLM)の驚くべき能力について報告し,ほとんどあるいはすべての内容語が無意味な文字列にランダムに置き換えられたような"Jabberwocky"言語を理解できるようにし,"He dwushed a ghanc zawk"を"He dragged a spare chair"に翻訳する。
この結果は、LLMが何をしているかを最もよく考える上で、進行中の論争に対処する。それらは言語模倣、データベース、Webのぼやけたバージョンか?
LLMが構造パターンから意味を回復する能力は、パターンマッチングの理にかなった効果である。
パターンマッチングは「リアル」インテリジェンスに代わるものではなく、むしろ重要な要素である。
関連論文リスト
- On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Unnatural Languages Are Not Bugs but Features for LLMs [92.8332103170009]
大規模言語モデル(LLM)は、ジェイルブレイクプロンプトなどの非可読テキストシーケンスを処理するために観察されている。
我々はこの認識に挑戦する体系的な調査を行い、非自然言語にはモデルで使用可能な潜在的特徴が含まれていることを示した。
論文 参考訳(メタデータ) (2025-03-02T12:10:17Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Active Use of Latent Constituency Representation in both Humans and Large Language Models [9.995581737621505]
本研究では,人間の脳モデルと大規模言語モデルの両方において,木構造が潜在する選挙区表現が出現することを示す。
以上の結果から,ヒト脳とLDMの両方に潜在木構造領域の表現が出現する可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-28T14:50:22Z) - Evaluating Dialect Robustness of Language Models via Conversation Understanding [2.8514881296685113]
私たちは「タブー」という語遊びをする人間同士の英語(アメリカ英語またはインド英語)の会話を使う。
目的語予測 (TWP) (textiti.e.$, predict the masked target word in a conversation) と目標語選択 (TWS) (textiti.e.$, select the most likely masked target word in a conversation) という2つの評価課題を定式化する。
私たちは、en-MV(en-USが方言情報を含むように変換される)とen-TR(方言情報を含む)の2つのサブセットを作成します。
論文 参考訳(メタデータ) (2024-05-09T11:38:23Z) - Large language models and linguistic intentionality [0.0]
代わりに、言語モデルが言語内容の最高のメタセマンティック理論によって与えられる基準を満たすかどうかを検討するべきだと論じる。
LLMが精神的な意図性のために妥当な条件を満たせなかったことが、アウトプットを意味のないものにしていると考えるのは間違いだと私は主張する。
論文 参考訳(メタデータ) (2024-04-15T08:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。