論文の概要: The unreasonable effectiveness of pattern matching
- arxiv url: http://arxiv.org/abs/2601.11432v1
- Date: Fri, 16 Jan 2026 16:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.571681
- Title: The unreasonable effectiveness of pattern matching
- Title(参考訳): パターンマッチングの理にかなわない効果
- Authors: Gary Lupyan, Blaise Agüera y Arcas,
- Abstract要約: 大規模言語モデルは、ほとんどまたは全ての内容語がランダムにナンセンス文字列に置き換えられた「ジャバーウォッキー」言語を理解することができる。
LLMが構造パターンから意味を回復する能力は、パターンマッチングの理にかなった効果である。
- 参考スコア(独自算出の注目度): 1.0780189313017459
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We report on an astonishing ability of large language models (LLMs) to make sense of "Jabberwocky" language in which most or all content words have been randomly replaced by nonsense strings, e.g., translating "He dwushed a ghanc zawk" to "He dragged a spare chair". This result addresses ongoing controversies regarding how to best think of what LLMs are doing: are they a language mimic, a database, a blurry version of the Web? The ability of LLMs to recover meaning from structural patterns speaks to the unreasonable effectiveness of pattern-matching. Pattern-matching is not an alternative to "real" intelligence, but rather a key ingredient.
- Abstract(参考訳): 我々は,大言語モデル(LLM)の驚くべき能力について報告し,ほとんどあるいはすべての内容語が無意味な文字列にランダムに置き換えられたような"Jabberwocky"言語を理解できるようにし,"He dwushed a ghanc zawk"を"He dragged a spare chair"に翻訳する。
この結果は、LLMが何をしているかを最もよく考える上で、進行中の論争に対処する。それらは言語模倣、データベース、Webのぼやけたバージョンか?
LLMが構造パターンから意味を回復する能力は、パターンマッチングの理にかなった効果である。
パターンマッチングは「リアル」インテリジェンスに代わるものではなく、むしろ重要な要素である。
関連論文リスト
- A Typologically Grounded Evaluation Framework for Word Order and Morphology Sensitivity in Multilingual Masked LMs [2.895343274331944]
我々はmBERTとXLM-Rを英語、中国語、ドイツ語、スペイン語、ロシア語で評価した。
全スクランブルは全言語でゼロに近い単語レベルの再構築精度を駆動する。
トップ5ワードの精度は同じパターンを示しており、フルスクランブルの下では、ゴールドワードが5つの最上位の再構築に現れることはめったにない。
論文 参考訳(メタデータ) (2026-02-28T03:13:34Z) - The Astonishing Ability of Large Language Models to Parse Jabberwockified Language [0.0]
大きな言語モデル(LLM)は、ひどく劣化した英語のテキストから意味を回復する驚くべき能力を持っている。
構造的手がかり(例えば、モルフォシンタクス、クローズドクラス語)が、想像以上に語彙的意味をはるかに大きく制限していることが示される。
論文 参考訳(メタデータ) (2026-02-27T11:23:45Z) - STITCH: Simultaneous Thinking and Talking with Chunked Reasoning for Spoken Language Models [131.90117151306993]
音声言語モデル(SLM)は、音声入力を受信し、音声応答を生成するように設計されている。
現在のSLMは、応答する前に、内部的に無意味な思考プロセスを実行する能力が欠けている。
未知の推論チャンクと音声応答チャンクを交互に生成する新しい手法であるStitchを提案する。
論文 参考訳(メタデータ) (2025-07-21T08:30:03Z) - On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Unnatural Languages Are Not Bugs but Features for LLMs [92.8332103170009]
大規模言語モデル(LLM)は、ジェイルブレイクプロンプトなどの非可読テキストシーケンスを処理するために観察されている。
我々はこの認識に挑戦する体系的な調査を行い、非自然言語にはモデルで使用可能な潜在的特徴が含まれていることを示した。
論文 参考訳(メタデータ) (2025-03-02T12:10:17Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Active Use of Latent Constituency Representation in both Humans and Large Language Models [9.995581737621505]
本研究では,人間の脳モデルと大規模言語モデルの両方において,木構造が潜在する選挙区表現が出現することを示す。
以上の結果から,ヒト脳とLDMの両方に潜在木構造領域の表現が出現する可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-28T14:50:22Z) - Evaluating Dialect Robustness of Language Models via Conversation Understanding [2.8514881296685113]
私たちは「タブー」という語遊びをする人間同士の英語(アメリカ英語またはインド英語)の会話を使う。
目的語予測 (TWP) (textiti.e.$, predict the masked target word in a conversation) と目標語選択 (TWS) (textiti.e.$, select the most likely masked target word in a conversation) という2つの評価課題を定式化する。
私たちは、en-MV(en-USが方言情報を含むように変換される)とen-TR(方言情報を含む)の2つのサブセットを作成します。
論文 参考訳(メタデータ) (2024-05-09T11:38:23Z) - Large language models and linguistic intentionality [0.0]
代わりに、言語モデルが言語内容の最高のメタセマンティック理論によって与えられる基準を満たすかどうかを検討するべきだと論じる。
LLMが精神的な意図性のために妥当な条件を満たせなかったことが、アウトプットを意味のないものにしていると考えるのは間違いだと私は主張する。
論文 参考訳(メタデータ) (2024-04-15T08:37:26Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Characterizing Verbatim Short-Term Memory in Neural Language Models [19.308884420859027]
我々は、以前テキストで発生した正確な単語を言語モデルで検索できるかどうかを検証した。
変換器は最初のリストから名詞の同一性と順序の両方を検索した。
先行トークンをインデクシングする能力は、学習された注意パターンに依存する。
論文 参考訳(メタデータ) (2022-10-24T19:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。