論文の概要: Who Does This Name Remind You of? Nationality Prediction via Large Language Model Associative Memory
- arxiv url: http://arxiv.org/abs/2601.12771v1
- Date: Mon, 19 Jan 2026 06:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.786175
- Title: Who Does This Name Remind You of? Nationality Prediction via Large Language Model Associative Memory
- Title(参考訳): 誰の名前を冠したか? 大規模言語モデル連想記憶による国籍予測
- Authors: Keito Inoshita,
- Abstract要約: 国籍と地域予測のタスクは、言語的特徴だけでなく、文化的、歴史的背景も理解する必要がある。
LLM世界知識を連想記憶として活用する新しいフレームワークであるLLM連想記憶エージェント(LAMA)を提案する。
99か国の国籍予測タスクにおいて、LAMAは0.817の精度を達成し、従来のLLMプロンプト法やニューラルモデルよりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) possess extensive world knowledge, yet methods for effectively eliciting this knowledge remain underexplored. Nationality and region prediction tasks require understanding of not only linguistic features but also cultural and historical background, making LLM world knowledge particularly valuable. However, conventional LLM prompting methods rely on direct reasoning approaches, which have limitations in applying abstract linguistic rules. We propose LLM Associative Memory Agents (LAMA), a novel framework that leverages LLM world knowledge as associative memory. Rather than directly inferring nationality from names, LAMA recalls famous individuals with the same name and aggregates their nationalities through indirect reasoning. A dual-agent architecture comprising a Person Agent and a Media Agent, specialized in different knowledge domains, recalls famous individuals in parallel, generating Top-1 predictions through voting and Top-K predictions through conditional completion. On a 99-country nationality prediction task, LAMA achieved 0.817 accuracy, substantially outperforming conventional LLM prompting methods and neural models. Our experiments reveal that LLMs exhibit higher reliability in recalling concrete examples than in abstract reasoning, that recall-based approaches are robust to low-frequency nationalities independent of data frequency distributions, and that the dual-agent architecture functions complementarily to produce synergistic effects. These results demonstrate the effectiveness of a new multi-agent system that retrieves and aggregates LLM knowledge rather than prompting reasoning.
- Abstract(参考訳): 大規模言語モデル (LLM) は広い世界知識を持っているが、この知識を効果的に引き出す方法はまだ解明されていない。
国籍と地域予測タスクは言語的特徴だけでなく文化的、歴史的背景も理解する必要があるため、LLMの世界知識は特に価値がある。
しかし、従来のLLMプロンプト法は、抽象言語規則の適用に制限がある直接的な推論手法に依存している。
LLM世界知識を連想記憶として活用する新しいフレームワークであるLLM連想記憶エージェント(LAMA)を提案する。
LAMAは、名前から直接国籍を推測する代わりに、同じ名前の有名人を思い出させ、間接的な推論を通じて国籍を集約する。
異なる知識領域を専門とするエージェントとメディアエージェントからなる二重エージェントアーキテクチャにおいて、有名人を並列にリコールし、投票によるトップ1予測と条件付き完了によるトップK予測を生成する。
99か国の国籍予測タスクにおいて、LAMAは0.817の精度を達成し、従来のLLMプロンプト法やニューラルモデルよりも大幅に優れていた。
実験の結果,LLMは抽象的推論よりも具体的な例を再現する上で高い信頼性を示し,データ周波数分布に依存しない低周波国籍に対してリコールベースのアプローチが堅牢であること,二重エージェントアーキテクチャが相補的に相乗効果を生み出すこと,などが判明した。
これらの結果から,LLMの知識を抽出・集約するマルチエージェントシステムの有効性が示唆された。
関連論文リスト
- Memorization or Reasoning? Exploring the Idiom Understanding of LLMs [9.136778374784734]
MIDASは6つの言語におけるイディオムの大規模なデータセットであり、それぞれが対応する意味と組み合わせられている。
以上の結果から,LLMは暗記だけでなく,文脈的手がかりと推論を統合したハイブリッドアプローチも採用していることが示唆された。
このことは、LLMにおける慣用的理解が、内部知識検索と推論に基づく推論の相互作用から生まれることを意味する。
論文 参考訳(メタデータ) (2025-05-22T04:31:25Z) - How Do Multilingual Language Models Remember Facts? [50.13632788453612]
これまでに同定された英語のリコール機構が多言語文脈に適用可能であることを示す。
我々は、リコール中の言語の役割をローカライズし、エンリッチメントが言語に依存しないことを発見した。
デコーダのみのLLMでは、FVは2つの異なる段階でこれらの2つの情報を構成する。
論文 参考訳(メタデータ) (2024-10-18T11:39:34Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。