論文の概要: Large Language Models for Zero-Shot Multicultural Name Recognition
- arxiv url: http://arxiv.org/abs/2507.04149v1
- Date: Sat, 05 Jul 2025 19:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.041247
- Title: Large Language Models for Zero-Shot Multicultural Name Recognition
- Title(参考訳): ゼロショット多文化認識のための大規模言語モデル
- Authors: Thanakorn Phonchai, Surasakdi Siripong, Nicholas Patterson, Owen Campbell,
- Abstract要約: 本稿では,Large Language Models (LLM) のための新しいフレームワーク Prompt-Engineered Fine-Tuning (PEFT) を提案する。
我々はLLMに、目に見えない名前の文化的起源を推測する前例のない能力を持たせる。
大規模な実験により,PEFT法は確立されたディープラーニングベースラインを一貫して上回っていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robust and accurate recognition of multicultural names, particularly those not previously encountered, is a critical challenge in an increasingly globalized digital landscape. Traditional methods often falter when confronted with the vast diversity and novel permutations of names across different linguistic and cultural backgrounds. This paper introduces a novel framework, Prompt-Engineered Fine-Tuning (PEFT) for Large Language Models (LLMs) with Adversarial Data Augmentation and Cultural Knowledge Graph Integration, designed to significantly enhance zero-shot multicultural name recognition. Our approach leverages the powerful linguistic understanding of pre-trained LLMs, transforming the recognition task into a guided generation problem. Through meticulous prompt engineering, dynamic integration of explicit cultural knowledge derived from knowledge graphs, and the strategic application of adversarial data augmentation, we equip the LLM with an unprecedented ability to infer the cultural origin of unseen names. Extensive experiments demonstrate that our PEFT method consistently outperforms established deep learning baselines, including advanced Bi-LSTM models with cultural tags, achieving an impressive 93.1\% overall accuracy and a remarkable 89.5\% accuracy on challenging zero-shot name identification. An in-depth ablation study confirms the synergistic contribution of each component, while a human evaluation highlights our method's performance approaching human expert judgment. This work signifies a substantial leap in multicultural name recognition, offering a highly effective and scalable solution for real-world applications.
- Abstract(参考訳): マルチカルチャーな名前の堅牢で正確な認識、特にこれまで遭遇しなかったものは、ますますグローバル化するデジタルランドスケープにおいて重要な課題である。
伝統的な手法は、様々な言語や文化の背景にまたがる様々な多様性と新しい名前の順応に直面すると、しばしば混乱する。
本稿では,言語モデル (LLMs) のための新しいフレームワークである Prompt-Engineered Fine-Tuning (PEFT) について紹介する。
提案手法は,事前学習されたLLMの強力な言語理解を活用し,認識タスクをガイド付き生成問題に変換する。
巧妙な素早いエンジニアリング、知識グラフに基づく明示的な文化的知識のダイナミックな統合、および敵対的データ拡張の戦略的応用を通じて、私たちはLLMに、目に見えない名前の文化的起源を推測する前例のない能力を持たせる。
我々のPEFT法は、文化的タグを持つ高度なBi-LSTMモデルなど、確立されたディープラーニングベースラインを一貫して上回り、全体的な精度は93.1\%、ゼロショット名の識別に挑戦する精度は89.5\%である。
in-deepth ablation study is confirmed the synergistic contribution of each components, a human evaluation is highlights our method's performance approaching human expert judgment。
この作業は、現実世界のアプリケーションに非常に効果的でスケーラブルなソリューションを提供する、多文化の名前認識における大きな飛躍を表している。
関連論文リスト
- From Word to World: Evaluate and Mitigate Culture Bias via Word Association Test [48.623761108859085]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好を緩和するために,カルチャー対応のステアリング機構を統合する革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - All Languages Matter: Evaluating LMMs on Culturally Diverse 100 Languages [73.93600813999306]
ALM-benchは、100言語にわたるLMMを評価するための、これまでで最大かつ最も包括的な取り組みである。
様々な言語でテキストと組み合わせた文化的に多様なイメージを理解し、推論する能力をテストすることで、既存のモデルに挑戦する。
このベンチマークは、真/偽、複数選択、オープンな質問など、さまざまな質問フォーマットを備えた、堅牢でニュアンスの高い評価フレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-25T15:44:42Z) - Methodology of Adapting Large English Language Models for Specific Cultural Contexts [10.151487049108626]
本稿では,特定の文化的文脈における大規模モデルの迅速な適応手法を提案する。
適応LLMは、ドメイン固有の知識と安全性値への適応性において、その能力を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-26T09:16:08Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。