論文の概要: Culturally-Grounded Chain-of-Thought (CG-CoT):Enhancing LLM Performance on Culturally-Specific Tasks in Low-Resource Languages
- arxiv url: http://arxiv.org/abs/2506.01190v1
- Date: Sun, 01 Jun 2025 21:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.708189
- Title: Culturally-Grounded Chain-of-Thought (CG-CoT):Enhancing LLM Performance on Culturally-Specific Tasks in Low-Resource Languages
- Title(参考訳): 文化的囲い合い(CG-CoT):低資源言語における文化的タスクにおけるLCM性能の向上
- Authors: Madhavendra Thakur,
- Abstract要約: 大規模言語モデル(LLM)は、特に低リソース言語において、文化的に特定の推論タスクに苦しむ。
本稿では,文化的文脈の高密度ベクトル検索と明示的な推論シーケンスを組み合わせた新しいプロンプト戦略であるCG-CoTを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) struggle with culturally-specific reasoning tasks, particularly in low-resource languages, hindering their global applicability. Addressing this gap is crucial for equitable AI deployment. We introduce Culturally-Grounded Chain-of-Thought (CG-CoT), a novel prompting strategy that combines dense vector retrieval of cultural context with explicit reasoning sequences. Our extensive experiments on Yoruba proverb interpretation demonstrate that CG-CoT provides significantly higher culturally-aligned accuracy and depth than traditional prompting methods, validated through both automated metrics and LLM-based evaluations. Notably, we uncover stark disparities between token-level translation metrics like BLEU and human-judged cultural relevance, suggesting a rethinking of evaluation approaches for low-resource NLP.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特に低リソース言語において、文化的に特有の推論タスクに苦慮し、そのグローバルな適用性を妨げている。
このギャップに対処することは、公平なAIデプロイメントに不可欠である。
本稿では,文化的文脈の高密度ベクトル検索と明示的な推論シーケンスを組み合わせた新しいプロンプト戦略であるCG-CoTを紹介する。
ヨルバの解釈に関する広範な実験により、CG-CoTは従来のプロンプト法よりも文化的に整合した精度と深さを著しく高め、自動測定とLCMに基づく評価によって検証した。
特に,BLEUのようなトークンレベルの翻訳指標と人手による文化的関連性との間に大きな違いが発見され,低リソースNLPの評価手法の再考が示唆された。
関連論文リスト
- Disentangling Language and Culture for Evaluating Multilingual Large Language Models [48.06219053598005]
本稿では,LLMの多言語機能を包括的に評価するデュアル評価フレームワークを提案する。
言語媒体と文化的文脈の次元に沿って評価を分解することにより、LLMが言語間を横断的に処理する能力の微妙な分析を可能にする。
論文 参考訳(メタデータ) (2025-05-30T14:25:45Z) - CulFiT: A Fine-grained Cultural-aware LLM Training Paradigm via Multilingual Critique Data Synthesis [41.261808170896686]
CulFiTは、多言語データと微粒な報酬モデリングを利用して、文化的感受性と傾きを高める新しいトレーニングパラダイムである。
本手法は,文化関連諸質問を合成し,文化関連言語における批判データを構築し,文化文献を検証可能な知識単位に分解するために,きめ細かい報酬を用いる。
論文 参考訳(メタデータ) (2025-05-26T04:08:26Z) - From Word to World: Evaluate and Mitigate Culture Bias via Word Association Test [48.623761108859085]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好を緩和するために,カルチャー対応のステアリング機構を統合する革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - Preserving Cultural Identity with Context-Aware Translation Through Multi-Agent AI Systems [0.4218593777811082]
言語は文化的アイデンティティの基盤となっているが、グローバル化と主要言語の優位性により、3000近い言語が絶滅の危機にさらされている。
既存のAI駆動翻訳モデルは効率を優先するが、しばしば文化的ニュアンス、慣用的な表現、歴史的重要性を捉えない。
本稿では,言語コミュニティにおける文化適応型翻訳のための多言語AIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T06:43:59Z) - Methodology of Adapting Large English Language Models for Specific Cultural Contexts [10.151487049108626]
本稿では,特定の文化的文脈における大規模モデルの迅速な適応手法を提案する。
適応LLMは、ドメイン固有の知識と安全性値への適応性において、その能力を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-26T09:16:08Z) - Understanding the Capabilities and Limitations of Large Language Models for Cultural Commonsense [98.09670425244462]
大規模言語モデル(LLM)は、かなりの常識的理解を示している。
本稿では,文化的コモンセンスタスクの文脈におけるいくつかの最先端LCMの能力と限界について検討する。
論文 参考訳(メタデータ) (2024-05-07T20:28:34Z) - Benchmarking Machine Translation with Cultural Awareness [50.183458829028226]
文化関連コンテンツの翻訳は、効果的な異文化間コミュニケーションに不可欠である。
多くの文化特化項目(CSI)は言語間の翻訳を欠いていることが多い。
この難しさは機械翻訳システムの文化的意識の分析を妨げる。
論文 参考訳(メタデータ) (2023-05-23T17:56:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。