論文の概要: VIRAASAT: Traversing Novel Paths for Indian Cultural Reasoning
- arxiv url: http://arxiv.org/abs/2602.18429v1
- Date: Fri, 20 Feb 2026 18:53:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.420335
- Title: VIRAASAT: Traversing Novel Paths for Indian Cultural Reasoning
- Title(参考訳): ビラサット:インド文化共生の新たな道のりを歩む
- Authors: Harshul Raj Surana, Arijit Maji, Aryan Vats, Akash Ghosh, Sriparna Saha, Amit Sheth,
- Abstract要約: VIRAASATは、インド文化のための文化的特定マルチホップ質問回答データセットを生成するための、新しい半自動マルチホップアプローチである。
我々は、VIRAASAT上の現状のSOTA (State-of-the-Art) LLMを評価し、チェイン・オブ・サートトレースの微調整が失敗し、低確率な事実を合成する理由として、重要な制約を特定する。
- 参考スコア(独自算出の注目度): 15.361641685493447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have made significant progress in reasoning tasks across various domains such as mathematics and coding. However, their performance deteriorates in tasks requiring rich socio-cultural knowledge and diverse local contexts, particularly those involving Indian Culture. Existing Cultural benchmarks are (i) Manually crafted, (ii) contain single-hop questions testing factual recall, and (iii) prohibitively costly to scale, leaving this deficiency largely unmeasured. To address this, we introduce VIRAASAT, a novel, semi-automated multi-hop approach for generating cultural specific multi-hop Question-Answering dataset for Indian culture. VIRAASAT leverages a Knowledge Graph comprising more than 700 expert-curated cultural artifacts, covering 13 key attributes of Indian culture (history, festivals, etc). VIRAASAT spans all 28 states and 8 Union Territories, yielding more than 3,200 multi-hop questions that necessitate chained cultural reasoning. We evaluate current State-of-the-Art (SOTA) LLMs on VIRAASAT and identify key limitations in reasoning wherein fine-tuning on Chain-of-Thought(CoT) traces fails to ground and synthesize low-probability facts. To bridge this gap, we propose a novel framework named Symbolic Chain-of-Manipulation (SCoM). Adapting the Chain-of-Manipulation paradigm, we train the model to simulate atomic Knowledge Graph manipulations internally. SCoM teaches the model to reliably traverse the topological structure of the graph. Experiments on Supervised Fine-Tuning (SFT) demonstrate that SCoM outperforms standard CoT baselines by up to 20%. We release the VIRAASAT dataset along with our findings, laying a strong foundation towards building Culturally Aware Reasoning Models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、数学やコーディングなど、様々な分野における推論タスクに大きな進歩をもたらした。
しかし、そのパフォーマンスは、豊かな社会文化知識と様々な地域、特にインド文化に関わるタスクで悪化した。
既存の文化ベンチマークは
(i)手工芸品
二 事実の想起を試すシングルホップ質問を含むこと、
(三)過度に規模を拡大し、この不足をほとんど未測定のままにしておくこと。
これを解決するために、インド文化のための文化特定マルチホップ質問回答データセットを生成するための、新しい半自動マルチホップアプローチであるVIRAASATを紹介した。
VIRAASATは700以上の専門家による文化アーティファクトからなるナレッジグラフを活用し、インド文化(歴史、祭典など)の重要な13の属性をカバーしている。
VIRAASATは28の州と8のユニオン準州にまたがっており、連鎖した文化的な推論を必要とする3,200以上のマルチホップ質問を生み出している。
我々は、VIRAASAT上での現在のSOTA (State-of-the-Art) LLMを評価し、チェイン・オブ・ソート(CoT)トレースの微調整が失敗し、低確率な事実を合成する理由として、鍵となる制限を識別する。
このギャップを埋めるために,シンボリック・チェーン・オブ・マニピュレーション(SCoM)という新しいフレームワークを提案する。
チェーン・オブ・マニピュレーション(Chain-of-Manipulation)パラダイムに適応して、内部の原子知識グラフ操作をシミュレートするためにモデルをトレーニングする。
SCoMは、グラフの位相構造を確実に横切るようにモデルを教える。
Supervised Fine-Tuning (SFT)の実験は、SCoMが標準のCoTベースラインを最大20%上回ることを示した。
VIRAASATデータセットを我々の発見と合わせてリリースし、文化的アウェア推論モデルを構築するための強力な基盤を構築しました。
関連論文リスト
- No Shortcuts to Culture: Indonesian Multi-hop Question Answering for Complex Cultural Understanding [10.749595729794692]
我々は,大規模な言語モデルの文化的理解を評価するための,最初の大規模マルチホップQAデータセットであるID-MoCQAを紹介する。
単一ホップの文化的質問を6つの手がかり型にまたがるマルチホップ推論チェーンに変換する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2026-02-03T16:32:00Z) - Do Large Language Models Truly Understand Cross-cultural Differences? [53.481048019144644]
我々は,大規模言語モデルの異文化間理解と推論を評価するシナリオベースのベンチマークを開発した。
文化理論を基礎として、異文化の能力を9次元に分類する。
データセットは連続的な拡張をサポートし、実験は他の言語への転送可能性を確認する。
論文 参考訳(メタデータ) (2025-12-08T01:21:58Z) - DIWALI - Diversity and Inclusivity aWare cuLture specific Items for India: Dataset and Assessment of LLMs for Cultural Text Adaptation in Indian Context [7.582991335459645]
大規模言語モデル(LLM)は様々なタスクやアプリケーションで広く使われている。
文化的な知識や能力の欠如により、文化的な整合性が欠如していることが示されている。
インド文化のための新しいCSIデータセットについて紹介する。
論文 参考訳(メタデータ) (2025-09-22T06:58:02Z) - CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - CultureSynth: A Hierarchical Taxonomy-Guided and Retrieval-Augmented Framework for Cultural Question-Answer Synthesis [41.483432890962824]
本稿では,大規模言語モデルの文化的能力を評価する新しいフレームワークであるCulture Synthを紹介する。
Culture Synth-7ベンチマークには、7つの言語にまたがる19,360項目と4,149項目の検証済みエントリが含まれている。
論文 参考訳(メタデータ) (2025-09-13T16:33:56Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [62.9861554207279]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
我々は,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を実践し,事実知識に干渉することを発見した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - Crossroads of Continents: Automated Artifact Extraction for Cultural Adaptation with Large Multimodal Models [22.92083941222383]
DALL-E 3によって生成され、人間によって検証される大規模なデータセットであるDalleStreetを紹介する。
我々は,オープンソース(LLaVA)とクローズドソース(GPT-4V)の両方のモデルを用いて,地理的サブリージョンレベルでの文化的理解の相違を見出した。
以上の結果から,LMMの文化的能力の微妙なイメージが浮かび上がっており,文化認識システムの開発の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-07-02T08:55:41Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - On the Cultural Gap in Text-to-Image Generation [75.69755281031951]
テキスト・トゥ・イメージ(T2I)生成における課題のひとつは、トレーニングデータに存在する文化ギャップの意図しない反映である。
クロスカルチャー画像を生成するT2Iモデルの能力を体系的に評価するベンチマークは存在しない。
本稿では,モデルが対象文化にどの程度適しているかを評価するため,包括的評価基準付きChallenging Cross-Cultural (C3)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T13:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。