論文の概要: Toward Culturally Aligned LLMs through Ontology-Guided Multi-Agent Reasoning
- arxiv url: http://arxiv.org/abs/2601.21700v1
- Date: Thu, 29 Jan 2026 13:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.851387
- Title: Toward Culturally Aligned LLMs through Ontology-Guided Multi-Agent Reasoning
- Title(参考訳): オントロジー誘導型マルチエージェント推論による文化的アライメントLLMの実現に向けて
- Authors: Wonduk Seo, Wonseok Choi, Junseo Koh, Juhyeon Lee, Hyunjin An, Minhyeong Yu, Jian Park, Qingshan Zhou, Seunghyun Lee, Yi Bu,
- Abstract要約: オントロジー誘導型マルチエージェント推論フレームワークであるOG-MARを提案する。
OG-MARは、World Values Survey (WVS)から応答性固有の値を要約している。
グローバルな文化的オントロジーを構築し、能力に関する質問を通じて、固定された分類に関する関係を導き出す。
推測時には、人口統計学的に類似したプロファイルを取得し、複数のバリューパーソナエージェントをインスタンス化する。
- 参考スコア(独自算出の注目度): 6.102462703832761
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) increasingly support culturally sensitive decision making, yet often exhibit misalignment due to skewed pretraining data and the absence of structured value representations. Existing methods can steer outputs, but often lack demographic grounding and treat values as independent, unstructured signals, reducing consistency and interpretability. We propose OG-MAR, an Ontology-Guided Multi-Agent Reasoning framework. OG-MAR summarizes respondent-specific values from the World Values Survey (WVS) and constructs a global cultural ontology by eliciting relations over a fixed taxonomy via competency questions. At inference time, it retrieves ontology-consistent relations and demographically similar profiles to instantiate multiple value-persona agents, whose outputs are synthesized by a judgment agent that enforces ontology consistency and demographic proximity. Experiments on regional social-survey benchmarks across four LLM backbones show that OG-MAR improves cultural alignment and robustness over competitive baselines, while producing more transparent reasoning traces.
- Abstract(参考訳): 大きな言語モデル(LLM)は、文化的にセンシティブな意思決定をサポートする傾向にあるが、歪んだ事前学習データと構造化された値表現の欠如により、しばしば不一致を示す。
既存の手法は出力を制御できるが、人口統計学的基盤を欠き、値を独立した非構造化信号として扱い、一貫性と解釈可能性を減らす。
オントロジー誘導型マルチエージェント推論フレームワークであるOG-MARを提案する。
OG-MARは、世界価値調査(WVS)から応答性特異的な値を要約し、有能な質問を通じて固定分類学に関する関係を抽出することによって、グローバルな文化的オントロジーを構築する。
推測時には、オントロジーに一貫性のある関係と人口統計学的に類似したプロファイルを取得し、複数のバリューペルソナエージェントをインスタンス化し、そのアウトプットは、オントロジーの一貫性と人口密度を強制する判断エージェントによって合成される。
4つのLCMバックボーンにわたる地域社会サーベイベンチマークの実験では、OG-MARは、より透明な推論の痕跡を作りながら、競争ベースラインよりも文化的アライメントとロバスト性を改善することが示されている。
関連論文リスト
- Beyond Marginal Distributions: A Framework to Evaluate the Representativeness of Demographic-Aligned LLMs [13.630995219491972]
本稿では,アライメントモデルの代表性を評価するためのフレームワークを提案する。
2つのモデルステアリング手法を比較し,評価手法の価値を示す。
私たちは、代表性は価値アライメントの別の側面である、と結論付けます。
論文 参考訳(メタデータ) (2026-01-22T08:45:55Z) - Cross-cultural value alignment frameworks for responsible AI governance: Evidence from China-West comparative analysis [20.31675378963816]
本研究は中国-オリジンと西-オリジン大言語モデル(LLM)における異文化的価値アライメントを体系的に評価する。
Qwen、GPT-4o、Claude、LLaMA、DeepSeekといった主要なモデルの比較分析により、価値体系における普遍的課題-基礎的不安定性、若年層の体系的下層表現、モデルスケールとアライメント品質の相違する地域開発軌跡の非線形関係を明らかにする。
論文 参考訳(メタデータ) (2025-11-21T14:02:33Z) - I Am Aligned, But With Whom? MENA Values Benchmark for Evaluating Cultural Alignment and Multilingual Bias in LLMs [5.060243371992739]
大規模言語モデル(LLM)の文化的アライメントと多言語バイアスを評価するための新しいベンチマークであるMENAValuesを紹介する。
大規模で権威ある人的調査から、我々は16カ国の人口レベルの応答分布を持つMENAの社会文化的景観を捉えた構造化データセットをキュレートした。
分析の結果,同じ質問が言語に基づいて大きく異なる反応をもたらす「クロス・Lingual Value Shifts」,その理由の説明を促す「Reasoning-induced Degradation」,モデルがセンシティブな質問を拒否する「Logit Leakage」,内部確率が強く隠蔽される「Logit Leakage」の3つの重要な現象が明らかになった。
論文 参考訳(メタデータ) (2025-10-15T05:10:57Z) - MoVa: Towards Generalizable Classification of Human Morals and Values [57.93595662296688]
MoVaは、人間の道徳と価値観の一般化可能な分類のための、文書化されたリソーススイートである。
MoVaのデータと手法は、人間と機械のコミュニケーションを細かく解釈するのに役立つ。
論文 参考訳(メタデータ) (2025-09-29T02:56:27Z) - Reasoning Beyond Labels: Measuring LLM Sentiment in Low-Resource, Culturally Nuanced Contexts [10.492471013369782]
本稿では、感情を文脈に依存し、文化的に埋め込まれた構成として扱う枠組みを提案する。
我々は,大言語モデル(LLM)が,ナイロビの若手健康グループからのWhatsAppメッセージの感情にどのような影響を与えるかを評価する。
論文 参考訳(メタデータ) (2025-08-06T08:27:55Z) - Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [60.83579255387347]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。