論文の概要: Prompt Programming for Cultural Bias and Alignment of Large Language Models
- arxiv url: http://arxiv.org/abs/2603.16827v1
- Date: Tue, 17 Mar 2026 17:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.455542
- Title: Prompt Programming for Cultural Bias and Alignment of Large Language Models
- Title(参考訳): 文化的バイアスのためのプロンプトプログラミングと大規模言語モデルのアライメント
- Authors: Maksim Eren, Eric Michalak, Brian Cook, Johnny Seales,
- Abstract要約: 大型言語モデル(LLM)は、しばしば標的の人口と不一致した文化的偏見を示す。
以前の研究は、調査対象の文化的アライメントフレームワークを導入し、文化固有のプロンプトは、誤調整を減らすことができることを示した。
本稿では,オープンウェイトLLMにおける社会科学調査に基づく予測と距離の指標を再現することにより,その枠組みを再現する。
本稿では,DSPyを用いたプロンプトプログラミングをモジュール型で最適化可能なプログラムとして導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Culture shapes reasoning, values, prioritization, and strategic decision-making, yet large language models (LLMs) often exhibit cultural biases that misalign with target populations. As LLMs are increasingly used for strategic decision-making, policy support, and document engineering tasks such as summarization, categorization, and compliance-oriented auditing, improving cultural alignment is important for ensuring that downstream analyses and recommendations reflect target-population value profiles rather than default model priors. Previous work introduced a survey-grounded cultural alignment framework and showed that culture-specific prompting can reduce misalignment, but it primarily evaluated proprietary models and relied on manual prompt engineering. In this paper, we validate and extend that framework by reproducing its social sciences survey based projection and distance metrics on open-weight LLMs, testing whether the same cultural skew and benefits of culture conditioning persist outside closed LLM systems. Building on this foundation, we introduce use of prompt programming with DSPy for this problem-treating prompts as modular, optimizable programs-to systematically tune cultural conditioning by optimizing against cultural-distance objectives. In our experiments, we show that prompt optimization often improves upon cultural prompt engineering, suggesting prompt compilation with DSPy can provide a more stable and transferable route to culturally aligned LLM responses.
- Abstract(参考訳): 文化は推論、価値観、優先順位付け、戦略的意思決定を形作るが、大きな言語モデル(LLM)は、しばしば標的の人口と不一致した文化的バイアスを示す。
LLMは、戦略的意思決定、政策支援、要約、分類、コンプライアンス指向監査といった文書工学のタスクにますます活用されているため、ダウンストリーム分析やレコメンデーションがデフォルトモデルよりもターゲット人口価値プロファイルを反映することを保証する上では、文化的アライメントの改善が重要である。
以前の研究は、調査対象の文化的アライメントフレームワークを導入し、文化固有のプロンプトは、ミスアライメントを減らすことができることを示したが、主にプロプライエタリなモデルを評価し、手動プロンプトエンジニアリングに依存していた。
本稿では,オープンウェイトLLMにおける社会科学調査に基づく予測と距離の指標を再現し,同じ文化的歪と文化条件の利点が閉LLMシステム外で持続するかどうかを検証し,その枠組みを検証・拡張する。
そこで我々は,DSPyを用いたプロンプトプログラミングを,モジュール型で最適化可能なプログラムとして導入し,文化的距離の目標に対して最適化することで,文化的条件付けを体系的に調整する。
実験の結果, 迅速な最適化は文化的なプロンプト工学により改善されることがしばしばあり, DSPy を用いたプロンプトコンパイルにより, 文化的に整列した LLM 応答に対して, より安定かつ伝達可能な経路を提供できることがわかった。
関連論文リスト
- Mind the Gap in Cultural Alignment: Task-Aware Culture Management for Large Language Models [78.19037585302475]
大規模言語モデル(LLM)は、文化的に敏感な現実世界のタスクにますますデプロイされている。
既存の文化的アライメントアプローチは、LLMの幅広い文化的価値を下流タスクの特定の目標と整合させることができない。
タスク固有の文化的アライメントのための新しいパイプラインであるCultureManagerを提案する。
論文 参考訳(メタデータ) (2026-02-25T23:27:18Z) - 'Too much alignment; not enough culture': Re-balancing cultural alignment practices in LLMs [0.0]
本稿では、AIアライメントプラクティスへの質的なアプローチの統合へのシフトを論じる。
クリフォード・ゲールツ(Clifford Geertz)の"thick description"の概念からインスピレーションを得たAIシステムは、より深い文化的意味を反映したアウトプットを生成する必要がある。
論文 参考訳(メタデータ) (2025-09-30T12:22:53Z) - CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - Whispers of Many Shores: Cultural Alignment through Collaborative Cultural Expertise [0.4711628883579317]
現在の大きな言語モデル(LLM)は、様々な文化的文脈に必要とされる曖昧な理解を欠いていることが多い。
我々は,効率的かつモジュール化された文化的アライメントを実現するための,新しいソフトプロンプト微調整フレームワークを導入する。
論文 参考訳(メタデータ) (2025-05-30T21:16:25Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - Break the Checkbox: Challenging Closed-Style Evaluations of Cultural Alignment in LLMs [18.84720654437447]
大規模言語モデル(LLM)における文化的アライメントを評価するために、クローズドスタイルのマルチチョイスサーベイに依存する研究が多数ある。
本研究では、この制約された評価パラダイムに挑戦し、より現実的で制約のないアプローチを探求する。
論文 参考訳(メタデータ) (2025-02-12T01:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。