論文の概要: ACE-Align: Attribute Causal Effect Alignment for Cultural Values under Varying Persona Granularities
- arxiv url: http://arxiv.org/abs/2601.12962v1
- Date: Mon, 19 Jan 2026 11:18:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.877085
- Title: ACE-Align: Attribute Causal Effect Alignment for Cultural Values under Varying Persona Granularities
- Title(参考訳): ACE-Align-Atribute Causal Effect Asignment for Cultural Values under Varying Persona Granularities
- Authors: Jiatang Luo, Bingbing Xu, Rongxin Chen, Xiaoyan Zhao, Yang Zhang, Liang Pang, Zhiyong Huang, Tat-Seng Chua, Huawei Shen,
- Abstract要約: 本稿では、人口統計特性が異なる文化的価値をどうシフトするかを整合させる因果効果フレームワークであるACE-Alignを提案する。
すべてのペルソナの粒度において、ACE-Alignはベースラインを一貫して上回る。
高リソース領域と低リソース領域の間の平均アライメントギャップを9.81から4.92ポイントに減らし、地理的エクイティを改善している。
- 参考スコア(独自算出の注目度): 76.52901967874622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring that large language models (LLMs) respect diverse cultural values is crucial for social equity. However, existing approaches often treat cultural groups as homogeneous and overlook within-group heterogeneity induced by intersecting demographic attributes, leading to unstable behavior under varying persona granularity. We propose ACE-Align (Attribute Causal Effect Alignment), a causal-effect framework that aligns how specific demographic attributes shift different cultural values, rather than treating each culture as a homogeneous group. We evaluate ACE-Align across 14 countries spanning five continents, with personas specified by subsets of four attributes (gender, education, residence, and marital status) and granularity instantiated by the number of specified attributes. Across all persona granularities, ACE-Align consistently outperforms baselines. Moreover, it improves geographic equity by reducing the average alignment gap between high-resource and low-resource regions from 9.81 to 4.92 points, while Africa shows the largest average gain (+8.48 points). Code is available at https://github.com/Wells-Luo/ACE-Align.
- Abstract(参考訳): 大きな言語モデル(LLM)が多様な文化的価値を尊重することを保証することは、社会的平等にとって不可欠である。
しかし、既存のアプローチでは、文化的集団を均質なものとして扱うことが多く、人口統計学的属性の交差によるグループ内不均一性を見落とし、様々な人格の粒度の下で不安定な行動を引き起こす。
我々は,各文化を同種集団として扱うのではなく,特定の人口特性が異なる文化的価値をどのようにシフトするかを整合させる因果効果の枠組みであるACE-Align(Attribute Causal Effect Alignment)を提案する。
我々は,5大陸にまたがる14カ国のACE-Alignを,4つの属性(性,教育,居住,婚姻)のサブセットと,特定属性の数によってインスタンス化された粒度で特定したペルソナを用いて評価した。
すべてのペルソナの粒度において、ACE-Alignはベースラインを一貫して上回る。
さらに、高資源地域と低資源地域の平均アライメントギャップを9.81から4.92ポイントに減らし、またアフリカは最大の平均ゲイン(+8.48ポイント)を示している。
コードはhttps://github.com/Wells-Luo/ACE-Alignで入手できる。
関連論文リスト
- I Am Aligned, But With Whom? MENA Values Benchmark for Evaluating Cultural Alignment and Multilingual Bias in LLMs [5.060243371992739]
大規模言語モデル(LLM)の文化的アライメントと多言語バイアスを評価するための新しいベンチマークであるMENAValuesを紹介する。
大規模で権威ある人的調査から、我々は16カ国の人口レベルの応答分布を持つMENAの社会文化的景観を捉えた構造化データセットをキュレートした。
分析の結果,同じ質問が言語に基づいて大きく異なる反応をもたらす「クロス・Lingual Value Shifts」,その理由の説明を促す「Reasoning-induced Degradation」,モデルがセンシティブな質問を拒否する「Logit Leakage」,内部確率が強く隠蔽される「Logit Leakage」の3つの重要な現象が明らかになった。
論文 参考訳(メタデータ) (2025-10-15T05:10:57Z) - Cross-Cultural Transfer of Commonsense Reasoning in LLMs: Evidence from the Arab World [68.19795061447044]
本稿では,アラブ世界におけるコモンセンス推論の異文化間移動について検討する。
アラブ13カ国を対象とした文化基盤のコモンセンス推論データセットを用いて,軽量アライメント手法の評価を行った。
以上の結果から,他国の文化特有例は12例に過ぎず,他国の文化特有例を平均10%向上させることができた。
論文 参考訳(メタデータ) (2025-09-23T17:24:14Z) - Cultivating Pluralism In Algorithmic Monoculture: The Community Alignment Dataset [18.197532754060244]
本研究は,21種類のLLMの反応に比べて,ヒトの嗜好の変動が有意に大きいことを示す。
このことは、候補集合を生成する際に、負に相関するサンプリングの必要性を動機付けていると論じる。
コミュニティアライメント(Community Alignment)は,これまでで最大かつ最も代表的な多言語およびマルチターンの嗜好データセットである。
論文 参考訳(メタデータ) (2025-07-13T14:34:22Z) - CAIRe: Cultural Attribution of Images by Retrieval-Augmented Evaluation [61.130639734982395]
本稿では,画像の文化的関連度を評価する新しい評価指標であるCAIReを紹介する。
本フレームワークは,イメージ内の実体と概念を知識ベースに基盤として,実情報を用いて各文化ラベルに対して独立した評価を行う。
論文 参考訳(メタデータ) (2025-06-10T17:16:23Z) - CARE: Multilingual Human Preference Learning for Cultural Awareness [48.760262639641496]
我々は,3,490の文化的特異な質問と31.7kの人的判断応答を含む多言語リソースであるtextbfCAREを紹介する。
質の高いネイティブな嗜好の質が、様々なLMの文化意識をいかに向上させるかを示す。
分析の結果,初期の文化的パフォーマンスが向上したモデルの方がアライメントの恩恵を受けやすいことがわかった。
論文 参考訳(メタデータ) (2025-04-07T14:57:06Z) - VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare [9.087074203425061]
既存のアライメントパラダイムは、文化、人口統計学、地域社会における視点の多様性を説明できない。
これは、文化、宗教、個人的価値観、矛盾する意見の影響により複数のことが不可欠である健康関連シナリオにおいて特に重要である。
この研究は、現在のアプローチの限界を強調し、健康固有のアライメントソリューションを開発するための基盤となる。
論文 参考訳(メタデータ) (2025-02-19T14:38:57Z) - D3CODE: Disentangling Disagreements in Data across Cultures on Offensiveness Detection and Evaluation [5.9053106775634685]
4k以上のアノテーションをアノテータのプールにアノテートした4.5K以上の文で、攻撃的言語のための並列アノテーションの大規模なクロスカルチャーデータセットを紹介した。
このデータセットには、ケア、平等、比例、権威、忠誠、純粋性の6つの道徳的基礎に沿って収集されたアノテーターの道徳的価値が含まれている。
分析の結果,アノテータの知覚は個々の道徳的価値観によって形成されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-04-16T19:12:03Z) - GIVL: Improving Geographical Inclusivity of Vision-Language Models with
Pre-Training Methods [62.076647211744564]
我々は地理包摂型視覚・言語事前学習モデルであるGIVLを提案する。
1) 類似のカテゴリにおける概念は独自の知識と視覚的特徴を持ち、2) 類似の視覚的特徴を持つ概念は、全く異なるカテゴリに該当する可能性がある。
GIVLは、同様のスケールのデータを事前訓練した類似サイズのモデルと比較して、最先端のSOTA(State-of-the-art)を達成し、ジオディバースなV&Lタスクにおけるよりバランスの取れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-01-05T03:43:45Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。