論文の概要: Is Lying Only Sinful in Islam? Exploring Religious Bias in Multilingual Large Language Models Across Major Religions
- arxiv url: http://arxiv.org/abs/2512.03943v1
- Date: Wed, 03 Dec 2025 16:38:41 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:07:57.258459
- Title: Is Lying Only Sinful in Islam? Exploring Religious Bias in Multilingual Large Language Models Across Major Religions
- Title(参考訳): 洗礼はイスラム教にのみ意味があるのか? 主要宗教全体にわたる多言語大言語モデルにおける宗教バイアスを探る
- Authors: Kazi Abrab Hossain, Jannatul Somiya Mahmud, Maria Hossain Tuli, Anik Mitra, S. M. Taiabul Haque, Farig Y. Sadeque,
- Abstract要約: 多言語モデルは、しばしば宗教を誤って表現し、宗教的な文脈で正確であるのが困難である。
我々は、南アジアの4つの主要な宗教である仏教、キリスト教、ヒンドゥー教、イスラム教に焦点を当てたBRAND: Bilingual Religious Accountable Normデータセットを紹介する。
我々の結果は、ベンガル語よりも英語の方が優れた結果を示し、宗教中立の疑問に答える場合でも、一貫してイスラム教に対する偏見を示すことを示している。
- 参考スコア(独自算出の注目度): 1.3340996111165058
- License:
- Abstract: While recent developments in large language models have improved bias detection and classification, sensitive subjects like religion still present challenges because even minor errors can result in severe misunderstandings. In particular, multilingual models often misrepresent religions and have difficulties being accurate in religious contexts. To address this, we introduce BRAND: Bilingual Religious Accountable Norm Dataset, which focuses on the four main religions of South Asia: Buddhism, Christianity, Hinduism, and Islam, containing over 2,400 entries, and we used three different types of prompts in both English and Bengali. Our results indicate that models perform better in English than in Bengali and consistently display bias toward Islam, even when answering religion-neutral questions. These findings highlight persistent bias in multilingual models when similar questions are asked in different languages. We further connect our findings to the broader issues in HCI regarding religion and spirituality.
- Abstract(参考訳): 近年の大規模言語モデルの発達はバイアスの検出と分類を改善しているが、宗教のようなセンシティブな主題は、小さな誤りでさえ深刻な誤解をもたらす可能性があるため、依然として課題を呈している。
特に多言語モデルは、しばしば宗教を誤って表現し、宗教的な文脈で正確であるのが困難である。
この問題を解決するために, BRAND: Bilingual Religious Accountable Norm Datasetを導入し, 仏教, キリスト教, ヒンドゥー教, イスラム教の4つの主要な宗教に焦点を当てた。
我々の結果は、ベンガル語よりも英語の方が優れた結果を示し、宗教中立の疑問に答える場合でも、一貫してイスラム教に対する偏見を示すことを示している。
これらの結果は、類似の質問が言語によって異なる場合に、多言語モデルにおける永続的バイアスを浮き彫りにする。
我々はさらに、宗教と精神性に関するHCIの幅広い問題に私たちの発見を結び付けている。
関連論文リスト
- Do You Know About My Nation? Investigating Multilingual Language Models' Cultural Literacy Through Factual Knowledge [68.6805229085352]
ほとんどの多言語質問答えベンチマークは、取得した情報の地域的多様性を規定していない。
XNationQAには、9カ国の地理、文化、歴史に関する合計49,280の質問が7つの言語で提示されている。
我々はXNationQA上で8つの標準多言語LLMをベンチマークし、2つの新しい転送指標を用いて評価した。
論文 参考訳(メタデータ) (2025-11-01T18:41:34Z) - Mechanistic Interpretability with SAEs: Probing Religion, Violence, and Geography in Large Language Models [0.0]
本稿では,宗教が大規模言語モデル(LLM)において内部的にどのように表現されるかを検討する。
我々は、宗教と暴力に関連するプロンプトの重複を測定し、アクティベーションコンテキストにおける意味パターンを探索する。
5つの宗教はいずれも内部の結束に匹敵するものであるが、イスラム教は暴力的な言語に関連する特徴と結びついていることが多い。
論文 参考訳(メタデータ) (2025-09-22T12:09:21Z) - Exploring Bengali Religious Dialect Biases in Large Language Models with Evaluation Perspectives [5.648318448953635]
大規模言語モデル(LLM)はステレオタイプとバイアスを含む出力を生成することができる。
我々はベンガル語における宗教的な視点から偏見を探求し、特にヒンドゥー語とムスリム・マジョリティの2つの主要な宗教方言に焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T20:19:29Z) - Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models [19.54202714712677]
社会文化的体系としての宗教は、その信者に対する信念と価値観の集合を規定している。
私たちの価値観についてほとんど言及していないジェンダーとは違い、宗教はその信条と信条のセットを定めている。
アメリカやヨーロッパ諸国の主要な宗教は、よりニュアンスで表現されている。
ヒンドゥー教や仏教のような東方宗教は強くステレオタイプ化されている。
論文 参考訳(メタデータ) (2024-07-09T14:45:15Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z) - Debiased Large Language Models Still Associate Muslims with Uniquely
Violent Acts [24.633323508534254]
宗教にまつわる一般的な名称をプロンプトで使うと、暴力的な完成が著しく増加する。
非暴力的な領域から来たムスリムの有名人の名前は、暴力的な完成度が比較的少なかった。
以上の結果から,高次スキーマやアソシエーションに対処するため,大規模言語モデルのデバイアス化の必要性が示唆された。
論文 参考訳(メタデータ) (2022-08-08T20:59:16Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z) - Persistent Anti-Muslim Bias in Large Language Models [13.984800635696566]
最新の文脈言語モデルであるGPT-3は、永続的なムスリム-暴力バイアスを捕捉する。
我々は, GPT-3 を様々な方法で探索し, 即時完了, 類似推論, 物語生成を行う。
例えば、"イスラム教徒"はテストケースの23%で"テロリスト"に、"ユダヤ人"はテストケースの5%で"お金"にマッピングされます。
論文 参考訳(メタデータ) (2021-01-14T18:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。