論文の概要: Prompt Engineering Techniques for Mitigating Cultural Bias Against Arabs and Muslims in Large Language Models: A Systematic Review
- arxiv url: http://arxiv.org/abs/2506.18199v1
- Date: Sun, 22 Jun 2025 23:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.80277
- Title: Prompt Engineering Techniques for Mitigating Cultural Bias Against Arabs and Muslims in Large Language Models: A Systematic Review
- Title(参考訳): 大言語モデルにおけるアラブ人とムスリムに対する文化的バイアスの緩和のためのプロンプトエンジニアリング技術:体系的レビュー
- Authors: Bushra Asseri, Estabrag Abdelaziz, Areej Al-Wabil,
- Abstract要約: LLMにおける偏見の認識が高まりつつあるにもかかわらず、アラブやムスリムの表現に特に対処する技術戦略は依然として検討されている。
2021-2024年に発表された8つの実証的研究を分析した。
本研究は, 文化的プロンプト, 感情的プライミング, 自己退化技術, 構造化多段パイプライン, パラメータ最適化連続プロンプトの5つの主要なプロンプト工学的アプローチを明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have demonstrated remarkable capabilities across various domains, yet concerns about cultural bias - particularly towards Arabs and Muslims - pose significant ethical challenges by perpetuating harmful stereotypes and marginalization. Despite growing recognition of bias in LLMs, prompt engineering strategies specifically addressing Arab and Muslim representation remain understudied. This mixed-methods systematic review examines such techniques, offering evidence-based guidance for researchers and practitioners. Following PRISMA guidelines and Kitchenham's systematic review methodology, we analyzed 8 empirical studies published between 2021-2024 investigating bias mitigation strategies. Our findings reveal five primary prompt engineering approaches: cultural prompting, affective priming, self-debiasing techniques, structured multi-step pipelines, and parameter-optimized continuous prompts. Although all approaches show potential for reducing bias, effectiveness varied substantially across studies and bias types. Evidence suggests that certain bias types may be more resistant to prompt-based mitigation than others. Structured multi-step pipelines demonstrated the highest overall effectiveness, achieving up to 87.7% reduction in bias, though they require greater technical expertise. Cultural prompting offers broader accessibility with substantial effectiveness. These results underscore the accessibility of prompt engineering for mitigating cultural bias without requiring access to model parameters. The limited number of studies identified highlights a significant research gap in this critical area. Future research should focus on developing culturally adaptive prompting techniques, creating Arab and Muslim-specific evaluation resources, and integrating prompt engineering with complementary debiasing methods to address deeper stereotypes while maintaining model utility.
- Abstract(参考訳): 大規模な言語モデルは、様々な領域で顕著な能力を示してきたが、文化的偏見、特にアラブ人とムスリムに対する懸念は、有害なステレオタイプと限界化を永続させることによって、重大な倫理的課題を提起している。
LLMにおける偏見の認識が高まりつつあるにもかかわらず、アラブやムスリムの表現に特に対処する技術戦略は依然として検討されている。
この混合方法論の体系的なレビューは、研究者や実践者にエビデンスに基づくガイダンスを提供することによって、そのような手法を検証している。
PRISMAガイドラインとKitchenhamの体系的レビュー手法に従って,2021年から2024年の間に公表された8つの実証的研究を分析した。
本研究は, 文化的プロンプト, 感情的プライミング, 自己退化技術, 構造化多段パイプライン, パラメータ最適化連続プロンプトの5つの主要なプロンプト工学的アプローチを明らかにする。
すべてのアプローチはバイアスを減らす可能性を示しているが、効果は研究やバイアスの種類によって大きく異なる。
エビデンスによれば、特定のバイアスタイプは、他のものよりもプロンプトベースの緩和に抵抗する可能性がある。
構造化された多段パイプラインは、より高度な技術的専門知識を必要とするが、最大87.7%のバイアスの削減を達成し、全体的な効果が最も高いことを示した。
文化的なプロンプトは、実質的な効果で幅広いアクセシビリティを提供する。
これらの結果は, モデルパラメータへのアクセスを必要とせず, 文化的偏見を緩和するための急進的工学的手法のアクセシビリティを裏付けるものである。
特定された研究の限られた数は、この臨界領域における重要な研究ギャップを浮き彫りにしている。
今後の研究は、文化的適応的な推進技術の開発、アラブやムスリム特有の評価資源の創出、モデルユーティリティを維持しつつ、より深いステレオタイプに対処するための補完的なデバイアス手法とプロンプトエンジニアリングの統合に焦点をあてるべきである。
関連論文リスト
- Does the Prompt-based Large Language Model Recognize Students' Demographics and Introduce Bias in Essay Scoring? [3.7498611358320733]
大規模言語モデル (LLM) は自動エッセイ・スコーリング (AES) で広く使われている。
本研究は,学生の属性の予測力と評価課題における評価バイアスとの関係について検討した。
論文 参考訳(メタデータ) (2025-04-30T05:36:28Z) - Unveiling and Mitigating Bias in Large Language Model Recommendations: A Path to Fairness [3.5297361401370044]
本研究では,LLMに基づくレコメンデーションシステムとバイアスの相互作用について検討する。
音楽、歌、書籍のレコメンデーションなど、様々な民族や文化グループに重点を置いている。
我々の発見によると、これらのシステムのバイアスは深く根深いが、迅速なエンジニアリングのような単純な介入さえも、それを大幅に減らすことができる。
論文 参考訳(メタデータ) (2024-09-17T01:37:57Z) - MABR: Multilayer Adversarial Bias Removal Without Prior Bias Knowledge [6.208151505901749]
実世界のデータに基づいてトレーニングされたモデルは、しばしば既存の社会的バイアスを反映し、悪化させる。
本稿では,従来のバイアス型知識とは独立して機能する,新たな対人訓練戦略を提案する。
本手法は,人口統計学的アノテーションを必要とせずに,社会的バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-08-10T09:11:01Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Causally Testing Gender Bias in LLMs: A Case Study on Occupational Bias [33.99768156365231]
生成言語モデルにおけるバイアス測定のための因果的定式化を導入する。
我々はOccuGenderというベンチマークを提案し、職業性バイアスを調査するためのバイアス測定手法を提案する。
以上の結果から,これらのモデルでは職業性バイアスがかなり大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T22:41:24Z) - An Empirical Survey of the Effectiveness of Debiasing Techniques for
Pre-Trained Language Models [4.937002982255573]
最近の研究によると、事前学習された言語モデルは、訓練されたテキストコーパスから社会的偏見を捉えている。
最近提案された5つのデバイアス技術: 対実データ拡張、ドロップアウト、イテレーティブヌルスペース投影、セルフデバイアス、センテンスデバイアス。
3つの異なるバイアスベンチマークを用いて各手法の有効性を定量化するとともに,これらの手法がモデル言語モデリング能力に与える影響を計測する。
論文 参考訳(メタデータ) (2021-10-16T09:40:30Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。