論文の概要: Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness
- arxiv url: http://arxiv.org/abs/2603.07368v1
- Date: Sat, 07 Mar 2026 22:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.325727
- Title: Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness
- Title(参考訳): 位置: LLMはフェアネスのためにファンクターベースおよびRAG駆動バイアス緩和を使用する必要がある
- Authors: Ravi Ranjan, Utkarsh Grover, Agorista Polyzou,
- Abstract要約: 本稿では,大規模言語モデル(LLM)における人口統計学とジェンダーバイアスについて論じる。
関手に基づくマッピングとRAGによる文脈的グラウンド化による構造的デバイアス化を組み合わせることで、公平かつ公平なモデル出力を提供することができる包括的フレームワークの概要を述べる。
- 参考スコア(独自算出の注目度): 0.09558392439655011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biases in large language models (LLMs) often manifest as systematic distortions in associations between demographic attributes and professional or social roles, reinforcing harmful stereotypes across gender, ethnicity, and geography. This position paper advocates for addressing demographic and gender biases in LLMs through a dual-pronged methodology, integrating category-theoretic transformations and retrieval-augmented generation (RAG). Category theory provides a rigorous, structure-preserving mathematical framework that maps biased semantic domains to unbiased canonical forms via functors, ensuring bias elimination while preserving semantic integrity. Complementing this, RAG dynamically injects diverse, up-to-date external knowledge during inference, directly countering ingrained biases within model parameters. By combining structural debiasing through functor-based mappings and contextual grounding via RAG, we outline a comprehensive framework capable of delivering equitable and fair model outputs. Our synthesis of the current literature validates the efficacy of each approach individually, while addressing potential critiques demonstrates the robustness of this integrated strategy. Ensuring fairness in LLMs, therefore, demands both the mathematical rigor of category-theoretic transformations and the adaptability of retrieval augmentation.
- Abstract(参考訳): 大きな言語モデル(LLM)のバイアスは、しばしば、人口特性と職業的または社会的役割の関連における体系的な歪みとして現れ、性別、民族、地理の有害なステレオタイプを補強する。
本稿では,LLMにおける人口統計学とジェンダーの偏見を両立する手法を提唱し,カテゴリー理論変換と検索強化世代(RAG)を統合した。
カテゴリー理論は厳密な構造保存数学的枠組みを提供し、偏見付き意味領域を関手を通して非偏見付き標準形式にマッピングし、意味的整合性を維持しながら偏見除去を保証する。
これに補完するため、RAGは推論中に多様な最新の外部知識を動的に注入し、モデルパラメータの詳細なバイアスに対処する。
関手に基づくマッピングとRAGによる文脈的グラウンド化による構造的デバイアス化を組み合わせることで、公平かつ公平なモデル出力を提供することができる包括的フレームワークの概要を述べる。
現在の文献の合成は, それぞれのアプローチの有効性を個別に検証し, 潜在的な批判に対処することで, この統合戦略の堅牢性を示す。
したがって、LLMの公平性を保証するためには、カテゴリ理論変換の数学的厳密さと、検索拡張の適応性の両方が必要である。
関連論文リスト
- Evaluating Social Bias in RAG Systems: When External Context Helps and Reasoning Hurts [7.344577590113121]
大規模言語モデル(LLM)に固有の社会的バイアスは、かなりの公平さを懸念する。
この研究は、RAGの社会的バイアスの影響を評価し、理解することに焦点を当てている。
論文 参考訳(メタデータ) (2026-02-10T06:27:56Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - MIST: Towards Multi-dimensional Implicit BiaS Evaluation of LLMs via Theory of Mind [27.209638457499427]
大規模言語モデル(LLM)における心の理論 (ToM) とは、精神状態の推論能力を指す。
本稿では,Streotype Content Model (SCM) を応用して,能力,社会性,モラルの多次元的障害としてバイアスを再認識する評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-17T03:50:57Z) - Metamorphic Testing for Fairness Evaluation in Large Language Models: Identifying Intersectional Bias in LLaMA and GPT [2.380039717474099]
大規模言語モデル(LLM)は自然言語処理において大きな進歩を遂げてきたが、公平性に関連する問題に対して脆弱なままである。
本稿では,LLMにおける公平なバグを系統的に同定するメタモルフィックテスト手法を提案する。
論文 参考訳(メタデータ) (2025-04-04T21:04:14Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。