論文の概要: Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
- arxiv url: http://arxiv.org/abs/2603.12935v1
- Date: Fri, 13 Mar 2026 12:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.080283
- Title: Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
- Title(参考訳): フェアネスは引き起こせるか? ハイテイクレコメンデーションにおけるプロンプトに基づくデバイアス戦略
- Authors: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro,
- Abstract要約: 大型言語モデル(LLM)は、名前や代名詞といった間接的な手がかりからセンシティブな属性を推論し、潜在的にバイアスをかけることができる。
LLM Recommenders (LLMRecs) における暗黙のバイアスについて検討し, 迅速な戦略が軽量で使い易いデバイアスのアプローチとして有効であるかどうかを考察する。
- 参考スコア(独自算出の注目度): 4.852932390076274
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.
- Abstract(参考訳): 大型言語モデル(LLM)は、性別や年齢などのセンシティブな属性を、名前や代名詞といった間接的な手がかりから推測し、潜在的に偏りのある推奨事項を推測することができる。
いくつかのデバイアス法が存在するが、LLMの重みへのアクセスが必要であり、計算コストがかかり、通常のユーザでは使用できない。
このギャップに対処するために、LLMRec(LLLM Recommenders)の暗黙バイアスを調査し、プロンプトベースの戦略が軽量で使い易いデバイアスのアプローチとして役立つかどうかを検討する。
LLMRecに対する3つのバイアス対応プロンプト戦略に貢献する。
我々の知る限り、LLMRecsにおけるグループフェアネスに焦点を当てたプロンプトベースのデバイアスアプローチに関する最初の研究である。
3つのLDM,4つのプロンプトテンプレート,9つの機密属性値,および2つのデータセットを用いた実験により,LLMに公平であるように指示する脱バイアス手法が,同等の有効性を維持しつつ,最大74%の公平性を向上できることが示された。
関連論文リスト
- DIF: A Framework for Benchmarking and Verifying Implicit Bias in LLMs [1.89915151018241]
我々は、Large Language Models(LLMs)における暗黙のバイアスは倫理的な問題であるだけでなく、技術的な問題でもあると主張している。
我々は、容易に解釈可能なベンチマークDIF(Demographic Implicit Fairness)の計算方法を開発した。
論文 参考訳(メタデータ) (2025-05-15T06:53:37Z) - Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [54.38054999271322]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,彼らの信念を更新しないことを示す。
我々は、標準ベイズモデルの予測を模倣するように訓練することで、ベイズ的方法による推論をLLMに教える。
より一般的には,LLMは実例から推論スキルを効果的に学習し,それらのスキルを新しいドメインに一般化できることを示す。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - Universal Model Routing for Efficient LLM Inference [69.86195589350264]
モデルルーティングは,大規模言語モデル(LLM)の推論コストを削減する手法である
動的ルーティング問題に対する新しいアプローチであるUniRouteを提案する。
これらは理論的に最適なルーティングルールの推定であり、過大なリスクバウンドによってそれらのエラーを定量化する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Reinforcement Learning from Multi-role Debates as Feedback for Bias Mitigation in LLMs [6.090496490133132]
本稿では,従来のRLHFのフィードバックに取って代わるバイアス緩和手法であるReinforcement Learning from Multi-role Debates as Feedback (RLDF)を提案する。
強化学習における報酬モデルのトレーニングに,高バイアスと低バイアスの両方のインスタンスを含むデータセットを作成するために,LLMをマルチロール討論に活用する。
論文 参考訳(メタデータ) (2024-04-15T22:18:50Z) - Prompting Fairness: Integrating Causality to Debias Large Language Models [19.76215433424235]
大規模言語モデル(LLM)は偏見や差別的な反応を生じさせる可能性がある。
社会的偏見に対処するための因果性誘導型脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:46:28Z) - ChatGPT Based Data Augmentation for Improved Parameter-Efficient Debiasing of LLMs [65.9625653425636]
大型言語モデル(LLM)は有害な社会的バイアスを示す。
そこで本研究では,ChatGPTを用いて合成学習データを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T01:28:48Z) - A Survey on Fairness in Large Language Models [28.05516809190299]
大規模言語モデル(LLM)は、強力なパフォーマンスと開発見通しを示している。
LLMは、未処理のトレーニングデータから社会的バイアスをキャプチャし、そのバイアスを下流のタスクに伝達する。
不公平なLLMシステムは、望ましくない社会的影響と潜在的な害がある。
論文 参考訳(メタデータ) (2023-08-20T03:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。