論文の概要: UnWEIRDing LLM Entity Recommendations
- arxiv url: http://arxiv.org/abs/2511.18403v1
- Date: Sun, 23 Nov 2025 11:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.822822
- Title: UnWEIRDing LLM Entity Recommendations
- Title(参考訳): UnWEIRDing LLMエンティティ勧告
- Authors: Aayush Kumar, Sanket Mhatre,
- Abstract要約: WEIRDフレームワークを使用して、粒度の細かいエンティティのデータセットにわたる様々な大規模言語モデルによるレコメンデーションを評価する。
以上の結果から,このような促進戦略はバイアスを低減させるが,この削減は異なるモデル間で一致していないことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models have been widely been adopted by users for writing tasks such as sentence completions. While this can improve writing efficiency, prior research shows that LLM-generated suggestions may exhibit cultural biases which may be difficult for users to detect, especially in educational contexts for non-native English speakers. While such prior work has studied the biases in LLM moral value alignment, we aim to investigate cultural biases in LLM recommendations for real-world entities. To do so, we use the WEIRD (Western, Educated, Industrialized, Rich and Democratic) framework to evaluate recommendations by various LLMs across a dataset of fine-grained entities, and apply pluralistic prompt-based strategies to mitigate these biases. Our results indicate that while such prompting strategies do reduce such biases, this reduction is not consistent across different models, and recommendations for some types of entities are more biased than others.
- Abstract(参考訳): 大規模言語モデルは、文補完などのタスクを書くために広く採用されている。
筆記効率は向上するが、先行研究により、LLMが生成する提案は、特に非ネイティブ英語話者の教育的文脈において、ユーザーが検出しにくい文化的偏見を示す可能性があることが示されている。
このような先行研究は、LLMの道徳的価値アライメントにおけるバイアスについて研究してきたが、実世界の実体に対するLLM勧告における文化的バイアスについて検討することを目的としている。
そのために、WEIRD(Western, Educated, Industrialized, Rich and Democratic)フレームワークを使用して、粒度の細かいエンティティのデータセット全体にわたる様々なLCMによるレコメンデーションを評価し、これらのバイアスを軽減するために複数のプロンプトベースの戦略を適用します。
以上の結果から,このような促進戦略はバイアスを低減させるが,この削減は異なるモデル間で整合性を持たず,いくつかのタイプのエンティティに対する推奨は,他のモデルよりも偏りが強いことが示唆された。
関連論文リスト
- Investigating and Mitigating Stereotype-aware Unfairness in LLM-based Recommendations [18.862841015556995]
大きな言語モデル(LLM)は、前例のない言語理解と推論能力を示している。
近年の研究では、LLMが単語埋め込みにユビキタスに埋め込まれたステレオタイプを継承する可能性が示されている。
本研究は, LLM-RSにおけるステレオタイプに対する識別を定量化するために, ユーザとアイテムの両方を含むステレオタイプグループ間のフェアネスの新たな変種を明らかにした。
論文 参考訳(メタデータ) (2025-04-05T15:09:39Z) - Evaluating how LLM annotations represent diverse views on contentious topics [3.405231040967506]
生成型大規模言語モデル (LLM) は, 同一データセット内の同じ階層カテゴリーにおいて, 同一方向のバイアスを受ける傾向があることを示す。
自動データアノテーションタスクにLLMを用いた研究者や実践者にとっての意義について論じる。
論文 参考訳(メタデータ) (2025-03-29T22:53:15Z) - The Alternative Annotator Test for LLM-as-a-Judge: How to Statistically Justify Replacing Human Annotators with LLMs [21.97227334180969]
LLM-as-an-judge」パラダイムは、人間が伝統的に行ってきたタスクにおいて、アノテータ、審査員、評価役としてLarge Language Models(LLM)を用いる。
研究結果や洞察を形成する上での役割にもかかわらず、LLMがヒトのアノテーターを置き換えることができるかどうかを判断するための標準的あるいは厳格な手順は存在しない。
LLMアノテーションの使用を正当化するために、アノテーション付きサンプルの控えめなサブセットだけを必要とする新しい統計手法である代替アノテーションテスト(alt-test)を提案する。
論文 参考訳(メタデータ) (2025-01-19T07:09:11Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。