論文の概要: Cognitive Biases in Large Language Models for News Recommendation
- arxiv url: http://arxiv.org/abs/2410.02897v1
- Date: Thu, 3 Oct 2024 18:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:05:01.701177
- Title: Cognitive Biases in Large Language Models for News Recommendation
- Title(参考訳): ニュースレコメンデーションのための大規模言語モデルにおける認知バイアス
- Authors: Yougang Lyu, Xiaoyu Zhang, Zhaochun Ren, Maarten de Rijke,
- Abstract要約: 本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
- 参考スコア(独自算出の注目度): 68.90354828533535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite large language models (LLMs) increasingly becoming important components of news recommender systems, employing LLMs in such systems introduces new risks, such as the influence of cognitive biases in LLMs. Cognitive biases refer to systematic patterns of deviation from norms or rationality in the judgment process, which can result in inaccurate outputs from LLMs, thus threatening the reliability of news recommender systems. Specifically, LLM-based news recommender systems affected by cognitive biases could lead to the propagation of misinformation, reinforcement of stereotypes, and the formation of echo chambers. In this paper, we explore the potential impact of multiple cognitive biases on LLM-based news recommender systems, including anchoring bias, framing bias, status quo bias and group attribution bias. Furthermore, to facilitate future research at improving the reliability of LLM-based news recommender systems, we discuss strategies to mitigate these biases through data augmentation, prompt engineering and learning algorithms aspects.
- Abstract(参考訳): 大きな言語モデル(LLM)はニュースレコメンデーションシステムの重要コンポーネントになりつつあるが、そのようなシステムにLLMを採用すると、LLMにおける認知バイアスの影響のような新しいリスクがもたらされる。
認知バイアスは、判断過程における規範や合理性からの逸脱の体系的なパターンを指し、LLMからの不正確な出力をもたらす可能性があるため、ニュースレコメンダシステムの信頼性を脅かす。
特に、認知バイアスに影響されたLLMベースのニュースレコメンデーターシステムは、誤報の伝播、ステレオタイプの強化、エコーチャンバーの形成につながる可能性がある。
本稿では,複数の認知バイアスがLLMベースのニュースレコメンデーションシステムに与える影響について検討する。
さらに,LLMに基づくニュースレコメンデータシステムの信頼性向上に向けた今後の研究を促進するため,データ拡張,エンジニアリング,学習アルゴリズムの側面を通じて,これらのバイアスを軽減するための戦略について議論する。
関連論文リスト
- A Survey on LLM-based News Recommender Systems [3.295694699346357]
ニュースレコメンデータシステムは、情報過負荷問題を緩和する上で重要な役割を果たす。
大規模言語モデル技術の応用が成功したため、研究者はニュースレコメンデータシステムの性能向上のため、DLLM(Driminative Large Language Models)またはGLLM(Generative Large Language Models)を利用している。
近年のいくつかの調査では、ディープラーニングベースのニュースレコメンデータシステムに関する重要な課題がレビューされているが、Large Language Model(LLM)ベースのニュースレコメンデータシステムに関する体系的な調査が欠如している。
論文 参考訳(メタデータ) (2025-02-13T22:13:59Z) - Bias in Large Language Models: Origin, Evaluation, and Mitigation [4.606140332500086]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、バイアスへの感受性は大きな課題となっている。
本総説では, LLMの発端から現在の緩和戦略まで, バイアスの背景を概観する。
偏りのあるLLMの倫理的および法的含意について論じ、医療や刑事司法のような現実の応用における潜在的な害を強調した。
論文 参考訳(メタデータ) (2024-11-16T23:54:53Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Mitigating Propensity Bias of Large Language Models for Recommender Systems [20.823461673845756]
我々は,CLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介する。
本稿では,歴史的相互作用から得られた構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案する。
我々の CLLMR アプローチは LLM ベースのレコメンデータシステムに固有の因果関係を探索する。
論文 参考訳(メタデータ) (2024-09-30T07:57:13Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - Unveiling and Mitigating Bias in Large Language Model Recommendations: A Path to Fairness [3.5297361401370044]
本研究では,LLMに基づくレコメンデーションシステムとバイアスの相互作用について検討する。
音楽、歌、書籍のレコメンデーションなど、様々な民族や文化グループに重点を置いている。
我々の発見によると、これらのシステムのバイアスは深く根深いが、迅速なエンジニアリングのような単純な介入さえも、それを大幅に減らすことができる。
論文 参考訳(メタデータ) (2024-09-17T01:37:57Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Investigating Bias in LLM-Based Bias Detection: Disparities between LLMs and Human Perception [13.592532358127293]
大規模言語モデル(LLM)におけるバイアスの存在と性質について検討する。
LLMが特に政治的バイアス予測やテキスト継続タスクにおいてバイアスを示すかどうかを調査する。
我々は,素早い工学とモデル微調整を含む脱バイアス戦略を提案する。
論文 参考訳(メタデータ) (2024-03-22T00:59:48Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。