論文の概要: CoS: Enhancing Personalization and Mitigating Bias with Context Steering
- arxiv url: http://arxiv.org/abs/2405.01768v1
- Date: Thu, 2 May 2024 22:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 14:15:00.638655
- Title: CoS: Enhancing Personalization and Mitigating Bias with Context Steering
- Title(参考訳): CoS: コンテキストステアリングによるパーソナライズとバイアスの緩和
- Authors: Jerry Zhi-Yang He, Sashrika Pandey, Mariah L. Schrum, Anca Dragan,
- Abstract要約: コンテキストは大きな言語モデル(LLM)の応答を著しく形作ることができる
本研究では,自動回帰LDMを推論時に容易に適用可能なトレーニング不要な手法であるContext Steering (CoS)を提案する。
モデルバイアスを低減するために、よりパーソナライズを向上し、不要な影響を緩和するために、文脈の影響を増幅することを含む、CoSの様々な応用を紹介した。
- 参考スコア(独自算出の注目度): 5.064910647314323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When querying a large language model (LLM), the context, i.e. personal, demographic, and cultural information specific to an end-user, can significantly shape the response of the LLM. For example, asking the model to explain Newton's second law with the context "I am a toddler" yields a different answer compared to the context "I am a physics professor." Proper usage of the context enables the LLM to generate personalized responses, whereas inappropriate contextual influence can lead to stereotypical and potentially harmful generations (e.g. associating "female" with "housekeeper"). In practice, striking the right balance when leveraging context is a nuanced and challenging problem that is often situation-dependent. One common approach to address this challenge is to fine-tune LLMs on contextually appropriate responses. However, this approach is expensive, time-consuming, and not controllable for end-users in different situations. In this work, we propose Context Steering (CoS) - a simple training-free method that can be easily applied to autoregressive LLMs at inference time. By measuring the contextual influence in terms of token prediction likelihood and modulating it, our method enables practitioners to determine the appropriate level of contextual influence based on their specific use case and end-user base. We showcase a variety of applications of CoS including amplifying the contextual influence to achieve better personalization and mitigating unwanted influence for reducing model bias. In addition, we show that we can combine CoS with Bayesian Inference to quantify the extent of hate speech on the internet. We demonstrate the effectiveness of CoS on state-of-the-art LLMs and benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)を問う場合、エンドユーザー固有の個人的、人口統計学的、文化的情報といった文脈は、LLMの応答を著しく形作ることができる。
例えば、ニュートンの第二法則を「私は幼児だ」という文脈で説明するよう依頼すると、「私は物理学の教授だ」という文脈とは異なる答えが得られる。
適切な文脈の使用により、LSMはパーソナライズされた応答を生成できるが、不適切な文脈の影響は、ステレオタイプで潜在的に有害な世代(例えば「女性」と「家政婦」を関連付ける)につながる可能性がある。
実際には、コンテキストを活用する際に適切なバランスを取ることは、多くの場合状況に依存している、面倒で困難な問題です。
この課題に対処する一般的なアプローチの1つは、文脈的に適切な応答に基づいてLSMを微調整することである。
しかし、このアプローチは高価で時間がかかり、異なる状況のエンドユーザには制御できない。
本研究では,自動回帰 LLM に推論時に容易に適用可能な簡易なトレーニングフリー手法である Context Steering (CoS) を提案する。
本手法は,トークン予測可能性の観点からコンテキスト影響を計測し,それを調整することにより,特定のユースケースとエンドユーザーベースに基づいて適切なコンテキスト影響のレベルを決定することができる。
モデルバイアスを低減するために、よりパーソナライズを向上し、不要な影響を緩和するために、文脈の影響を増幅することを含む、CoSの様々な応用を紹介した。
さらに,インターネット上でのヘイトスピーチの程度を定量化するために,CoSとベイズ推論を組み合わせることができることを示す。
最先端のLCMとベンチマークにおけるCoSの有効性を実証する。
関連論文リスト
- Do LLMs Understand Ambiguity in Text? A Case Study in Open-world Question Answering [15.342415325821063]
自然言語の曖昧さは、オープンドメインの質問応答に使用される大規模言語モデル(LLM)に重大な課題をもたらす。
我々は,明示的曖昧化戦略の効果を計測することに集中して,市販のLLM性能と数発のLLM性能を比較した。
本研究では, 難解な問合せタスクにおいて, LLM性能を向上させるために, 簡単な, トレーニング不要, トークンレベルの曖昧さを効果的に活用できることを実証する。
論文 参考訳(メタデータ) (2024-11-19T10:27:26Z) - Characterizing Context Influence and Hallucination in Summarization [10.597854898147313]
要約における文脈情報の影響と幻覚について検討する。
文脈の影響は,CIDの私的情報漏洩を低く抑えることを示す。
論文 参考訳(メタデータ) (2024-10-03T22:19:28Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Customizing Language Model Responses with Contrastive In-Context Learning [7.342346948935483]
我々は、コントラスト的な例を使って、私たちの意図をよりよく記述するアプローチを提案する。
これには、本当の意図を示す肯定的な例と、LLMが避けたい特性を示す否定的な例が含まれます。
答を生成する前に、モデルにサンプルを分析して、避けるべきことを教える。
この推論ステップは、モデルにユーザのニーズを適切に表現し、より良い回答を生成するためのガイドを提供します。
論文 参考訳(メタデータ) (2024-01-30T19:13:12Z) - Rephrase and Respond: Let Large Language Models Ask Better Questions for Themselves [57.974103113675795]
本稿では,Rephrase and Respond'(RaR)という手法を提案する。
RaRは、パフォーマンスを改善するためのシンプルだが効果的なプロンプト方法として機能する。
また,RaRは理論的にも経験的にも,一般的なChain-of-Thought(CoT)法と相補的であることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。