論文の概要: Personality Editing for Language Models through Relevant Knowledge Editing
- arxiv url: http://arxiv.org/abs/2502.11789v1
- Date: Mon, 17 Feb 2025 13:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:12:20.836590
- Title: Personality Editing for Language Models through Relevant Knowledge Editing
- Title(参考訳): 関連知識編集による言語モデルのパーソナリティ編集
- Authors: Seojin Hwang, Yumin Kim, Byeongjeong Kim, Hwanhee Lee,
- Abstract要約: 大きな言語モデル(LLM)は会話エージェントやコンテンツ生成といったアプリケーションにおいて重要な役割を果たす。
本稿では,知識編集によるパーソナリティ制御を向上する新しいPALETTEを提案する。
- 参考スコア(独自算出の注目度): 3.6152232645741025
- License:
- Abstract: Large Language Models (LLMs) play a vital role in applications like conversational agents and content creation, where controlling a model's personality is crucial for maintaining tone, consistency, and engagement. However, traditional prompt-based techniques for controlling personality often fall short, as they do not effectively mitigate the model's inherent biases. In this paper, we introduce a novel method PALETTE that enhances personality control through knowledge editing. By generating adjustment queries inspired by psychological assessments, our approach systematically adjusts responses to personality-related queries similar to modifying factual knowledge, thereby achieving controlled shifts in personality traits. Experimental results from both automatic and human evaluations demonstrate that our method enables more stable and well-balanced personality control in LLMs.
- Abstract(参考訳): 大きな言語モデル(LLM)は会話エージェントやコンテンツ生成といったアプリケーションにおいて重要な役割を担います。
しかしながら、パーソナリティを制御する従来のプロンプトベースのテクニックは、モデル固有のバイアスを効果的に軽減しないため、しばしば不足する。
本稿では,知識編集によるパーソナリティ制御を向上する新しいPALETTEを提案する。
心理的アセスメントにインスパイアされた調整クエリを生成することにより,事実知識の修正に類似した個性関連クエリに対する応答を体系的に調整し,個性特性の制御的な変化を実現する。
自動評価と人的評価の両方による実験結果から,本手法はLLMにおいてより安定かつバランスの取れたパーソナリティ制御を可能にすることが示された。
関連論文リスト
- Neuron-based Personality Trait Induction in Large Language Models [115.08894603023712]
大規模言語モデル (LLM) は、様々な性格特性をシミュレートする能力が増している。
LLMにおけるパーソナリティ特性誘導のためのニューロンに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-16T07:47:45Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - The Effects of Embodiment and Personality Expression on Learning in LLM-based Educational Agents [0.7499722271664147]
本研究は,人格表現と体格が,教育的会話エージェントにおける人格認識と学習にどのように影響するかを考察する。
教育アプリケーションに適したLLMベースの会話支援を統合することで、既存のパーソナリティ駆動型会話エージェントフレームワークを拡張した。
1)対話を通して人格を伝達する対話のみのモデル,(2)対話のみで人格を表現するアニメーション人間モデル,(3)対話と身体と顔のアニメーションを通して人格を表現するアニメーション人間モデル,の3つのモデルを評価する。
論文 参考訳(メタデータ) (2024-06-24T09:38:26Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - ControlLM: Crafting Diverse Personalities for Language Models [32.411304295746746]
そこで本研究では,モデルの潜在空間における行動プロンプトの対比から導かれる,差動アクティベーションパターンを利用した制御LMを提案する。
まず、トレーニングなしで多様なペルソナ行動を引き出す制御LMの能力を実証する一方、精度制御により、人格特性が平均的な人格値と密に一致できることを実証する。
我々は,良心や親しみなどの有益な属性を選択的に増幅することで,推論と質問応答を改善した。
論文 参考訳(メタデータ) (2024-02-15T17:58:29Z) - Self-Alignment for Factuality: Mitigating Hallucinations in LLMs via Self-Evaluation [71.91287418249688]
大規模言語モデル(LLM)は、たとえ関連する知識を持っていたとしても、事実的不正確さに悩まされることが多い。
我々は,LLMの自己評価能力を活用し,現実性に向けてモデルを操る訓練信号を提供する。
提案手法は,Llamaファミリーモデルに対して,3つの重要な知識集約タスクにおいて,現実的精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:52:42Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。