論文の概要: UPLex: Fine-Grained Personality Control in Large Language Models via Unsupervised Lexical Modulation
- arxiv url: http://arxiv.org/abs/2310.16582v3
- Date: Tue, 09 Sep 2025 14:42:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:26.518075
- Title: UPLex: Fine-Grained Personality Control in Large Language Models via Unsupervised Lexical Modulation
- Title(参考訳): UPLex:教師なし語彙変調による大規模言語モデルにおける微粒化パーソナリティ制御
- Authors: Tianlong Li, Wenhao Liu, Muling Wu, Shihan Dou, Zhenghua Wang, Changze Lv, Xiaohua Wang, Xiaoqing Zheng, Xuanjing Huang,
- Abstract要約: パーソナリティは人間のコミュニケーションパターンを形作る重要な要素であり、それによって大きな言語モデル(LLM)のパーソナリティを調節する。
LLMの性格特性を操作するために,Unsupervisedly-Built Personalal lexicon (UPL) を用いた UPLex を提案する。
UPLexは、教師なしの方法で新たに構築された状況判断テストデータセットから構築することができ、LLMの性格表現を変調するために使用される。
- 参考スコア(独自算出の注目度): 52.043831554626685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personality is a crucial factor that shapes human communication patterns, thereby regulating the personalities of large language models (LLMs) holds significant potential in enhancing their user experiences. Previous approaches either relied on fine-tuning LLMs on specific corpora or required manually crafted prompts to evoke specific personalities from LLMs. However, the former is inefficient and costly, while the latter cannot precisely manipulate personality traits at a fine-grained level. To address these challenges, we propose UPLex, a method that uses an Unsupervisedly-Built Personalized Lexicon (UPL) during the decoding phase to manipulate LLM's personality traits. UPL can be constructed from a newly built situational judgment test dataset in an unsupervised fashion, and used to modulate the personality expression of LLMs by dynamically altering their predicted probability of upcoming words in a pluggable fashion. Extensive experimentation demonstrates the remarkable effectiveness and pluggability of our method for fine-grained manipulation of LLMs' personalities.
- Abstract(参考訳): パーソナリティは、人間のコミュニケーションパターンを形作る重要な要素であり、それによって、大きな言語モデル(LLM)のパーソナリティを調節することで、ユーザエクスペリエンスを向上させる大きな可能性を秘めている。
以前のアプローチでは、特定のコーパスの微調整 LLM に依存するか、または LLM から特定の個性を引き出すために手作業によるプロンプトが必要であった。
しかし、前者は非効率でコストがかかるが、後者は微粒なレベルで人格特性を正確に操作することはできない。
これらの課題に対処するために,復号段階でunsupervisedly-Built Personalized Lexicon (UPL) を用いてLLMの性格特性を操作する手法であるUPLexを提案する。
UPLは、教師なしの方法で新たに構築された状況判断テストデータセットから構築することができ、プラグイン可能な方法で、今後の単語の予測確率を動的に変更することにより、LLMの個性表現を変調するために使用される。
広汎な実験により, LLMの人格の微粒化操作における本手法の顕著な有効性とプラガビリティが示された。
関連論文リスト
- Self-Correction Makes LLMs Better Parsers [19.20952673157709]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著な成功を収めている。
近年の研究では、深い言語理解に不可欠な基本的なNLPタスクを実行する上で、依然として課題に直面していることが示唆されている。
本稿では,既存の木バンクからの文法規則を活かした自己補正手法を提案する。
論文 参考訳(メタデータ) (2025-04-19T03:50:59Z) - Probing then Editing Response Personality of Large Language Models [40.99117085818623]
大きな言語モデル(LLM)は、一貫した性格特性を示す応答を生成する有望な能力を示している。
応答するパーソナリティを符号化する上でのLCMのレイヤーワイズ能力を検討するための層ワイズ探索フレームワークを提案する。
推論中に LLM で表現される性格を編集する階層的な編集手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T13:46:35Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LMLPA: Language Model Linguistic Personality Assessment [11.599282127259736]
大規模言語モデル(LLM)は、日常の生活や研究にますます利用されている。
与えられたLLMの性格を測定することは、現在課題である。
言語モデル言語パーソナリティアセスメント(LMLPA)は,LLMの言語的パーソナリティを評価するシステムである。
論文 参考訳(メタデータ) (2024-10-23T07:48:51Z) - zsLLMCode: An Effective Approach for Functional Code Embedding via LLM with Zero-Shot Learning [6.976968804436321]
大型言語モデル(LLM)はゼロショット学習の能力を持ち、訓練や微調整を必要としない。
LLMを用いた関数型コード埋め込みを生成する新しいアプローチであるzsLLMCodeを提案する。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Psychometric Predictive Power of Large Language Models [32.31556074470733]
命令チューニングは、認知モデルの観点から、必ずしも人間のような大きな言語モデルを作るとは限らない。
命令調整 LLM で推定される次の単語確率は、基本 LLM で推定されるものよりも、人間の読み動作をシミュレートする場合には、しばしば悪化する。
論文 参考訳(メタデータ) (2023-11-13T17:19:14Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Personality Traits in Large Language Models [44.908741466152215]
コミュニケーションの有効性を決定する重要な要因は人格である。
広範に使われている大規模言語モデルにおいて,パーソナリティテストの管理と検証を行う包括的手法を提案する。
本稿では,計測・形成手法の応用と倫理的意義,特に責任あるAIについて論じる。
論文 参考訳(メタデータ) (2023-07-01T00:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。