論文の概要: Subjective Behaviors and Preferences in LLM: Language of Browsing
- arxiv url: http://arxiv.org/abs/2508.15474v1
- Date: Thu, 21 Aug 2025 11:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.301569
- Title: Subjective Behaviors and Preferences in LLM: Language of Browsing
- Title(参考訳): LLMにおける主観的行動と嗜好--ブラウジングの言語
- Authors: Sai Sundaresan, Harshita Chopra, Atanu R. Sinha, Koustava Goswami, Nagasai Saketh Naidu, Raghav Karan, N Anushka,
- Abstract要約: 大規模言語モデル(LLM)はドメインやタスクにまたがって汎用性を提供します。
小さなLMは、大きなLMよりも"ブラウジングの言語"を表現できますか?
主観的行動に適したクラスタワイズLMトレーニング(HeTLM)を導入する。
ページレベルのトークン化器を用いてトレーニングした小さなLMは、トレーニング済みまたは微調整済みのLMよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 1.6630304911300329
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A Large Language Model (LLM) offers versatility across domains and tasks, purportedly benefiting users with a wide variety of behaviors and preferences. We question this perception about an LLM when users have inherently subjective behaviors and preferences, as seen in their ubiquitous and idiosyncratic browsing of websites or apps. The sequential behavior logs of pages, thus generated, form something akin to each user's self-constructed "language", albeit without the structure and grammar imbued in natural languages. We ask: (i) Can a small LM represent the "language of browsing" better than a large LM? (ii) Can an LM with a single set of parameters (or, single LM) adequately capture myriad users' heterogeneous, subjective behaviors and preferences? (iii) Can a single LM with high average performance, yield low variance in performance to make alignment good at user level? We introduce clusterwise LM training, HeTLM (Heterogeneity aware Training of Language Model), appropriate for subjective behaviors. We find that (i) a small LM trained using a page-level tokenizer outperforms large pretrained or finetuned LMs; (ii) HeTLM with heterogeneous cluster specific set of parameters outperforms a single LM of the same family, controlling for the number of parameters; and (iii) a higher mean and a lower variance in generation ensues, implying improved alignment.
- Abstract(参考訳): 大規模言語モデル(LLM)はドメインやタスクにまたがって汎用性を提供します。
ユーザが本質的に主観的行動や嗜好を持っている場合のLLMに対するこの認識は、Webサイトやアプリのユビキタスで慣用的なブラウジングに見られるように疑問視する。
ページのシーケンシャルな振る舞いログが生成され、自然言語に埋め込まれた構造や文法がなくても、各ユーザの自己構築された「言語」に似た何かを形成する。
私たちはこう尋ねます。
(i)小さいLMは大きなLMよりも「閲覧の言語」を表現することができるか。
(二)一組のパラメータ(又は一組のLM)を持つLMは、無数のユーザの不均一で主観的行動や嗜好を適切に捉えることができるか。
3) 一人のLMが平均性能が高く、性能のばらつきが低く、ユーザレベルでのアライメントが良好か?
本稿では,HTLM(Heterogeneity aware Training of Language Model)を主観的行動に適したクラスタワイズLMトレーニングとして導入する。
私たちはそれを見つける。
i) ページレベルのトークン化装置を用いて訓練された小さなLMは、大きな事前訓練又は微調整されたLMより優れる。
i)ヘテロジニアスクラスタ固有のパラメータセットを持つHeTLMは、同じファミリーの単一のLMを上回り、パラメータの数を制御します。
(3)平均値が高く、世代差が小さく、アライメントが改善したことを示唆する。
関連論文リスト
- Small Models, Big Impact: Efficient Corpus and Graph-Based Adaptation of Small Multilingual Language Models for Low-Resource Languages [10.418542753869433]
低リソース言語(LRL)は、限られたデータのために自然言語処理(NLP)において重大な課題に直面している。
現在の最先端の大規模言語モデル(LLM)は、まだLRLと競合している。
mBERTやXLM-Rのような小さなマルチリンガルモデル(mLM)は、トレーニングデータサイズに適合する能力が向上するため、より有望である。
論文 参考訳(メタデータ) (2025-02-14T13:10:39Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Are More LLM Calls All You Need? Towards Scaling Laws of Compound Inference Systems [76.69936664916061]
LM呼び出し回数がVotteとFilter-Voteのパフォーマンスに与える影響について検討する。
意外なことに、複数の言語タスクにおいて、VoteとFilter-Voteの両方のパフォーマンスは、まず増大するが、LM呼び出しの回数の関数として減少する可能性がある。
論文 参考訳(メタデータ) (2024-03-04T19:12:48Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。