論文の概要: PERSONA: A Reproducible Testbed for Pluralistic Alignment
- arxiv url: http://arxiv.org/abs/2407.17387v1
- Date: Wed, 24 Jul 2024 16:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 13:15:22.817698
- Title: PERSONA: A Reproducible Testbed for Pluralistic Alignment
- Title(参考訳): PERSONA:多面的アライメントのための再現可能なテストベッド
- Authors: Louis Castricato, Nathan Lile, Rafael Rafailov, Jan-Philipp Fränken, Chelsea Finn,
- Abstract要約: 言語モデルの多元的アライメントの評価と改善を目的としたテストベッドであるPERSONAを紹介する。
我々は,米国国勢調査データから多様なユーザプロファイルを手続き的に生成し,その結果,1,586人の合成ペルソナが得られた。
次に,3,868のプロンプトと317,200のフィードバックペアを含む大規模評価データセットを生成する。
- 参考スコア(独自算出の注目度): 46.750587209286344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of language models (LMs) necessitates robust alignment with diverse user values. However, current preference optimization approaches often fail to capture the plurality of user opinions, instead reinforcing majority viewpoints and marginalizing minority perspectives. We introduce PERSONA, a reproducible test bed designed to evaluate and improve pluralistic alignment of LMs. We procedurally generate diverse user profiles from US census data, resulting in 1,586 synthetic personas with varied demographic and idiosyncratic attributes. We then generate a large-scale evaluation dataset containing 3,868 prompts and 317,200 feedback pairs obtained from our synthetic personas. Leveraging this dataset, we systematically evaluate LM capabilities in role-playing diverse users, verified through human judges, and the establishment of both a benchmark, PERSONA Bench, for pluralistic alignment approaches as well as an extensive dataset to create new and future benchmarks. The full dataset and benchmarks are available here: https://www.synthlabs.ai/research/persona.
- Abstract(参考訳): 言語モデル(LM)の急速な進歩は、多様なユーザ値との堅牢な整合性を必要とする。
しかし、現在の選好最適化アプローチは、複数のユーザの意見を捉えるのに失敗することが多く、代わりに多数派視点を補強し、少数派視点を疎外する。
本稿では,LMの多面的アライメントの評価と改善を目的とした再現性試験ベッドであるPERSONAを紹介する。
我々は,米国国勢調査データから多彩なユーザプロファイルを手続き的に生成し,人口統計学的および慣用的属性の異なる1,586人の合成ペルソナを作成した。
次に,3,868個のプロンプトと317,200個のフィードバックペアを含む大規模評価データセットを生成した。
このデータセットを活用することで、ロールプレイングの多様なユーザにおけるLM能力を体系的に評価し、人間の判断によって検証し、複数のアライメントアプローチのためのベンチマークであるPERSONA Benchの確立と、新しいベンチマークを作成するための広範囲なデータセットを作成する。
完全なデータセットとベンチマークは以下の通りである。
関連論文リスト
- Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - PersoBench: Benchmarking Personalized Response Generation in Large Language Models [6.8046587254152735]
我々はペルソベンチ(PersoBench)という,ペルソベンチ(PersoBench)という,個人認識対話生成における大規模言語モデル(LLM)のパーソナライズ能力を評価するベンチマークを提案する。
本分析は, 3つの人格認識データセットを用いて, 流布度, 多様性, 一貫性, パーソナライゼーションなど, 応答品質の多次元性を評価する。
論文 参考訳(メタデータ) (2024-10-04T07:29:41Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - WildFeedback: Aligning LLMs With In-situ User Interactions And Feedback [28.317315761271804]
WildFeedbackは、リアルタイムのin-situユーザーインタラクションを活用して、より正確に人間の価値観を反映した好みデータセットを作成する新しいフレームワークである。
我々は,このフレームワークをユーザとLLMの会話の大規模なコーパスに適用し,実際のユーザの好みを反映したリッチな嗜好データセットを実現する。
実験により,WildFeedbackを微調整したLCMは,ユーザの好みに合わせて大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2024-08-28T05:53:46Z) - A User-Centric Benchmark for Evaluating Large Language Models [39.538411572029005]
大きな言語モデル(LLM)は、異なるタスクでユーザと協調するために必要なツールである。
実際のユーザによるLLMの利用を意図したベンチマークはほとんどない。
ユーザニーズを満たす上での有効性について10のLCMサービスをベンチマークする。
論文 参考訳(メタデータ) (2024-04-22T07:32:03Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。