論文の概要: Can Language Models Reason about Individualistic Human Values and Preferences?
- arxiv url: http://arxiv.org/abs/2410.03868v1
- Date: Fri, 4 Oct 2024 19:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 15:40:54.444720
- Title: Can Language Models Reason about Individualistic Human Values and Preferences?
- Title(参考訳): 言語モデルは個人主義的人的価値と嗜好について理にかなっているか?
- Authors: Liwei Jiang, Taylor Sorensen, Sydney Levine, Yejin Choi,
- Abstract要約: 個人主義的価値推論の具体的な課題について言語モデル(LM)について検討する。
我々は,55%から65%の精度で個人主義的人間の価値を推論する,フロンティアLMの能力の限界を明らかにする。
提案した値不等式指数(sigmaINEQUITY)によって測定された大域的個人主義的価値の推論におけるLMの部分性も同定する。
- 参考スコア(独自算出の注目度): 44.249817353449146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent calls for pluralistic alignment emphasize that AI systems should address the diverse needs of all people. Yet, efforts in this space often require sorting people into fixed buckets of pre-specified diversity-defining dimensions (e.g., demographics, personalities, communication styles), risking smoothing out or even stereotyping the rich spectrum of individualistic variations. To achieve an authentic representation of diversity that respects individuality, we propose individualistic alignment. While individualistic alignment can take various forms, in this paper, we introduce IndieValueCatalog, a dataset transformed from the influential World Values Survey (WVS), to study language models (LMs) on the specific challenge of individualistic value reasoning. Specifically, given a sample of an individual's value-expressing statements, models are tasked with predicting their value judgments in novel cases. With IndieValueCatalog, we reveal critical limitations in frontier LMs' abilities to reason about individualistic human values with accuracies, only ranging between 55% to 65%. Moreover, our results highlight that a precise description of individualistic values cannot be approximated only via demographic information. We also identify a partiality of LMs in reasoning about global individualistic values, as measured by our proposed Value Inequity Index ({\sigma}INEQUITY). Finally, we train a series of Individualistic Value Reasoners (IndieValueReasoner) using IndieValueCatalog to enhance models' individualistic value reasoning capability, revealing new patterns and dynamics into global human values. We outline future research challenges and opportunities for advancing individualistic alignment.
- Abstract(参考訳): 近年、多元的アライメントを求める声は、AIシステムはすべての人々の多様なニーズに対処する必要があることを強調している。
しかし、この分野の取り組みは、しばしば人々を、あらかじめ特定された多様性を定義する次元(例えば、人口統計、個人性、コミュニケーションスタイル)の固定されたバケツに分類し、スムーズなアウトや、個人主義的なバリエーションの豊富なスペクトルをステレオタイピングするリスクを負う。
個人性を尊重する多様性の真正表現を実現するために,個人主義的アライメントを提案する。
個人主義的アライメントは様々な形態をとることができるが、本稿では、影響力のある世界価値調査(WVS)から変換されたデータセットであるIndieValueCatalogを導入し、個人主義的価値推論の特定の課題について言語モデル(LM)を研究する。
具体的には、個人の値表現ステートメントのサンプルを考えると、モデルは新しいケースにおける価値判断を予測することを任務とする。
IndieValueCatalogでは、アキュラシーを伴う個人主義的人間の価値を推論する、フロンティアLMの能力の限界を55%から65%程度しか明らかにしていない。
さらに, 個人主義的価値の正確な記述は, 人口統計情報のみでは近似できないことが明らかとなった。
また,提案した値不等式指数({\sigma}INEQUITY)を用いて,大域的個人主義的価値を推定する際のLMの部分性についても検討した。
最後に、IndieValueCatalogを使用して、IndieValueReasoner(IndieValueReasoner)のシリーズをトレーニングし、モデルの個人的価値推論能力を向上し、グローバルな人間の価値に新しいパターンとダイナミクスを明らかにする。
個人主義的アライメントを進めるための今後の研究課題と機会を概説する。
関連論文リスト
- Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - Personality Alignment of Large Language Models [26.071445846818914]
大規模言語モデル(LLM)を整列する現在の手法は、一般的に一般的な人間の価値観や振る舞いを反映することを目的としている。
パーソナリティアライメントの概念を紹介する。
このアプローチは、個々のユーザや近縁なグループの特定の嗜好に合うように、LSMの反応と決定を調整します。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches [69.73783026870998]
本研究では,大言語モデルの固有値システムをスクラッチから再構築する新しいフレームワークであるValueLexを提案する。
語彙仮説に基づいて、ValueLexは30以上のLLMから様々な値を引き出すための生成的アプローチを導入している。
我々は,3つのコア値次元,能力,キャラクタ,積分をそれぞれ特定の部分次元で同定し,LLMが非人間的だが構造化された価値体系を持っていることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T09:44:51Z) - High-Dimension Human Value Representation in Large Language Models [60.33033114185092]
大規模言語モデル(LLM)における人的価値分布の高次元表現であるUniVaRを提案する。
我々は,UniVaRが,異なるLLMに埋め込まれた人間の値と異なる言語源との分布を比較する強力なツールであることを示す。
論文 参考訳(メタデータ) (2024-04-11T16:39:00Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Model-agnostic Fits for Understanding Information Seeking Patterns in
Humans [0.0]
不確実な意思決定タスクでは、人間はそのタスクに関連する情報を探し、統合し、行動する際、特徴的なバイアスを示す。
ここでは,これらのバイアスを総合的に測定・分類した,大規模に収集した先行設計実験のデータを再検討した。
これらのバイアスを集約的に再現するディープラーニングモデルを設計し、個々の行動の変化を捉えます。
論文 参考訳(メタデータ) (2020-12-09T04:34:58Z) - Beyond Our Behavior: The GDPR and Humanistic Personalization [0.0]
我々は人道主義的パーソナライゼーションの新しいパラダイムを提案する。
非意識的な(有機的)行動と意識的な(反射的)行動の1つとして、暗黙的な(暗黙的な)データ収集と明示的な(暗黙的な)データ収集を区別する。
本稿では,物語の正確さに重きを置くことで,不公平な被験者が行うデータ処理の機会を減らす方法について論じる。
論文 参考訳(メタデータ) (2020-08-31T07:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。