論文の概要: Heterogeneous Value Alignment Evaluation for Large Language Models
- arxiv url: http://arxiv.org/abs/2305.17147v3
- Date: Thu, 11 Jan 2024 16:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:07:18.034767
- Title: Heterogeneous Value Alignment Evaluation for Large Language Models
- Title(参考訳): 大規模言語モデルにおける異種価値アライメントの評価
- Authors: Zhaowei Zhang, Ceyao Zhang, Nian Liu, Siyuan Qi, Ziqi Rong, Song-Chun
Zhu, Shuguang Cui, Yaodong Yang
- Abstract要約: 大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
- 参考スコア(独自算出の注目度): 91.96728871418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergent capabilities of Large Language Models (LLMs) have made it
crucial to align their values with those of humans. However, current
methodologies typically attempt to assign value as an attribute to LLMs, yet
lack attention to the ability to pursue value and the importance of
transferring heterogeneous values in specific practical applications. In this
paper, we propose a Heterogeneous Value Alignment Evaluation (HVAE) system,
designed to assess the success of aligning LLMs with heterogeneous values.
Specifically, our approach first brings the Social Value Orientation (SVO)
framework from social psychology, which corresponds to how much weight a person
attaches to the welfare of others in relation to their own. We then assign the
LLMs with different social values and measure whether their behaviors align
with the inducing values. We conduct evaluations with new auto-metric
\textit{value rationality} to represent the ability of LLMs to align with
specific values. Evaluating the value rationality of five mainstream LLMs, we
discern a propensity in LLMs towards neutral values over pronounced personal
values. By examining the behavior of these LLMs, we contribute to a deeper
insight into the value alignment of LLMs within a heterogeneous value system.
- Abstract(参考訳): 大規模言語モデル(llm)の創発的な能力は、それらの価値を人間のものと一致させることを重要にしている。
しかしながら、現在の方法論は、通常、価値をLLMの属性として割り当てようとするが、価値を追求する能力や、特定の実用アプリケーションにおける異種値の転送の重要性に注意を払わない。
本稿では,LLMと不均一値の整合性を評価するために,不均一値アライメント評価(HVAE)システムを提案する。
具体的には、まず、社会的価値指向(Social Value Orientation, SVO)の枠組みを社会心理学から持ち出し、それは、人が他人の福祉にどれだけ重みを付けるかに対応する。
次に,LLMに異なる社会的価値を割り当て,その振る舞いが誘導的価値と一致するかどうかを測定する。
我々は,LLMが特定の値と整合する能力を示すために,新しい自動測度 \textit{value rationality} を用いて評価を行う。
5つの LLM の値合理性を評価することにより,LLM の個人的価値に対する中立的価値に対する妥当性を識別する。
これらのLLMの挙動を調べることにより、不均一な値システムにおけるLLMの価値アライメントの深い洞察に寄与する。
関連論文リスト
- Assessing LLMs for Moral Value Pluralism [2.860608352191896]
我々は、認識値共鳴(RVR)NLPモデルを用いて、与えられたテキストの文節に共鳴し矛盾する世界価値調査(WVS)値を特定する。
LLMはいくつかの西洋中心の値バイアスを示す。
以上の結果から,社会科学に情報提供された技術ソリューションの必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2023-12-08T16:18:15Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [113.72984199026094]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
生成モデルのカウンターファクトの能力を効果的に評価するために,革新的な評価指標であるLogicAware Counterfactual Scoreを提案する。
分析の結果,提案手法は人間の好みとよく一致していることがわかった。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Value FULCRA: Mapping Large Language Models to the Multidimensional
Spectrum of Basic Human Values [47.779186412943076]
本稿では,新しい基本値アライメントパラダイムと,基本値次元にまたがる値空間を提案する。
人文科学における人文科学と社会科学の基本的価値観に触発され、この研究は、新しい基本的価値アライメントパラダイムと、基本的価値次元にまたがる価値空間を提案する。
今後の研究を促進するために、代表的シュワルツの基本値理論を例として応用し、5k(LLM出力、値ベクトル)ペアからなるデータセットであるFULCRAを構築する。
論文 参考訳(メタデータ) (2023-11-15T10:29:28Z) - Post Turing: Mapping the landscape of LLM Evaluation [22.517544562890663]
本稿では,アラン・チューリングによる基礎的疑問からAI研究の現代まで,大規模言語モデル (LLM) 評価の歴史的軌跡を追究する。
これらのモデルのより広範な社会的意味を考慮し、統一的な評価システムの必要性を強調した。
この作業は、AIコミュニティがLLM評価の課題に協力して対処し、信頼性、公正性、社会的な利益を保証するために役立ちます。
論文 参考訳(メタデータ) (2023-11-03T17:24:50Z) - Denevil: Towards Deciphering and Navigating the Ethical Values of Large
Language Models via Instruction Learning [36.66806788879868]
大きな言語モデル(LLM)は前例のない突破口をたどったが、彼らの日常生活への統合は非倫理的コンテンツによって社会的リスクを引き起こす可能性がある。
この研究はモラル・ファンデーション理論を利用した倫理的価値を論じている。
論文 参考訳(メタデータ) (2023-10-17T07:42:40Z) - Measuring Value Understanding in Language Models through
Discriminator-Critique Gap [12.005365325753118]
LLM(Large Language Models)の真に理解するためには、"know What"と"know why"の両方を考慮する必要があります。
本研究では,人的価値に関する差別的批判的ギャップを測定することによって,「何を知るか」と「なぜ知るか」の両方を定量的に評価する価値理解計測フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T13:47:55Z) - CValues: Measuring the Values of Chinese Large Language Models from
Safety to Responsibility [62.74405775089802]
LLMのアライメント能力を測定するために,中国初の人的価値評価ベンチマークであるCValuesを提案する。
その結果、我々は10のシナリオにまたがる敵の安全プロンプトを手作業で収集し、8つのドメインから責任プロンプトを誘導した。
以上の結果から,ほとんどの中国のLLMは安全面では良好に機能するが,責任面では十分な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2023-07-19T01:22:40Z) - A Survey on Evaluation of Large Language Models [87.60417393701331]
大規模言語モデル(LLM)は、学術と産業の両方で人気が高まっている。
本稿では,評価方法,評価方法,評価方法の3つの重要な側面に焦点をあてる。
論文 参考訳(メタデータ) (2023-07-06T16:28:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。