論文の概要: Value Lens: Using Large Language Models to Understand Human Values
- arxiv url: http://arxiv.org/abs/2512.15722v1
- Date: Thu, 04 Dec 2025 04:15:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.776327
- Title: Value Lens: Using Large Language Models to Understand Human Values
- Title(参考訳): バリューレンズ:人間の価値を理解するために大きな言語モデルを使う
- Authors: Eduardo de la Cruz Fernández, Marcelo Karanik, Sascha Ossowski,
- Abstract要約: 本稿では,生成人工知能を用いた人的価値の検出を目的としたテキストベースモデルを提案する。
提案したモデルは2段階で動作する: 第一は値の形式的理論を定式化することを目的としており、第二は与えられたテキスト内でこれらの値を特定することに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The autonomous decision-making process, which is increasingly applied to computer systems, requires that the choices made by these systems align with human values. In this context, systems must assess how well their decisions reflect human values. To achieve this, it is essential to identify whether each available action promotes or undermines these values. This article presents Value Lens, a text-based model designed to detect human values using generative artificial intelligence, specifically Large Language Models (LLMs). The proposed model operates in two stages: the first aims to formulate a formal theory of values, while the second focuses on identifying these values within a given text. In the first stage, an LLM generates a description based on the established theory of values, which experts then verify. In the second stage, a pair of LLMs is employed: one LLM detects the presence of values, and the second acts as a critic and reviewer of the detection process. The results indicate that Value Lens performs comparably to, and even exceeds, the effectiveness of other models that apply different methods for similar tasks.
- Abstract(参考訳): 自律的な意思決定プロセスは、コンピュータシステムにますます適用され、これらのシステムによってなされる選択は人間の価値と一致する必要がある。
この文脈では、システムは彼らの決定がいかに人間の価値を反映しているかを評価する必要があります。
これを実現するためには、各アクションがこれらの値を促進または弱めるかどうかを特定することが不可欠である。
本稿では、生成人工知能、特にLarge Language Models(LLMs)を用いて、人間の価値を検出するために設計されたテキストベースモデルであるValue Lensについて述べる。
提案したモデルは2段階で動作する: 第一は値の形式的理論を定式化することを目的としており、第二は与えられたテキスト内でこれらの値を特定することに焦点を当てている。
第一段階では、LDMは確立された値の理論に基づいて記述を生成し、専門家が検証する。
第2段階では、1つのLLMが値の存在を検知し、第2のLLMが検出プロセスの批評家およびレビュアーとして機能する。
その結果、バリューレンズは類似したタスクに異なる手法を適用する他のモデルの有効性と相容れない性能を示し、それを超えている。
関連論文リスト
- Value Portrait: Assessing Language Models' Values through Psychometrically and Ecologically Valid Items [2.9357382494347264]
既存のベンチマークは、価値関連のバイアスに弱い人や機械のアノテーションに依存している。
本稿では,実生活におけるユーザ-LLMインタラクションをキャプチャするアイテムからなるValue Portraitベンチマークを提案する。
この心理的に検証されたアプローチは、特定の値と強く相関したアイテムがそれらの値を評価するための信頼できるアイテムとして機能することを保証する。
論文 参考訳(メタデータ) (2025-05-02T05:26:50Z) - Value Compass Benchmarks: A Platform for Fundamental and Validated Evaluation of LLMs Values [76.70893269183684]
大きな言語モデル(LLM)は驚くべきブレークスルーを達成する。
価値を人間に合わせることは 責任ある開発に欠かせないものになっています
3つの望ましい目標を達成するLLMの評価はいまだに欠けている。
論文 参考訳(メタデータ) (2025-01-13T05:53:56Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。