論文の概要: Learning the Value Systems of Societies from Preferences
- arxiv url: http://arxiv.org/abs/2507.20728v1
- Date: Mon, 28 Jul 2025 11:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.09261
- Title: Learning the Value Systems of Societies from Preferences
- Title(参考訳): 優先順位から社会の価値体系を学習する
- Authors: Andrés Holgado-Sánchez, Holger Billhardt, Sascha Ossowski, Sara Degli-Esposti,
- Abstract要約: 人間の価値観と様々な利害関係者の価値観に基づく嗜好を持つAIシステムを調整することは、倫理的AIにおいて鍵となる。
価値認識型AIシステムでは、意思決定は個々の値の明示的な計算表現に基づいて行われる。
本稿では,社会の価値体系を学習する上での課題に対処する手法を提案する。
- 参考スコア(独自算出の注目度): 1.3836987591220347
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Aligning AI systems with human values and the value-based preferences of various stakeholders (their value systems) is key in ethical AI. In value-aware AI systems, decision-making draws upon explicit computational representations of individual values (groundings) and their aggregation into value systems. As these are notoriously difficult to elicit and calibrate manually, value learning approaches aim to automatically derive computational models of an agent's values and value system from demonstrations of human behaviour. Nonetheless, social science and humanities literature suggest that it is more adequate to conceive the value system of a society as a set of value systems of different groups, rather than as the simple aggregation of individual value systems. Accordingly, here we formalize the problem of learning the value systems of societies and propose a method to address it based on heuristic deep clustering. The method learns socially shared value groundings and a set of diverse value systems representing a given society by observing qualitative value-based preferences from a sample of agents. We evaluate the proposal in a use case with real data about travelling decisions.
- Abstract(参考訳): 人間の価値観とさまざまな利害関係者(その価値システム)の価値観に基づく嗜好を持つAIシステムを調整することは、倫理的AIにおいて重要である。
価値認識型AIシステムでは、意思決定は個々の値(グラウンド)とそのアグリゲーションの明示的な計算表現に基づいて行われる。
これらは手動で引き起こし、校正することが難しいことで悪名高いため、バリューラーニングアプローチは、エージェントの値とバリューシステムの計算モデルを自動的に、人間の振る舞いのデモンストレーションから導き出すことを目的としている。
それでも、社会科学と人文科学の文献は、個々の価値体系の単純な集合としてではなく、異なるグループの価値体系の集合として社会の価値体系を考えるのが適切であることを示唆している。
そこで,本稿では,社会の価値体系を学習する問題を形式化し,ヒューリスティックな深層クラスタリングに基づく手法を提案する。
エージェントのサンプルから質的価値に基づく嗜好を観察することにより、社会的に共有された価値基盤と、所定の社会を表す多様な価値体系の集合を学習する。
本研究は,旅行決定に関する実データを用いて,この提案を事例として評価する。
関連論文リスト
- ValueCompass: A Framework for Measuring Contextual Value Alignment Between Human and LLMs [14.621675648356236]
本稿では,心理学的理論と体系的レビューに基づく基本的価値の枠組みであるバリューを紹介する。
実世界の4つのシナリオにまたがって、人間と大規模言語モデル(LLM)の価値アライメントを測定するためにバリューを適用します。
論文 参考訳(メタデータ) (2024-09-15T02:13:03Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Evaluating the Social Impact of Generative AI Systems in Systems and Society [43.32010533676472]
テキスト(コードを含む)、画像、オーディオ、ビデオなどを含むモダリティにまたがる生成AIシステムは、幅広い社会的影響を持つ。
これらの影響を評価するための公式な基準や、どの影響を評価するべきかの基準はありません。
本稿では,任意のモダリティに対して基本生成型AIシステムを評価するための,標準的なアプローチに向けたガイドを提案する。
論文 参考訳(メタデータ) (2023-06-09T15:05:13Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。