論文の概要: Identifying human values from goal models: An industrial case study
- arxiv url: http://arxiv.org/abs/2305.16741v1
- Date: Fri, 26 May 2023 08:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 05:25:32.964172
- Title: Identifying human values from goal models: An industrial case study
- Title(参考訳): 目標モデルから人間の価値を特定する:工業事例研究
- Authors: Tahira Iqbal, Kuldar Taveter, Tarmo Strenze, Waqar Hussain, Omar
Haggag, John Alphonsus Matthews, Anu Piirisild
- Abstract要約: 要件エンジニアリングにおける人的価値の無視は、ソフトウェアの取り込みと継続的な使用に負の影響をもたらす。
我々の研究は、感情目標と様々な利害関係者の役割を結びつけ、人間の価値のシュワルツ理論に基づいてそれらの価値を特定することによって、要求工学における先行研究を拡張した。
- 参考スコア(独自算出の注目度): 1.9634511545082014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human values are principles that guide human actions and behaviour in
personal and social life. Ignoring human values during requirements engineering
introduces a negative impact on software uptake and continued use. Embedding
human values into software is admittedly challenging; however, early
elicitation of stakeholder values increases the chances of their inclusion into
the developed system. Using Pharaon, a research and innovation project of the
European Union's Horizon 2020 program, as a case study we analysed stakeholder
requirements expressed as motivational goal models consisting of functional,
quality, and emotional goals in three large-scale trial applications of the
project. We were able to elicit 9 of 10 human values according to the theory of
human values by Schwartz from the motivational goal models that represent the
requirements for the three applications. Our findings highlight the dominant
trend of stakeholder values being embedded in emotional goals and show that
almost 45% of the identified values belong to the value categories of Security
and Self-direction. Our research extends prior work in emotional goal modelling
in requirements engineering by linking emotional goals to various stakeholder
roles and identifying their values based on the Schwartz theory of human values
- Abstract(参考訳): 人間の価値観は、個人や社会生活における人間の行動や行動を導く原則である。
要件エンジニアリングにおける人的価値の無視は、ソフトウェアの取り込みと継続的な使用に負の影響をもたらす。
ソフトウェアに人的価値を埋め込むことは明らかに難しいが、ステークホルダーの価値を早期に引き出すことは、開発システムにその価値を組み込む可能性を高める。
欧州連合(eu)のhorizon 2020プログラムの研究開発プロジェクトであるpharaonを用いて、プロジェクトの3つの大規模トライアルアプリケーションにおいて、機能的、品質的、感情的目標からなるモチベーション目標モデルとして表現されるステークホルダー要求を分析した。
Schwartz氏による人的価値の理論に従って,3つのアプリケーションの要件を表すモチベーション目標モデルから,10の人的価値のうち9を抽出することができた。
以上の結果から,主観的目標にステークホルダーの価値が組み込まれている傾向が顕著となり,その45%がセキュリティと自己指向の価値観カテゴリに属することが明らかとなった。
本研究は,要求工学における感情目標モデリングにおける先行研究を拡張し,感情目標と様々な利害関係者の役割を結びつけ,人間価値のシュワルツ理論に基づいてそれらの価値を同定する。
関連論文リスト
- ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Goals as Reward-Producing Programs [10.264374079059719]
我々は、スコーラブルでシングルプレイヤーゲームという形で、人間の生成目標のデータセットを収集します。
プログラム合成により,新たな人間的目標を創出する。
我々のモデルの内部のフィットネススコアは、プレイしやすく、人間らしく評価されたゲームを予測する。
論文 参考訳(メタデータ) (2024-05-21T23:09:12Z) - Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches [69.73783026870998]
本研究では,大言語モデルの固有値システムをスクラッチから再構築する新しいフレームワークであるValueLexを提案する。
語彙仮説に基づいて、ValueLexは30以上のLLMから様々な値を引き出すための生成的アプローチを導入している。
我々は,3つのコア値次元,能力,キャラクタ,積分をそれぞれ特定の部分次元で同定し,LLMが非人間的だが構造化された価値体系を持っていることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T09:44:51Z) - Modelling Human Values for AI Reasoning [2.320648715016106]
我々は,その明示的な計算表現のために,人間の値の形式モデルを詳述する。
我々は、このモデルが、価値に対するAIベースの推論の基礎となる装置をいかに提供できるかを示す。
我々は、AIにおける人間の価値を統合し、学際的に研究するためのロードマップを提案する。
論文 参考訳(メタデータ) (2024-02-09T12:08:49Z) - From Instructions to Intrinsic Human Values -- A Survey of Alignment
Goals for Big Models [48.326660953180145]
既存の作業におけるさまざまなアライメント目標の調査を行い、その進化経路を辿り、最も重要な目標を特定するのに役立ちます。
分析の結果,基本能力から価値指向への目標転換が明らかとなり,拡張LDMのアライメント目標として本質的な人的価値の可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-23T09:11:13Z) - CValues: Measuring the Values of Chinese Large Language Models from
Safety to Responsibility [62.74405775089802]
LLMのアライメント能力を測定するために,中国初の人的価値評価ベンチマークであるCValuesを提案する。
その結果、我々は10のシナリオにまたがる敵の安全プロンプトを手作業で収集し、8つのドメインから責任プロンプトを誘導した。
以上の結果から,ほとんどの中国のLLMは安全面では良好に機能するが,責任面では十分な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2023-07-19T01:22:40Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - A computational framework of human values for ethical AI [3.5027291542274357]
価値は倫理的AIを設計する手段を提供する。
値の形式的、計算的な定義はまだ提案されていない。
我々はこれを、社会科学に根ざした形式的な概念的枠組みを通じて解決する。
論文 参考訳(メタデータ) (2023-05-04T11:35:41Z) - Reflexive Design for Fairness and Other Human Values in Formal Models [2.8935588665357077]
公平さなどの人的価値を取り入れたアルゴリズムやその他の形式モデルは、コンピュータ科学でますます人気が高まっている。
人間の価値を形式モデルに適切に組み込むための4つの反射的値 - 値の忠実さ、適切な精度、値の正当性、および値の競合 - を開発する。
論文 参考訳(メタデータ) (2020-10-10T20:04:24Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。