論文の概要: The Value of Gen-AI Conversations: A bottom-up Framework for AI Value Alignment
- arxiv url: http://arxiv.org/abs/2507.21091v1
- Date: Thu, 26 Jun 2025 12:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.852218
- Title: The Value of Gen-AI Conversations: A bottom-up Framework for AI Value Alignment
- Title(参考訳): Gen-AI会話の価値 - AIバリューアライメントのためのボトムアップフレームワーク
- Authors: Lenart Motnikar, Katharina Baum, Alexander Kagan, Sarah Spiekermann-Hoff,
- Abstract要約: 倫理的IT設計のためのISOバリューベースエンジニアリング標準の価値を利用して、価値アライメントのための新しいボトムアップアプローチを提案する。
ヨーロッパの主要雇用者CAの会話ログ16,908件から,倫理的に敏感なシステムアウトプット593件を分析した。
その結果、9つのコア値と32の異なる値の不一致がユーザに与える影響が判明した。
- 参考スコア(独自算出の注目度): 42.37986459997699
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Conversational agents (CAs) based on generative artificial intelligence frequently face challenges ensuring ethical interactions that align with human values. Current value alignment efforts largely rely on top-down approaches, such as technical guidelines or legal value principles. However, these methods tend to be disconnected from the specific contexts in which CAs operate, potentially leading to misalignment with users interests. To address this challenge, we propose a novel, bottom-up approach to value alignment, utilizing the value ontology of the ISO Value-Based Engineering standard for ethical IT design. We analyse 593 ethically sensitive system outputs identified from 16,908 conversational logs of a major European employment service CA to identify core values and instances of value misalignment within real-world interactions. The results revealed nine core values and 32 different value misalignments that negatively impacted users. Our findings provide actionable insights for CA providers seeking to address ethical challenges and achieve more context-sensitive value alignment.
- Abstract(参考訳): 生成的人工知能に基づく会話エージェント(CA)は、人間の価値観に合わせた倫理的相互作用を保証するためにしばしば課題に直面している。
現在のバリューアライメントの取り組みは、技術的なガイドラインや法的価値原則といったトップダウンアプローチに大きく依存しています。
しかし、これらの手法は、CAが運用する特定のコンテキストから切り離されがちであり、ユーザの関心事との相違につながる可能性がある。
この課題に対処するために、倫理的IT設計のためのISOバリューベースエンジニアリング標準のバリューオントロジーを利用する、新しいボトムアップアプローチを提案する。
我々は、ヨーロッパの主要雇用者CAの16,908の会話ログから同定された倫理的に敏感なシステムアウトプット593を分析し、現実世界の相互作用における中核的価値と価値の不一致の事例を特定する。
その結果、9つのコア値と32の異なる値の不一致がユーザに与える影響が判明した。
本研究は、倫理的課題に対処し、より文脈に敏感な価値アライメントの実現を目指すCAプロバイダに対して、実用的な洞察を提供する。
関連論文リスト
- LLM Ethics Benchmark: A Three-Dimensional Assessment System for Evaluating Moral Reasoning in Large Language Models [8.018569128518187]
本研究では,大規模言語モデル(LLM)の道徳的推論能力を体系的に評価するための新しい枠組みを確立する。
我々の枠組みは、3次元を通して人間の倫理基準との整合性を定量化することでこの問題に対処する。
このアプローチは、LLMの倫理的強みと弱みを正確に識別し、目標とする改善と社会的価値との整合性を高める。
論文 参考訳(メタデータ) (2025-05-01T20:36:19Z) - ValueCompass: A Framework for Measuring Contextual Value Alignment Between Human and LLMs [14.621675648356236]
本稿では,心理学的理論と体系的レビューに基づく基本的価値の枠組みであるバリューを紹介する。
実世界の4つのシナリオにまたがって、人間と大規模言語モデル(LLM)の価値アライメントを測定するためにバリューを適用します。
論文 参考訳(メタデータ) (2024-09-15T02:13:03Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - The Challenge of Value Alignment: from Fairer Algorithms to AI Safety [2.28438857884398]
本稿では,AIシステムを人的価値と整合させる方法について論じる。
それは、技術と価値に関するより広い考え方の体系の中に収まる。
論文 参考訳(メタデータ) (2021-01-15T11:03:15Z) - Steps Towards Value-Aligned Systems [0.0]
AI/MLを含む)アルゴリズムによる意思決定アーティファクトは、私たちの意思決定エコシステムの確立され成長している部分です。
現在の文献は、個々のアーティファクトが社会的規範や期待にどのように違反するかの例でいっぱいです。
この議論は、社会技術システムにおける価値アライメントを評価するためのより構造化されたシステムレベルのアプローチを論じている。
論文 参考訳(メタデータ) (2020-02-10T22:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。