論文の概要: Rethinking How AI Embeds and Adapts to Human Values: Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2508.17104v1
- Date: Sat, 23 Aug 2025 18:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.343141
- Title: Rethinking How AI Embeds and Adapts to Human Values: Challenges and Opportunities
- Title(参考訳): AIの人間の価値への埋め込みと適応を再考する - 課題と機会
- Authors: Sz-Ting Tzeng, Frank Dignum,
- Abstract要約: AIシステムは長期的な推論を実装し、進化する価値に適応し続けなければならない、と私たちは主張する。
価値アライメントは、人間の価値の完全なスペクトルに対処するためにより多くの理論を必要とする。
我々は、価値アライメントに関連する課題を特定し、価値アライメント研究を進めるための方向性を示す。
- 参考スコア(独自算出の注目度): 0.6113558800822273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concepts of ``human-centered AI'' and ``value-based decision'' have gained significant attention in both research and industry. However, many critical aspects remain underexplored and require further investigation. In particular, there is a need to understand how systems incorporate human values, how humans can identify these values within systems, and how to minimize the risks of harm or unintended consequences. In this paper, we highlight the need to rethink how we frame value alignment and assert that value alignment should move beyond static and singular conceptions of values. We argue that AI systems should implement long-term reasoning and remain adaptable to evolving values. Furthermore, value alignment requires more theories to address the full spectrum of human values. Since values often vary among individuals or groups, multi-agent systems provide the right framework for navigating pluralism, conflict, and inter-agent reasoning about values. We identify the challenges associated with value alignment and indicate directions for advancing value alignment research. In addition, we broadly discuss diverse perspectives of value alignment, from design methodologies to practical applications.
- Abstract(参考訳): 「人間中心型AI」と「価値に基づく意思決定」の概念は、研究と産業の両方で大きな注目を集めている。
しかし、多くの重要な側面は未調査のままであり、さらなる調査が必要である。
特に、システムがどのように人間の価値を組み込むか、人間がシステム内でこれらの価値を識別する方法、害や意図しない結果のリスクを最小限にする方法を理解する必要がある。
本稿では、値をアライメントする方法を再考する必要性を強調し、値アライメントは、値の静的かつ特異な概念を超えて進むべきであると主張する。
AIシステムは長期的な推論を実装し、進化する価値に適応し続けなければならない、と私たちは主張する。
さらに、価値アライメントは人間の価値の完全なスペクトルに対処するためにより多くの理論を必要とする。
値はしばしば個人やグループによって異なるため、マルチエージェントシステムは、値についての多元主義、対立、およびエージェント間推論をナビゲートするための適切な枠組みを提供する。
我々は、価値アライメントに関連する課題を特定し、価値アライメント研究を進めるための方向性を示す。
さらに,設計手法から実用化まで,多種多様な価値アライメントの視点について論じる。
関連論文リスト
- ValueCompass: A Framework for Measuring Contextual Value Alignment Between Human and LLMs [14.621675648356236]
本稿では,心理学的理論と体系的レビューに基づく基本的価値の枠組みであるバリューを紹介する。
実世界の4つのシナリオにまたがって、人間と大規模言語モデル(LLM)の価値アライメントを測定するためにバリューを適用します。
論文 参考訳(メタデータ) (2024-09-15T02:13:03Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。