論文の概要: Understanding the Process of Human-AI Value Alignment
- arxiv url: http://arxiv.org/abs/2509.13854v1
- Date: Wed, 17 Sep 2025 09:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.804076
- Title: Understanding the Process of Human-AI Value Alignment
- Title(参考訳): 人間-AI価値アライメントのプロセスを理解する
- Authors: Jack McKinlay, Marina De Vos, Janina A. Hoffmann, Andreas Theodorou,
- Abstract要約: 計算機科学研究における価値アライメントは、人工知能を人間と整合させる過程を指すことが多いが、そのフレーズの使い方は正確性に欠けることが多い。
我々は、人工知能における価値アライメントの理解を促進するために、体系的な文献レビューを行う。
- 参考スコア(独自算出の注目度): 1.6799377888527687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Value alignment in computer science research is often used to refer to the process of aligning artificial intelligence with humans, but the way the phrase is used often lacks precision. Objectives: In this paper, we conduct a systematic literature review to advance the understanding of value alignment in artificial intelligence by characterising the topic in the context of its research literature. We use this to suggest a more precise definition of the term. Methods: We analyse 172 value alignment research articles that have been published in recent years and synthesise their content using thematic analyses. Results: Our analysis leads to six themes: value alignment drivers & approaches; challenges in value alignment; values in value alignment; cognitive processes in humans and AI; human-agent teaming; and designing and developing value-aligned systems. Conclusions: By analysing these themes in the context of the literature we define value alignment as an ongoing process between humans and autonomous agents that aims to express and implement abstract values in diverse contexts, while managing the cognitive limits of both humans and AI agents and also balancing the conflicting ethical and political demands generated by the values in different groups. Our analysis gives rise to a set of research challenges and opportunities in the field of value alignment for future work.
- Abstract(参考訳): 背景:コンピュータサイエンス研究における価値アライメントは、人工知能を人間と整合させる過程を指すことが多いが、このフレーズの使い方は正確性に欠けることが多い。
目的:本稿では,研究文献の文脈でトピックを特徴付けることによって,人工知能における価値アライメントの理解を促進するために,体系的な文献レビューを行う。
これを使って、この用語のより正確な定義を提案する。
方法:近年刊行されている172のアライメント研究論文を分析し,テーマ分析を用いてその内容を合成する。
結果:我々の分析は、価値アライメントドライバとアプローチ、価値アライメントにおける課題、価値アライメントにおける価値、人間とAIの認知プロセス、人間とエージェントのチーム化、価値アライメントシステムの設計と開発という6つのテーマに導かれる。
結論: これらのテーマを文献の文脈で分析することにより、我々は価値アライメントを、人間とAIエージェントの両方の認知的限界を管理しつつ、異なるグループの価値観が生み出す矛盾する倫理的・政治的要求のバランスを保ちながら、さまざまな文脈で抽象的価値を表現および実装することを目的とした、人間と自律的エージェントの継続的なプロセスとして定義する。
我々の分析は、将来の仕事における価値アライメントの分野における一連の研究課題と機会を生み出します。
関連論文リスト
- Rethinking How AI Embeds and Adapts to Human Values: Challenges and Opportunities [0.6113558800822273]
AIシステムは長期的な推論を実装し、進化する価値に適応し続けなければならない、と私たちは主張する。
価値アライメントは、人間の価値の完全なスペクトルに対処するためにより多くの理論を必要とする。
我々は、価値アライメントに関連する課題を特定し、価値アライメント研究を進めるための方向性を示す。
論文 参考訳(メタデータ) (2025-08-23T18:19:05Z) - ValueCompass: A Framework for Measuring Contextual Value Alignment Between Human and LLMs [14.621675648356236]
本稿では,心理学的理論と体系的レビューに基づく基本的価値の枠組みであるバリューを紹介する。
実世界の4つのシナリオにまたがって、人間と大規模言語モデル(LLM)の価値アライメントを測定するためにバリューを適用します。
論文 参考訳(メタデータ) (2024-09-15T02:13:03Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Quantifying Misalignment Between Agents: Towards a Sociotechnical Understanding of Alignment [2.619545850602691]
最近の社会技術的アプローチは、複数の人間とAIエージェント間の複雑なミスアライメントを理解する必要性を強調している。
我々は、人間の競合の計算社会科学モデルをアライメント問題に適用する。
我々のモデルは、潜在的に矛盾する目標を持つ多種多様なエージェントグループにおけるミスアライメントを定量化する。
論文 参考訳(メタデータ) (2024-06-06T16:31:22Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。