論文の概要: Value-Aware Multiagent Systems
- arxiv url: http://arxiv.org/abs/2512.12652v1
- Date: Sun, 14 Dec 2025 11:53:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.364748
- Title: Value-Aware Multiagent Systems
- Title(参考訳): 価値を考慮したマルチエージェントシステム
- Authors: Nardine Osman,
- Abstract要約: バリューアウェアネスの定義は、エンジニアリングのバリューアウェアAIのための簡潔でシンプルなロードマップを提供してくれます。
ロードマップは,(1)形式的意味論を用いた人間の価値の学習と表現,(2)個々のエージェントとマルチエージェントシステムの価値アライメントの確保,(3)行動に対する価値に基づく説明性の提供の3つの柱を中心に構成されている。
- 参考スコア(独自算出の注目度): 2.497598179536085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces the concept of value awareness in AI, which goes beyond the traditional value-alignment problem. Our definition of value awareness presents us with a concise and simplified roadmap for engineering value-aware AI. The roadmap is structured around three core pillars: (1) learning and representing human values using formal semantics, (2) ensuring the value alignment of both individual agents and multiagent systems, and (3) providing value-based explainability on behaviour. The paper presents a selection of our ongoing work on some of these topics, along with applications to real-life domains.
- Abstract(参考訳): 本稿では,従来のバリューアライメント問題を超えて,AIにおける価値意識の概念を紹介する。
バリューアウェアネスの定義は、エンジニアリングのバリューアウェアAIのための簡潔でシンプルなロードマップを提供してくれます。
ロードマップは,(1)形式的意味論を用いた人間の価値の学習と表現,(2)個々のエージェントとマルチエージェントシステムの価値アライメントの確保,(3)行動に対する価値に基づく説明性の提供の3つの柱を中心に構成されている。
本稿では、これらのトピックのいくつかに関する現在進行中の取り組みと、実際のドメインへの応用について述べる。
関連論文リスト
- Understanding the Process of Human-AI Value Alignment [1.6799377888527687]
計算機科学研究における価値アライメントは、人工知能を人間と整合させる過程を指すことが多いが、そのフレーズの使い方は正確性に欠けることが多い。
我々は、人工知能における価値アライメントの理解を促進するために、体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2025-09-17T09:39:38Z) - Rethinking How AI Embeds and Adapts to Human Values: Challenges and Opportunities [0.6113558800822273]
AIシステムは長期的な推論を実装し、進化する価値に適応し続けなければならない、と私たちは主張する。
価値アライメントは、人間の価値の完全なスペクトルに対処するためにより多くの理論を必要とする。
我々は、価値アライメントに関連する課題を特定し、価値アライメント研究を進めるための方向性を示す。
論文 参考訳(メタデータ) (2025-08-23T18:19:05Z) - Learning the Value Systems of Societies from Preferences [1.3836987591220347]
人間の価値観と様々な利害関係者の価値観に基づく嗜好を持つAIシステムを調整することは、倫理的AIにおいて鍵となる。
価値認識型AIシステムでは、意思決定は個々の値の明示的な計算表現に基づいて行われる。
本稿では,社会の価値体系を学習する上での課題に対処する手法を提案する。
論文 参考訳(メタデータ) (2025-07-28T11:25:55Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Human Values in Multiagent Systems [3.5027291542274357]
本稿では,社会科学における価値の形式的表現について述べる。
我々は,この形式的表現を用いて,マルチエージェントシステムにおける価値整合性を実現する上で重要な課題を明確化する。
論文 参考訳(メタデータ) (2023-05-04T11:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。