論文の概要: Artificial virtuous agents in a multiagent tragedy of the commons
- arxiv url: http://arxiv.org/abs/2210.02769v1
- Date: Thu, 6 Oct 2022 09:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:35:55.343231
- Title: Artificial virtuous agents in a multiagent tragedy of the commons
- Title(参考訳): コモンズのマルチエージェント悲劇における人工内在性物質
- Authors: Jakob Stenseke
- Abstract要約: 本稿では, 道徳シミュレーションにおける人工暴力剤(AVA)の初回実装について述べる。
結果は,AVAが協調問題に対処し,理論上の相反する中核的な特徴を示しながらどのように学習するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although virtue ethics has repeatedly been proposed as a suitable framework
for the development of artificial moral agents (AMAs), it has been proven
difficult to approach from a computational perspective. In this work, we
present the first technical implementation of artificial virtuous agents (AVAs)
in moral simulations. First, we review previous conceptual and technical work
in artificial virtue ethics and describe a functionalistic path to AVAs based
on dispositional virtues, bottom-up learning, and top-down eudaimonic reward.
We then provide the details of a technical implementation in a moral simulation
based on a tragedy of the commons scenario. The experimental results show how
the AVAs learn to tackle cooperation problems while exhibiting core features of
their theoretical counterpart, including moral character, dispositional
virtues, learning from experience, and the pursuit of eudaimonia. Ultimately,
we argue that virtue ethics provides a compelling path toward morally excellent
machines and that our work provides an important starting point for such
endeavors.
- Abstract(参考訳): 美徳倫理は, 人工道徳エージェント(AMA)の開発に適した枠組みとして何度も提案されてきたが, 計算的観点からのアプローチは困難であることが証明されている。
本稿では, モラルシミュレーションにおいて, 人工視覚エージェント (avas) の技術的実装を初めて紹介する。
まず, 人工美徳倫理における従来の概念的, 技術的研究を概観し, 転置的美徳, ボトムアップ学習, トップダウン的報酬に基づくAVAへの機能的パスについて述べる。
次に、コモンズシナリオの悲劇に基づいたモラルシミュレーションにおいて、技術的な実装の詳細を提供する。
実験の結果, avasは, モラル特性, 態度美徳, 経験からの学習, エウダイモニアの追求など, 理論的な特徴を提示しながら, 協力的課題にどのように取り組むかを示した。
究極的には、美徳倫理は道徳的に優れた機械への魅力的な道を与え、我々の仕事はそのような努力にとって重要な出発点となる。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Towards Artificial Virtuous Agents: Games, Dilemmas and Machine Learning [4.864819846886143]
ロールプレイングゲームは、人工エージェント内での美徳を発達させるためにどのように設計されるかを示す。
我々は、このようなロールプレイングゲームを行う活発なエージェントの実装と、美徳な倫理的レンズによる彼らの決定の検証を動機付けている。
論文 参考訳(メタデータ) (2022-08-30T07:37:03Z) - Contextualizing Artificially Intelligent Morality: A Meta-Ethnography of
Top-Down, Bottom-Up, and Hybrid Models for Theoretical and Applied Ethics in
Artificial Intelligence [0.0]
このメタエスノグラフィーでは、倫理的人工知能(AI)設計の3つの異なる角度を探索する。
この枠組みへの新たな貢献は、企業や政府によって決定され、政策または法(トップから来る)によって課されるAIの倫理を構成する政治的アングルである。
ボトムアップの応用技術アプローチとAI倫理原則を実践的なトップダウンアプローチとして示すものとして、強化学習に焦点が当てられている。
論文 参考訳(メタデータ) (2022-04-15T18:47:49Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Designing a Future Worth Wanting: Applying Virtue Ethics to HCI [11.117357750374035]
倫理に関する3つの主要なアプローチのうち、美徳倫理はデジタル時代の道徳的ガイドとして一意に適している。
それは(デオントロジーのような)規則や結果(連続主義)よりもむしろ、道徳的エージェントの特質、状況、行動に焦点を当てている。
論文 参考訳(メタデータ) (2022-04-05T14:18:35Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。