論文の概要: Towards Artificial Virtuous Agents: Games, Dilemmas and Machine Learning
- arxiv url: http://arxiv.org/abs/2208.14037v1
- Date: Tue, 30 Aug 2022 07:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:04:30.211779
- Title: Towards Artificial Virtuous Agents: Games, Dilemmas and Machine Learning
- Title(参考訳): 人工硝子体エージェントを目指して:ゲーム、ジレンマ、機械学習
- Authors: Ajay Vishwanath, Einar Duenger B{\o}hn, Ole-Christoffer Granmo, Charl
Maree and Christian Omlin
- Abstract要約: ロールプレイングゲームは、人工エージェント内での美徳を発達させるためにどのように設計されるかを示す。
我々は、このようなロールプレイングゲームを行う活発なエージェントの実装と、美徳な倫理的レンズによる彼らの決定の検証を動機付けている。
- 参考スコア(独自算出の注目度): 4.864819846886143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine ethics has received increasing attention over the past few years
because of the need to ensure safe and reliable artificial intelligence (AI).
The two dominantly used theories in machine ethics are deontological and
utilitarian ethics. Virtue ethics, on the other hand, has often been mentioned
as an alternative ethical theory. While this interesting approach has certain
advantages over popular ethical theories, little effort has been put into
engineering artificial virtuous agents due to challenges in their
formalization, codifiability, and the resolution of ethical dilemmas to train
virtuous agents. We propose to bridge this gap by using role-playing games
riddled with moral dilemmas. There are several such games in existence, such as
Papers, Please and Life is Strange, where the main character encounters
situations where they must choose the right course of action by giving up
something else dear to them. We draw inspiration from such games to show how a
systemic role-playing game can be designed to develop virtues within an
artificial agent. Using modern day AI techniques, such as affinity-based
reinforcement learning and explainable AI, we motivate the implementation of
virtuous agents that play such role-playing games, and the examination of their
decisions through a virtue ethical lens. The development of such agents and
environments is a first step towards practically formalizing and demonstrating
the value of virtue ethics in the development of ethical agents.
- Abstract(参考訳): 機械倫理は、安全で信頼性の高い人工知能(AI)を確保する必要性から、ここ数年で注目を集めている。
機械倫理における2つの主要な理論は非オントロジーと実用倫理である。
一方、ヴィチュア倫理は代替倫理理論としてしばしば言及されている。
この興味深いアプローチは、一般的な倫理理論よりもある程度の利点があるが、その形式化、共生性、および倫理的なジレンマの解決の困難から、人工的な有意なエージェントをエンジニアリングすることにはほとんど努力が払われていない。
モラルジレンマを備えたロールプレイングゲームを用いて,このギャップを埋めることを提案する。
紙、お願い、人生など、いくつかのゲームが存在するが、主人公は、自分にとって大切なものを諦めて正しい行動を選択しなければならない状況に遭遇する。
このようなゲームからインスピレーションを得て、システム的なロールプレイングゲームが、人工エージェント内で美徳を育むためにどのように設計できるかを示す。
親和性に基づく強化学習や説明可能なAIといった現代のAI技術を用いて、このようなロールプレイングゲームをする活発なエージェントの実装を動機付け、美徳な倫理的なレンズを通してそれらの決定を検証します。
このようなエージェントと環境の開発は、倫理的エージェントの開発における美徳倫理の価値を実践的に形式化し実証するための第一歩である。
関連論文リスト
- If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - The Ethics of AI in Games [4.691076280925923]
ビデオゲームは、人間とコンピュータの相互作用の最も豊かで最も人気のある形態の1つである。
人工知能(AI)ツールがゲーム業界に徐々に採用されるにつれて、一連の倫理的懸念が生じる。
本稿では,今日のゲームと未来の仮想空間に対するオープンな対話とアクションを求める。
論文 参考訳(メタデータ) (2023-05-12T11:41:05Z) - Artificial virtuous agents in a multiagent tragedy of the commons [0.0]
本稿では, 道徳シミュレーションにおける人工暴力剤(AVA)の初回実装について述べる。
結果は,AVAが協調問題に対処し,理論上の相反する中核的な特徴を示しながらどのように学習するかを示す。
論文 参考訳(メタデータ) (2022-10-06T09:12:41Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。