論文の概要: Reinforcement Learning and Machine ethics:a systematic review
- arxiv url: http://arxiv.org/abs/2407.02425v1
- Date: Tue, 2 Jul 2024 16:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:36:57.124104
- Title: Reinforcement Learning and Machine ethics:a systematic review
- Title(参考訳): 強化学習と機械倫理:体系的レビュー
- Authors: Ajay Vishwanath, Louise A. Dennis, Marija Slavkovik,
- Abstract要約: 本稿では,強化学習における機械倫理と機械倫理のための強化学習の体系的レビューを行う。
我々は、倫理的行動をもたらすために使用される倫理的仕様、強化学習の構成要素と枠組み、環境の傾向を強調した。
本研究の体系的レビューは,機械倫理学と強化学習の融合をめざして,機械倫理の状況のギャップを埋めることを目的としている。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine ethics is the field that studies how ethical behaviour can be accomplished by autonomous systems. While there exist some systematic reviews aiming to consolidate the state of the art in machine ethics prior to 2020, these tend to not include work that uses reinforcement learning agents as entities whose ethical behaviour is to be achieved. The reason for this is that only in the last years we have witnessed an increase in machine ethics studies within reinforcement learning. We present here a systematic review of reinforcement learning for machine ethics and machine ethics within reinforcement learning. Additionally, we highlight trends in terms of ethics specifications, components and frameworks of reinforcement learning, and environments used to result in ethical behaviour. Our systematic review aims to consolidate the work in machine ethics and reinforcement learning thus completing the gap in the state of the art machine ethics landscape
- Abstract(参考訳): 機械倫理は、自律システムによって倫理的行動がどのように達成されるかを研究する分野である。
2020年以前には、機械倫理の最先端化を目指す体系的なレビューがいくつかあるが、これらには、倫理的行動が達成されるエンティティとして強化学習エージェントを使用する作業が含まれない傾向にある。
その理由は、ここ数年で強化学習における機械倫理研究が増加しているのを目撃しただけである。
本稿では,強化学習における機械倫理と機械倫理のための強化学習の体系的なレビューを紹介する。
さらに、倫理規定、強化学習の構成要素と枠組み、倫理行動の結果として使われる環境の傾向を強調した。
我々の体系的レビューは、機械倫理と強化学習の取り組みを強化し、最先端の機械倫理の展望のギャップを埋めることを目的としている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Why we need biased AI -- How including cognitive and ethical machine
biases can enhance AI systems [0.0]
学習アルゴリズムにおける人間の認知バイアスの構造的実装について論じる。
倫理的マシン動作を達成するには、フィルタ機構を適用する必要がある。
本論文は、機械バイアスの倫理的重要性を再評価するアイデアを明示的に追求する最初の仮段階である。
論文 参考訳(メタデータ) (2022-03-18T12:39:35Z) - Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics [26.977005985123615]
我々は27のAI倫理ツールキットの質的分析を行い、倫理の作業がどのように想像され、これらのツールキットによってどのように支援されるかを調べる。
私たちは、倫理の想像された仕事と、ツールキットがその仕事をするために提供するサポートのミスマッチを特定します。
論文 参考訳(メタデータ) (2022-02-17T17:55:26Z) - Can Machine Learning be Moral? [5.911540700785974]
複数の社会的文脈における機械学習システムの展開は、これらのシステムの設計、開発、応用に関するより深い倫理的な精査をもたらした。
多くの議論を悩ませている重要な問題は、倫理的に説明可能な機械学習システムを構成するものなのだ。
我々の根本的提案は、教師あり学習が倫理的に保護可能な唯一の機械学習手法であるように見えることである。
論文 参考訳(メタデータ) (2021-12-13T07:20:50Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。