論文の概要: Machine Ethics: The Creation of a Virtuous Machine
- arxiv url: http://arxiv.org/abs/2002.00213v2
- Date: Fri, 7 Feb 2020 19:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 00:37:48.799309
- Title: Machine Ethics: The Creation of a Virtuous Machine
- Title(参考訳): 機械倫理 : 活気ある機械の創造
- Authors: Mohamed Akrout, Robert Steinbauer
- Abstract要約: AIの進歩は止められず、開発者は、明示的な道徳的エージェントを維持し、複雑で道徳的に健全な環境で倫理的なジレンマに直面するようにAIを準備しなければなりません。
- 参考スコア(独自算出の注目度): 2.944323057176685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) was initially developed as an implicit moral
agent to solve simple and clearly defined tasks where all options are
predictable. However, it is now part of our daily life powering cell phones,
cameras, watches, thermostats, vacuums, cars, and much more. This has raised
numerous concerns and some scholars and practitioners stress the dangers of AI
and argue against its development as moral agents that can reason about ethics
(e.g., Bryson 2008; Johnson and Miller 2008; Sharkey 2017; Tonkens 2009; van
Wynsberghe and Robbins 2019). Even though we acknowledge the potential threat,
in line with most other scholars (e.g., Anderson and Anderson 2010; Moor 2006;
Scheutz 2016; Wallach 2010), we argue that AI advancements cannot be stopped
and developers need to prepare AI to sustain explicit moral agents and face
ethical dilemmas in complex and morally salient environments.
- Abstract(参考訳): 人工知能(AI)は当初、すべての選択肢が予測可能な単純で明確なタスクを解決するために暗黙の道徳的エージェントとして開発された。
しかし今では、携帯電話、カメラ、時計、サーモスタット、掃除機、車など、私たちの日常生活の一部になっている。
これは多くの懸念を呼び起こし、一部の学者や実践家はAIの危険性を強調し、倫理を推論できる道徳的エージェントとしての発展に反対している(例えば、Bryson 2008、Johnson and Miller 2008、Sharkey 2017、Tonkens 2009、van Wynsberghe、Robins 2019)。
他の多くの学者(例えば、anderson and anderson 2010、moor 2006、scheutz 2016、wallach 2010)と同様、私たちはaiの進歩は止められず、開発者は明示的な道徳的エージェントを維持し、複雑で道徳的に有能な環境で倫理的なジレンマに直面するためにaiを準備する必要があると主張している。
関連論文リスト
- Can Artificial Intelligence Embody Moral Values? [0.0]
中立論では テクノロジーは価値に恵まれない
本稿では,人工知能,特に自律的に目標を追求する決定を下す人工知能が中立論に挑むことを論じる。
我々の中心的な主張は、人工エージェントの根底にある計算モデルが、公正さ、正直さ、害を避けるといった道徳的価値の表現を統合することができるということである。
論文 参考訳(メタデータ) (2024-08-22T09:39:16Z) - Why should we ever automate moral decision making? [30.428729272730727]
AIが重大な道徳的意味を持つ決定に関与している場合、懸念が生じる。
道徳的推論は広く受け入れられている枠組みを欠いている。
もう一つのアプローチは、人間の道徳的決定からAIを学ぶことである。
論文 参考訳(メタデータ) (2024-07-10T13:59:22Z) - A Bibliometric View of AI Ethics Development [4.0998481751764]
我々は過去20年間,キーワード検索に基づくAI倫理文献の文献分析を行った。
AI倫理の次のフェーズは、AIが人間とマッチしたり、知的に超越したりするにつれて、AIをより機械的に近いものにすることに集中する可能性が高いと推測する。
論文 参考訳(メタデータ) (2024-02-08T16:36:55Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Good AI for the Present of Humanity Democratizing AI Governance [0.0]
AI倫理とサイバーパンク文学の類似点は、どちらも将来の社会的および倫理的問題を探求することである。
この記事では、よりサイバーパンク的なAI倫理の方法、より民主的なガバナンスの方法を提唱したい。
論文 参考訳(メタデータ) (2020-07-08T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。