論文の概要: Moral Dilemmas for Moral Machines
- arxiv url: http://arxiv.org/abs/2203.06152v1
- Date: Fri, 11 Mar 2022 18:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:54:02.890119
- Title: Moral Dilemmas for Moral Machines
- Title(参考訳): モラルマシンのモラルジレンマ
- Authors: Travis LaCroix
- Abstract要約: これは、道徳的ジレンマの目的を理解できないため、哲学的思考実験の誤用であると私は主張する。
機械倫理における道徳的ジレンマの利用は適切であり、機械学習の文脈で生じる新しい状況は、倫理における哲学的作業にいくらかの光を当てることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems are being developed and deployed in situations that may
require some degree of ethical decision-making ability. As a result, research
in machine ethics has proliferated in recent years. This work has included
using moral dilemmas as validation mechanisms for implementing decision-making
algorithms in ethically-loaded situations. Using trolley-style problems in the
context of autonomous vehicles as a case study, I argue (1) that this is a
misapplication of philosophical thought experiments because (2) it fails to
appreciate the purpose of moral dilemmas, and (3) this has potentially
catastrophic consequences; however, (4) there are uses of moral dilemmas in
machine ethics that are appropriate and the novel situations that arise in a
machine-learning context can shed some light on philosophical work in ethics.
- Abstract(参考訳): 自律システムは、ある程度の倫理的意思決定能力を必要とする状況で開発され、展開されている。
その結果,近年,機械倫理の研究が盛んに行われている。
この研究は、倫理的に負荷のかかる状況において意思決定アルゴリズムを実装するための検証メカニズムとして道徳的ジレンマの使用を含む。
自動車の文脈におけるトロリー的な問題を事例研究として,(1)哲学的思考実験の誤用は,(2)道徳的ジレンマの目的を理解できないこと,(3)破滅的な結果をもたらす可能性があること,(3)機械倫理における道徳的ジレンマの活用が適切であり,また,機械学習の文脈で生じる新たな状況が,倫理学における哲学的作業にいくらかの光を当てることができることを論じる。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations [14.120888473204907]
コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
論文 参考訳(メタデータ) (2023-02-28T05:39:17Z) - On the Computational Complexity of Ethics: Moral Tractability for Minds
and Machines [0.0]
倫理領域の問題を解決するために人工知能(AI)が使えるかどうかについての議論は、主に人間の能力の観点からAIができることとできないことによって進められてきた。
本稿では,計算システムにできることやできないことに基づいて,どのようなモラルマシンが可能であるかを検討する。
論文 参考訳(メタデータ) (2023-02-08T17:39:58Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Automated Kantian Ethics: A Faithful Implementation [0.0]
私は、カント哲学の伝統に忠実な自動カント倫理の実装を提示します。
私は、Dyadic Deontic Logic におけるカントの圏論的命令を形式化し、イザベルの定理証明器でこの形式化を実装し、私の実装がカント倫理の期待された性質とどのように協調するかを評価するためのテストフレームワークを開発する。
私のシステムは、哲学的に成熟した倫理的AIエージェントへの初期のステップであり、哲学文学に根ざしているため、複雑な倫理的ジレンマにおいてニュアンスな判断を下すことができる。
論文 参考訳(メタデータ) (2022-07-20T19:09:15Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。