論文の概要: Why Machines Can't Be Moral: Turing's Halting Problem and the Moral Limits of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2407.16890v1
- Date: Wed, 24 Jul 2024 17:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 15:12:43.223101
- Title: Why Machines Can't Be Moral: Turing's Halting Problem and the Moral Limits of Artificial Intelligence
- Title(参考訳): 機械が道徳的ではない理由:チューリングのハルティング問題と人工知能の道徳的限界
- Authors: Massimo Passamonti,
- Abstract要約: 私は、道徳的原則がボトムアップアプローチによって推測される明示的な倫理的機械は、人間のような道徳的推論を再現できないと論じます。
アラン・チューリング(英語版)の計算理論を利用して、モラル推論が停止問題によりこれらの機械によって計算可能であることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this essay, I argue that explicit ethical machines, whose moral principles are inferred through a bottom-up approach, are unable to replicate human-like moral reasoning and cannot be considered moral agents. By utilizing Alan Turing's theory of computation, I demonstrate that moral reasoning is computationally intractable by these machines due to the halting problem. I address the frontiers of machine ethics by formalizing moral problems into 'algorithmic moral questions' and by exploring moral psychology's dual-process model. While the nature of Turing Machines theoretically allows artificial agents to engage in recursive moral reasoning, critical limitations are introduced by the halting problem, which states that it is impossible to predict with certainty whether a computational process will halt. A thought experiment involving a military drone illustrates this issue, showing that an artificial agent might fail to decide between actions due to the halting problem, which limits the agent's ability to make decisions in all instances, undermining its moral agency.
- Abstract(参考訳): このエッセイでは、道徳的原理がボトムアップ的アプローチによって推測される明示的な倫理的機械は、人間のような道徳的推論を再現することができず、道徳的エージェントと見なすことができないと論じる。
アラン・チューリング(英語版)の計算理論を利用して、モラル推論が停止問題によりこれらの機械によって計算可能であることを実証する。
私は、道徳問題を「倫理的道徳問題」に形式化し、道徳心理学の二重プロセスモデルを探究することで、機械倫理のフロンティアに対処する。
チューリングマシンの性質は理論的には、人工エージェントが再帰的な道徳的推論を行うことを可能にするが、停止問題によって致命的な制限が導入され、計算プロセスが停止するかどうかを確実に予測することは不可能である。
軍事用ドローンを含む思考実験ではこの問題が示されており、人工知能エージェントが停止問題のために行動を決定するのに失敗し、エージェントが全ての事例において決定を下す能力を制限し、士気を損なう可能性があることを示している。
関連論文リスト
- Can Artificial Intelligence Embody Moral Values? [0.0]
中立論では テクノロジーは価値に恵まれない
本稿では,人工知能,特に自律的に目標を追求する決定を下す人工知能が中立論に挑むことを論じる。
我々の中心的な主張は、人工エージェントの根底にある計算モデルが、公正さ、正直さ、害を避けるといった道徳的価値の表現を統合することができるということである。
論文 参考訳(メタデータ) (2024-08-22T09:39:16Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - On the Computational Complexity of Ethics: Moral Tractability for Minds
and Machines [0.0]
倫理領域の問題を解決するために人工知能(AI)が使えるかどうかについての議論は、主に人間の能力の観点からAIができることとできないことによって進められてきた。
本稿では,計算システムにできることやできないことに基づいて,どのようなモラルマシンが可能であるかを検討する。
論文 参考訳(メタデータ) (2023-02-08T17:39:58Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Moral Dilemmas for Moral Machines [0.0]
これは、道徳的ジレンマの目的を理解できないため、哲学的思考実験の誤用であると私は主張する。
機械倫理における道徳的ジレンマの利用は適切であり、機械学習の文脈で生じる新しい状況は、倫理における哲学的作業にいくらかの光を当てることができる。
論文 参考訳(メタデータ) (2022-03-11T18:24:39Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents [0.0]
機械に道徳性を持たせようとする試みは、我々が解釈問題と呼ぶものである。
我々は、マシンに与えるいかなるルールも、道徳的に不適切な方法で無限の解釈に開放されていると主張する。
論文 参考訳(メタデータ) (2021-03-03T22:34:01Z) - Toward equipping Artificial Moral Agents with multiple ethical theories [1.5736899098702972]
人工道徳エージェント (Artificial Moral Agents, AMA) は、コンピュータ科学の分野であり、人間の行動に類似した道徳的な決定を下す自律機械を作ることを目的としている。
研究と設計は、基礎として、いかなる特定の規範的倫理理論でも、少なくとも1つの特定の規範的倫理理論でも行われてきた。
これは、AMAの機能能力と汎用性を制限し、結果として限られた数の人々が同意する道徳的な結果を引き起こすため、問題となる。
我々は,一般規範的倫理理論のための3層モデルを構築し,AMAが推論時に使用する倫理的視点のシリアライズに利用することができる。
論文 参考訳(メタデータ) (2020-03-02T14:33:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。