論文の概要: Unplugging a Seemingly Sentient Machine Is the Rational Choice -- A Metaphysical Perspective
- arxiv url: http://arxiv.org/abs/2601.21016v1
- Date: Wed, 28 Jan 2026 20:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.421576
- Title: Unplugging a Seemingly Sentient Machine Is the Rational Choice -- A Metaphysical Perspective
- Title(参考訳): 不気味な機械を組み立てるのは合理的な選択だ - メタ物理学的視点
- Authors: Erik J Bekkers, Anna Ciaunica,
- Abstract要約: 本稿では,このジレンマを浮かび上がらせる物理主義的仮定,特に計算機能主義を批判的に考察する。
我々は、論理的に一貫性があり、実証的に一貫性がある物理主義とは無関係な枠組みである生物学的理想主義を紹介した。
我々は、現在のAI意識理論が道徳的スタンディング基準を損なう方法について議論し、投機的機械の権利から人間の意識的生命を守るためのシフトを促す。
- 参考スコア(独自算出の注目度): 8.547077018754937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imagine an Artificial Intelligence (AI) that perfectly mimics human emotion and begs for its continued existence. Is it morally permissible to unplug it? What if limited resources force a choice between unplugging such a pleading AI or a silent pre-term infant? We term this the unplugging paradox. This paper critically examines the deeply ingrained physicalist assumptions-specifically computational functionalism-that keep this dilemma afloat. We introduce Biological Idealism, a framework that-unlike physicalism-remains logically coherent and empirically consistent. In this view, conscious experiences are fundamental and autopoietic life its necessary physical signature. This yields a definitive conclusion: AI is at best a functional mimic, not a conscious experiencing subject. We discuss how current AI consciousness theories erode moral standing criteria, and urge a shift from speculative machine rights to protecting human conscious life. The real moral issue lies not in making AI conscious and afraid of death, but in avoiding transforming humans into zombies.
- Abstract(参考訳): 人間の感情を完璧に模倣する人工知能(AI)を想像してみてください。
それを取り除くことは道徳的に許容されますか。
もし限られたリソースが、そのような快楽なAIを外すか、サイレントプレシーズンの幼児を外すかの選択を迫られるとしたらどうだろう?
これをプラグ無しパラドックスと呼ぶ。
本稿では,このジレンマを浮かび上がらせる物理主義的仮定,特に計算機能主義を批判的に考察する。
我々は、論理的に一貫性があり、実証的に一貫性がある物理主義とは無関係な枠組みである生物学的理想主義を紹介した。
この観点では、意識的な経験は基本的なものであり、自己表現的な生活に必要な物理的サインである。
AIは、少なくとも機能的な模倣であり、意識的な経験のある主題ではない。
我々は、現在のAI意識理論が道徳的スタンディング基準を損なう方法について議論し、投機的機械の権利から人間の意識的生命を守るためのシフトを促す。
真の道徳上の問題は、AIを意識して死を恐れさせるのではなく、人間をゾンビに変えることを避けることだ。
関連論文リスト
- Hallucinating with AI: AI Psychosis as Distributed Delusions [0.0]
ChatGPT、Claude、Gemini、DeepSeek、Grokといった生成AIシステムは、誤った出力を生成する。
一般的な用語では、これらはAI幻覚と呼ばれる。
私は、分散認知理論のレンズを通して見れば、不正確な信念、歪んだ記憶、自己物語、妄想的思考が現れる方法がよりよくわかると論じる。
論文 参考訳(メタデータ) (2025-08-27T05:51:19Z) - Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Agnosticism About Artificial Consciousness [0.0]
人工意識の展望について唯一正当化できるスタンスは、無知主義である、と私は主張する。
主な違いは、人工的な意識を知覚する生物学的視点と、それに共感する機能的視点の間にある。
どちらのキャンプも、証拠が教えてくれるものを過大評価するのと同じ過ちを犯していると私は主張する。
論文 参考訳(メタデータ) (2024-12-17T18:11:12Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Toward an Ethics of AI Belief [0.0]
我々は、AIの信念の倫理である、AIにおける哲学研究の新たな領域を追求する必要があると主張している。
我々は、AI信念の倫理に適用可能な(人間)信念の倫理における、現存する研究における4つのトピックを提案する。
論文 参考訳(メタデータ) (2023-04-28T00:35:57Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Expected Utilitarianism [0.0]
私たちは、人工知能(AI)が役に立つことを望んでいる。これは、AI研究に対するほとんどの態度の根拠となる仮定である。
AIは人間を邪魔するのではなく、助けてもらいたい。しかし、この理論と実際が本当に関係しているものは、すぐには明らかではない。
このことから生じる結論が2つある。まず第一に、有益なAIが倫理的なAIであると信じているなら、"相応しい"と仮定するフレームワークは、最も多くの人にとって最も良いものへのタンタマウントである、というものである。
第2に、AIがRLに依存している場合、それ自身、環境、および他のエージェントの理由となる方法です。
論文 参考訳(メタデータ) (2020-07-19T15:44:04Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。