論文の概要: On the ethics of constructing conscious AI
- arxiv url: http://arxiv.org/abs/2303.07439v1
- Date: Mon, 13 Mar 2023 19:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 17:29:45.561305
- Title: On the ethics of constructing conscious AI
- Title(参考訳): 意識的AI構築の倫理について
- Authors: Shimon Edelman
- Abstract要約: AIの倫理は人類の生物に対する集団的恐怖によって支配されるようになった。
現実の世界では、ほとんど例外なく、AIの倫理に関する理論家は、創造者から保護を必要とするロボットの可能性を完全に無視している。
この本章では、AIの倫理的な角度を取り上げている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In its pragmatic turn, the new discipline of AI ethics came to be dominated
by humanity's collective fear of its creatures, as reflected in an extensive
and perennially popular literary tradition. Dr. Frankenstein's monster in the
novel by Mary Shelley rising against its creator; the unorthodox golem in H.
Leivick's 1920 play going on a rampage; the rebellious robots of Karel
\v{C}apek -- these and hundreds of other examples of the genre are the
background against which the preoccupation of AI ethics with preventing robots
from behaving badly towards people is best understood. In each of these three
fictional cases (as well as in many others), the miserable artificial creature
-- mercilessly exploited, or cornered by a murderous mob, and driven to
violence in self-defense -- has its author's sympathy. In real life, with very
few exceptions, things are different: theorists working on the ethics of AI
completely ignore the possibility of robots needing protection from their
creators. The present book chapter takes up this, less commonly considered,
ethical angle of AI.
- Abstract(参考訳): その実践的転換の中で、AI倫理の新しい規律は人類の生物に対する集団的恐怖によって支配されるようになり、それは広範かつ多年にわたる文学的伝統に反映された。
Dr. Frankenstein's monster in the novel by Mary Shelley rising against its creator; the unorthodox golem in H. Leivick's 1920 play going on a rampage; the rebellious robots of Karel \v{C}apek -- these and hundreds of other examples of the genre are the background against which the preoccupation of AI ethics with preventing robots from behaving badly towards people is best understood. In each of these three fictional cases (as well as in many others), the miserable artificial creature -- mercilessly exploited, or cornered by a murderous mob, and driven to violence in self-defense -- has its author's sympathy.
AIの倫理に関する理論家たちは、創造者から保護を必要とするロボットの可能性を完全に無視しています。
本章では、AIの倫理的な角度を取り上げている。
関連論文リスト
- The AI Double Standard: Humans Judge All AIs for the Actions of One [0.0]
AIが増殖するにつれて、あるAIに対する道徳的な態度が他のAIに対する態度に流出することで、知覚が絡まってしまう可能性がある。
我々は、2つの事前登録された実験において、AIや人間のエージェントの一見有害で不道徳な行動が、他のAIや人間に対する態度にどのように影響するかをテストした。
論文 参考訳(メタデータ) (2024-12-08T19:26:52Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Towards Artificial Virtuous Agents: Games, Dilemmas and Machine Learning [4.864819846886143]
ロールプレイングゲームは、人工エージェント内での美徳を発達させるためにどのように設計されるかを示す。
我々は、このようなロールプレイングゲームを行う活発なエージェントの実装と、美徳な倫理的レンズによる彼らの決定の検証を動機付けている。
論文 参考訳(メタデータ) (2022-08-30T07:37:03Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Good AI for the Present of Humanity Democratizing AI Governance [0.0]
AI倫理とサイバーパンク文学の類似点は、どちらも将来の社会的および倫理的問題を探求することである。
この記事では、よりサイバーパンク的なAI倫理の方法、より民主的なガバナンスの方法を提唱したい。
論文 参考訳(メタデータ) (2020-07-08T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。