論文の概要: Between Fear and Desire, the Monster Artificial Intelligence (AI): Analysis through the Lenses of Monster Theory
- arxiv url: http://arxiv.org/abs/2508.08318v1
- Date: Sat, 09 Aug 2025 08:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.170627
- Title: Between Fear and Desire, the Monster Artificial Intelligence (AI): Analysis through the Lenses of Monster Theory
- Title(参考訳): 恐怖と絶望 : モンスター・人工知能(AI) : モンスター理論のレンズを通しての分析
- Authors: Ahmed Tlili,
- Abstract要約: 本研究は,モンスター理論の7つの論点を通じて,AIの知覚と開発について議論することを目的とする。
モンスターと同じように、AIは本質的に複雑であり、独立した実体としてではなく、特定の社会や文化の中で研究されるべきである。
この研究で示されているように、AIとモンスターの関係は、最初ほど奇妙ではないようだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing adoption of Artificial Intelligence (AI) in all fields and daily activities, a heated debate is found about the advantages and challenges of AI and the need for navigating the concerns associated with AI to make the best of it. To contribute to this literature and the ongoing debate related to it, this study draws on the Monster theory to explain the conflicting representation of AI. It suggests that studying monsters in popular culture can provide an in-depth understanding of AI and its monstrous effects. Specifically, this study aims to discuss AI perception and development through the seven theses of Monster theory. The obtained results revealed that, just like monsters, AI is complex in nature, and it should not be studied as a separate entity but rather within a given society or culture. Similarly, readers may perceive and interpret AI differently, just as readers may interpret monsters differently. The relationship between AI and monsters, as depicted in this study, does not seem to be as odd as it might be at first.
- Abstract(参考訳): あらゆる分野や日々のアクティビティにおける人工知能(AI)の採用の増加に伴い、AIのアドバンテージと課題、AIに関連する関心事のナビゲートの必要性について、熱い議論が生まれている。
この文献とそれに関連する議論に貢献するために、この研究はモンスター理論に基づいてAIの矛盾する表現を説明する。
大衆文化における怪獣の研究は、AIとその怪獣効果の深い理解をもたらすことを示唆している。
具体的には,モンスター理論の7つの論点を通じて,AIの知覚と発達について議論することを目的とする。
その結果、モンスターと同様にAIは本質的に複雑であり、独立した実体としてではなく、特定の社会や文化の中で研究されるべきであることがわかった。
同様に、読者は、読者がモンスターを別々に解釈するのと同じように、AIを知覚し、解釈する。
この研究で示されているように、AIとモンスターの関係は、最初ほど奇妙ではないようだ。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Five questions and answers about artificial intelligence [0.0]
人工知能(AI)の急速な進歩は、社会で多くの論争を引き起こしている。
本稿では,AIに関する知識の普及に寄与する。
論文 参考訳(メタデータ) (2024-09-24T09:19:55Z) - Need of AI in Modern Education: in the Eyes of Explainable AI (xAI) [0.0]
この章は、AIの操作方法、特にバイアスに関する複雑な方法を明かそうとしている。
これらは、より信頼性があり、説明責任があり、すべての関係者にとって有益な方法でAIを使用することを含む、より良い教育政策に向けた基本的なステップである。
論文 参考訳(メタデータ) (2024-07-31T08:11:33Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。