論文の概要: Tracing the Techno-Supremacy Doctrine: A Critical Discourse Analysis of the AI Executive Elite
- arxiv url: http://arxiv.org/abs/2509.18079v1
- Date: Mon, 22 Sep 2025 17:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:19:34.936526
- Title: Tracing the Techno-Supremacy Doctrine: A Critical Discourse Analysis of the AI Executive Elite
- Title(参考訳): Techno-Supremacy Doctrineの追跡 - AIエグゼクティブ要素の批判的談話分析
- Authors: Héctor Pérez-Urbina,
- Abstract要約: 本稿では,AIの資金提供,開発,展開の方法を形成する,影響力の高い個人集団である「AIエグゼクティブエリート」の言説を批判的に分析する。
本研究の主な目的は、複雑な社会問題を解く上で、技術が本来持つ優越性に対する過度な信頼を特徴とする信念システムを記述するために導入された「テクノ・サプレマシー・ドクトリン(TSD)」の存在とダイナミクスについて考察することである。
この分析は、ユートピアの約束と避けられない進歩の主張を組み合わせた支配的なTSDの物語や、リスクを認知する一般的な戦術など、重要な非帰的パターンを特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper critically analyzes the discourse of the 'AI executive elite,' a group of highly influential individuals shaping the way AI is funded, developed, and deployed worldwide. The primary objective is to examine the presence and dynamics of the 'Techno-Supremacy Doctrine' (TSD), a term introduced in this study to describe a belief system characterized by an excessive trust in technology's alleged inherent superiority in solving complex societal problems. This study integrates quantitative heuristics with in-depth qualitative investigations. Its methodology is operationalized in a two-phase critical discourse analysis of 14 texts published by elite members between 2017 and 2025. The findings demonstrate that the elite is not a monolithic bloc but exhibits a broad spectrum of stances. The discourse is highly dynamic, showing a marked polarization and general increase in pro-TSD discourse following the launch of ChatGPT. The analysis identifies key discursive patterns, including a dominant pro-TSD narrative that combines utopian promises with claims of inevitable progress, and the common tactic of acknowledging risks only as a strategic preamble to proposing further technological solutions. This paper presents TSD as a comprehensive analytical framework and provides a 'diagnostic toolkit' for identifying its manifestations, from insidious to benign. It argues that fostering critical awareness of these discursive patterns is essential for AI practitioners, policymakers, and the public to actively navigate the future of AI.
- Abstract(参考訳): 本稿では,AIの資金提供,開発,展開の方法を形成する,影響力の高い個人集団である「AIエグゼクティブエリート」の言説を批判的に分析する。
本研究の主な目的は、複雑な社会問題を解く上で、技術が本来持つ優越性に対する過度な信頼を特徴とする信念システムを記述するために導入された「テクノ・サプレマシー・ドクトリン(TSD)」の存在とダイナミクスについて考察することである。
本研究は,定量的ヒューリスティックスと詳細な質的研究を統合する。
その方法論は、2017年から2025年にかけてエリートメンバーによって出版された14のテキストの2段階の批判的談話分析で運用されている。
この結果は、エリートはモノリシック・ブロックではなく、幅広いスタンスを示すことを示している。
この談話は非常にダイナミックで、ChatGPTの打ち上げ後、顕著な分極と一般のTSD談話の増加を示す。
この分析は、ユートピアの約束と避けられない進歩の主張を組み合わせた支配的なTSDの物語や、さらなる技術的解決策を提唱する戦略的前兆としてのみリスクを認める一般的な戦術など、主要な反帰的パターンを特定する。
本稿では,TLDを包括的分析フレームワークとして提示し,その表現を識別するための「診断ツールキット」を提供する。
これらの分散パターンに対する批判的な認識を促進することは、AI実践者、政策立案者、そして一般大衆がAIの未来を積極的にナビゲートするために不可欠である、と氏は主張する。
関連論文リスト
- The Stories We Govern By: AI, Risk, and the Power of Imaginaries [0.0]
本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
論文 参考訳(メタデータ) (2025-08-15T09:57:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Exploring Societal Concerns and Perceptions of AI: A Thematic Analysis through the Lens of Problem-Seeking [0.0]
本研究では,AIとは対照的に人間の知能の特徴を明らかにするために,問題解決から問題解決を区別する新しい概念的枠組みを提案する。
このフレームワークは、AIは効率と最適化において優れているが、接地と人間の認識に固有のエンボディメントの柔軟性から派生したオリエンテーションは欠如している、と強調している。
論文 参考訳(メタデータ) (2025-05-29T18:24:34Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models [0.0]
この研究は、大規模言語モデル(LLM)の騙し行動に集中して、AIの騙しの複雑な風景を批判的にナビゲートする。
私の目標は、この問題を解明し、それを取り巻く談話を調べ、その分類と混乱を掘り下げることです。
論文 参考訳(メタデータ) (2024-02-07T00:21:46Z) - Ethical Framework for Harnessing the Power of AI in Healthcare and
Beyond [0.0]
この総合的な研究論文は、AI技術の急速な進化と密接に関連する倫理的次元を厳格に調査する。
この記事の中心は、透明性、エクイティ、回答可能性、人間中心の指向といった価値を、慎重に強調するために作られた、良心的なAIフレームワークの提案である。
この記事は、グローバルに標準化されたAI倫理の原則とフレームワークに対するプレッシャーの必要性を明確に強調している。
論文 参考訳(メタデータ) (2023-08-31T18:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。