論文の概要: A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure
- arxiv url: http://arxiv.org/abs/2504.07531v2
- Date: Fri, 11 Jul 2025 13:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 14:01:05.391474
- Title: A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure
- Title(参考訳): AIの文脈におけるてんかん不公平の分類法と遺伝子治療への応用
- Authors: Warmhold Jan Thomas Mollema,
- Abstract要約: AIに関連する疫学上の不正はますます懸念される。
機械学習モデルに関して、不正は多様なソースを持つことができる。
これは、エージェントが集団的感覚形成の能力で行う不正である「緊急殺生」の自動化を不正にしていると私は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Epistemic injustice related to AI is a growing concern. In relation to machine learning models, epistemic injustice can have a diverse range of sources, ranging from epistemic opacity, the discriminatory automation of testimonial prejudice, and the distortion of human beliefs via generative AI's hallucinations to the exclusion of the global South in global AI governance, the execution of bureaucratic violence via algorithmic systems, and interactions with conversational artificial agents. Based on a proposed general taxonomy of epistemic injustice, this paper first sketches a taxonomy of the types of epistemic injustice in the context of AI, relying on the work of scholars from the fields of philosophy of technology, political philosophy and social epistemology. Secondly, an additional conceptualization on epistemic injustice in the context of AI is provided: generative hermeneutical erasure. I argue that this injustice the automation of 'epistemicide', the injustice done to epistemic agents in their capacity for collective sense-making through the suppression of difference in epistemology and conceptualization by LLMs. AI systems' 'view from nowhere' epistemically inferiorizes non-Western epistemologies and thereby contributes to the erosion of their epistemic particulars, gradually contributing to hermeneutical erasure. This work's relevance lies in proposal of a taxonomy that allows epistemic injustices to be mapped in the AI domain and the proposal of a novel form of AI-related epistemic injustice.
- Abstract(参考訳): AIに関連する疫学上の不正はますます懸念される。
機械学習モデルに関して、認識的不正は、認識の不透明性、証言的偏見の差別的自動化、生成的AIの幻覚による人間の信念の歪曲、グローバルAIガバナンスにおけるグローバル・サウスの排除、アルゴリズムシステムによる官僚的暴力の実行、対話的人工エージェントとの相互作用など、さまざまなソースを持つことができる。
本稿では、まず、AIの文脈において、技術哲学、政治哲学、社会認識学の分野の学者の業績に頼って、疫学の不正のタイプを分類する。
第2に、AIの文脈におけるてんかんの不正に関する追加概念として、ジェネレーティブ・ヘルメネティカル・エロージャ(generative hermeneutical erasure)が提供される。
このことは、認識論の違いの抑制とLLMによる概念化を通じて、集団的感覚形成能力において、てんかん治療薬が行う不正行為である「てんかん自殺」の自動化を不正にしていると私は論じる。
AIシステムの「どこからでも見る」という視点は、非西洋の認識論を著しく下降させ、その結果、その疫学的な特徴の侵食に寄与し、徐々に医療的消去に寄与する。
この研究の関連性は、頭蓋骨の不正をAI領域にマッピングできる分類法の提案と、新しいAI関連頭蓋骨の不正の提案にある。
関連論文リスト
- Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction [4.022364531869169]
本稿では,ヒトと生成型AIシステムとの相互作用から生じる新しい認知・現象現象であるNoosemiaを紹介し,形式化する。
特定の条件下では、ユーザが意図性、エージェンシー、さらにはシステムの内部性をどう評価するかを説明するための多分野のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T17:10:08Z) - The AI Ethical Resonance Hypothesis: The Possibility of Discovering Moral Meta-Patterns in AI Systems [0.0]
この論文は、人間の心に見えない微妙な道徳的パターンを識別する能力によって、高度なAIシステムが出現する可能性を示唆している。
この論文は、大量の倫理的文脈を処理し、合成することによって、AIシステムは文化的、歴史的、個人的バイアスを超越する道徳的メタパターンを発見する可能性を探求する。
論文 参考訳(メタデータ) (2025-07-13T08:28:06Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Epistemic Injustice in Generative AI [6.966737616300788]
生成的AIは、集合的知識の完全性や、私たちが情報を取得し、評価し、信頼するために依存するプロセスを損なう可能性がある。
我々は,この現象の4つの重要な側面を同定する: 増幅的および操作的証言的不正,および医療的無知とアクセス的不正である。
我々は、より公平な情報エコシステムを育むために、生成AIを活用する抵抗戦略、システム設計原則、および2つのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-21T08:51:05Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Ethical Framework for Harnessing the Power of AI in Healthcare and
Beyond [0.0]
この総合的な研究論文は、AI技術の急速な進化と密接に関連する倫理的次元を厳格に調査する。
この記事の中心は、透明性、エクイティ、回答可能性、人間中心の指向といった価値を、慎重に強調するために作られた、良心的なAIフレームワークの提案である。
この記事は、グローバルに標準化されたAI倫理の原則とフレームワークに対するプレッシャーの必要性を明確に強調している。
論文 参考訳(メタデータ) (2023-08-31T18:12:12Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Normative Epistemology for Lethal Autonomous Weapons Systems [0.0]
本章では、Lethal Autonomous Weapons Systemsの設計、評価、デプロイメント、イテレーションを導くための高階設計原則について論じる。
疫学モデルは、行動の正当化と知識の帰属における正確さ、可能性、信念、能力、能力、文脈、運の役割を考察する。
論文 参考訳(メタデータ) (2021-10-25T13:13:42Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。