論文の概要: Decolonial AI as Disenclosure
- arxiv url: http://arxiv.org/abs/2407.13050v1
- Date: Thu, 23 May 2024 09:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:18:00.840384
- Title: Decolonial AI as Disenclosure
- Title(参考訳): ディスクロージャーとしてのDecolonial AI
- Authors: W. J. T. Mollema,
- Abstract要約: 機械学習とAIによる「AI植民地主義」は、概念的には「データ植民地主義」と重なる用語であり、不正の一形態である。
政治的には、デジタル資本主義のヘゲモニーを強制するが、生態学的には環境に悪影響を及ぼし、天然資源の抽出とエネルギー消費を増大させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development and deployment of machine learning and AI engender 'AI colonialism', a term that conceptually overlaps with 'data colonialism', as a form of injustice. AI colonialism is in need of decolonization for three reasons. Politically, because it enforces digital capitalism's hegemony. Ecologically, as it negatively impacts the environment and intensifies the extraction of natural resources and consumption of energy. Epistemically, since the social systems within which AI is embedded reinforce Western universalism by imposing Western colonial values on the global South when these manifest in the digital realm is a form of digital capitalism. These reasons require a new conceptualization of AI decolonization. First this paper draws from the historical debates on the concepts of colonialism and decolonization. Secondly it retrieves Achille Mbembe's notion of decolonization as disenclosure to argue that the decolonization of AI will have to be the abolishment of political, ecological and epistemic borders erected and reinforced in the phases of its design, production, development of AI in the West and drawing from the knowledge from the global South. In conclusion, it is discussed how conceiving of decolonial AI as form of disenclosure opens up new ways to think about and intervene in colonial instantiations of AI development and deployment, in order to empower 'the wretched of AI', re-ecologise the unsustainable ecologies AI depends on and to counter the colonial power structures unreflective AI deployment risks to reinforce.
- Abstract(参考訳): 機械学習とAIの開発と展開は、「AI植民地主義」という概念上は「データ植民地主義」と重なり合う言葉を不当な形にしている。
AIの植民地化には3つの理由がある。
政治的には、それはデジタル資本主義の覇権を強制するからである。
生態学的には、環境に悪影響を及ぼし、天然資源の抽出とエネルギーの消費を強化する。
認識論的には、AIが埋め込まれた社会システムは、デジタル・キャピタリズムの一形態であるときに、グローバル・サウスに西洋の植民地的価値を課すことによって、西洋の普遍主義を強化している。
これらの理由は、AIデコロン化の新たな概念化を必要とする。
まず、植民地主義と植民地化の概念に関する歴史的議論を引用する。
第二に、Achille Mbembeの非植民地化の概念は、AIの非植民地化は、その設計、生産、西部におけるAIの発展の段階において構築され強化された政治的、生態学的、疫学的な境界の廃止であり、世界の南からの知識から引き出されたものでなければならないと主張するために、非植民地化の概念として回収される。
結論として、デコロニアルAIを非開示の形で認識することで、AI開発とデプロイメントの植民地的インスタンス化について考え、介入する新たな方法が開き、AIが依存する持続不可能なエコロジーを再認識し、予測できないAIデプロイメントのリスクを抑えるために、どのようにしてデコロニアルAIが認識されるかについて議論する。
関連論文リスト
- Reimagining Communities through Transnational Bengali Decolonial Discourse with YouTube Content Creators [2.3977477455080085]
本研究は,ビデオによるデコロナール談話への人々のモチベーションと戦略を理解することを目的としている。
本稿では,オンライン・デコロニアル・談話の社会物質性の可能性について論じる。
論文 参考訳(メタデータ) (2024-07-18T03:41:39Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Empowering Africa: An In-depth Exploration of the Adoption of Artificial
Intelligence Across the Continent [0.0]
この研究は、アフリカにおけるAIソリューションの展開を形作る地域的ニュアンス、文化的要因、インフラ的制約について考察している。
医療、農業、金融、教育におけるケーススタディでは、AIの効率性、アクセシビリティ、傾倒性への変革の可能性を強調している。
データプライバシとアルゴリズムバイアスを含む倫理的考慮事項は、責任あるAI実装をサポートするポリシーフレームワークと共に対処される。
論文 参考訳(メタデータ) (2023-12-28T12:07:13Z) - A Material Lens on Coloniality in NLP [57.63027898794855]
植民地化は「公式」植民地化を超えて植民地の被害を継続することである。
我々は、植民地性は暗黙的にNLPデータ、アルゴリズム、ソフトウェアに埋め込まれ、増幅されていると主張している。
論文 参考訳(メタデータ) (2023-11-14T18:52:09Z) - Decolonial AI Alignment: Openness, Viśe\d{s}a-Dharma, and Including Excluded Knowledges [22.21928139733195]
植民地主義は、植民地化された人々の信念と価値観を変える歴史を持っていると私は主張する。
AIアライメントは3種類のオープンネスを使って非植民地化することを提案します。
1つの概念は「Vi'sedsa-dharma」または「正しいことと間違ったこと」という文脈固有の概念である。
論文 参考訳(メタデータ) (2023-09-10T14:04:21Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Decolonial AI: Decolonial Theory as Sociotechnical Foresight in
Artificial Intelligence [6.202104487394354]
本稿では,人工知能の進歩の理解と形成におけるクリティカルサイエンスの役割について考察する。
デコロニアル理論は、我々の知的、政治的、経済的、社会的世界を形成する権力のパターンを説明するために、歴史的な後見を用いる。
植民地化の事例である問題のあるアプリケーションを強調し、デコロニアルレンズを使用して、人工知能のデコロニアル分野を形成する3つの戦術を提出する。
論文 参考訳(メタデータ) (2020-07-08T12:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。