論文の概要: When fairness is an abstraction: Equity and AI in Swedish compulsory
education
- arxiv url: http://arxiv.org/abs/2311.01838v1
- Date: Fri, 3 Nov 2023 10:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:20:11.847011
- Title: When fairness is an abstraction: Equity and AI in Swedish compulsory
education
- Title(参考訳): 公正が抽象であるとき--スウェーデンの強制教育における平等とAI
- Authors: Marie Utterberg Mod\'en, Marisa Ponti, Johan Lundin, Martin Tallvid
(Department of Applied Information Technology, University of Gothenburg,
Sweden)
- Abstract要約: 人工知能の専門家は、AIが公正かどうかをしばしば疑問視する。彼らは公正を、社会政治や経済システムではなく、AIシステムの特性と見なしている。
本稿では、教育システムがAIを運用・活用する社会、政治、経済の文脈において公正である必要があることを強調する。
- 参考スコア(独自算出の注目度): 0.23967405016776386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence experts often question whether AI is fair. They view
fairness as a property of AI systems rather than of sociopolitical and economic
systems. This paper emphasizes the need to be fair in the social, political,
and economic contexts within which an educational system operates and uses AI.
Taking Swedish decentralized compulsory education as the context, this paper
examines whether and how the use of AI envisaged by national authorities and
edtech companies exacerbates unfairness. A qualitative content analysis of
selected Swedish policy documents and edtech reports was conducted using the
concept of relevant social groups to understand how different groups view the
risks and benefits of AI for fairness. Three groups that view efficiency as a
key value of AI are identified, and interpreted as economical, pedagogical and
accessibility-related. By separating fairness from social justice, this paper
challenges the notion of fairness as the formal equality of opportunities.
- Abstract(参考訳): 人工知能の専門家は、AIが公正かどうかにしばしば疑問を呈する。
彼らは公正を、社会政治や経済システムではなく、AIシステムの特性と見なしている。
本稿では、教育システムがAIを運用・活用する社会、政治、経済の文脈において公正である必要性を強調する。
スウェーデンの分権的強制教育を文脈として、国家当局やエドテック企業によるAIの使用が不公平を悪化させるかどうかを考察する。
スウェーデンの政策文書とEdtechレポートの質的内容分析は、関連社会グループの概念を用いて、異なるグループが公正性のためにAIのリスクと利益をどのように見ているかを理解するために行われた。
効率をAIの重要な価値とみなす3つのグループが特定され、経済的、教育的、アクセシビリティ関連のものとして解釈される。
公平性と社会的正義を分離することで、公平性の概念を機会の形式的平等として挑戦する。
関連論文リスト
- Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Toward a Theory of Justice for Artificial Intelligence [2.28438857884398]
社会の基本構造は、社会技術システムの複合体として理解されるべきである。
結果として、平等主義的な正義の規範は、これらの文脈に展開されるときにその技術に適用される。
論文 参考訳(メタデータ) (2021-10-27T13:23:38Z) - Fairness as Equality of Opportunity: Normative Guidance from Political
Philosophy [8.228275343025462]
政治哲学から機会平等主義(EOP)を用いた公正理想の分類法を導入する。
我々は、哲学におけるそれらの概念と、公正な機械学習における体系化の提案を明確にする。
フェアネス・アズ・エOPフレームワークを使用して、哲学的な観点から不合理な結果を再解釈します。
論文 参考訳(メタデータ) (2021-06-15T16:07:58Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - The AI Economist: Improving Equality and Productivity with AI-Driven Tax
Policies [119.07163415116686]
我々は、経済的平等と生産性を効果的にトレードオフできる税制政策を発見する社会プランナーを訓練する。
競争圧力と市場ダイナミクスを特徴とする経済シミュレーション環境を提案する。
AI主導の税政策は、基本方針よりも平等と生産性のトレードオフを16%改善することを示します。
論文 参考訳(メタデータ) (2020-04-28T06:57:18Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。