論文の概要: (Machine) Learning to Be Like Thee? For Algorithm Education, Not
Training
- arxiv url: http://arxiv.org/abs/2305.12157v1
- Date: Sat, 20 May 2023 10:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 00:18:47.626782
- Title: (Machine) Learning to Be Like Thee? For Algorithm Education, Not
Training
- Title(参考訳): (機械)
自分らしくなることを学ぶか?
アルゴリズム教育のために 訓練ではなく
- Authors: Susana Perez Blazquez and Inas Hipolito
- Abstract要約: 本稿では機械学習(ML)アルゴリズムを教育しなければならないことを論じる。
MLで訓練されたアルゴリズム 道徳的な決定は、人間社会においてユビキタスである。
この論文は、社会的責任のためのMLと児童教育の類推から、責任と持続可能なAI設計のための明確な方向性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper argues that Machine Learning (ML) algorithms must be educated.
ML-trained algorithms moral decisions are ubiquitous in human society.
Sometimes reverting the societal advances governments, NGOs and civil society
have achieved with great effort in the last decades or are yet on the path to
be achieved. While their decisions have an incommensurable impact on human
societies, these algorithms are within the least educated agents known (data
incomplete, un-inclusive, or biased). ML algorithms are not something separate
from our human idiosyncrasy but an enactment of our most implicit prejudices
and biases. Some research is devoted to responsibility assignment as a strategy
to tackle immoral AI behaviour. Yet this paper argues that the solution for AI
ethical decision-making resides in algorithm education (as opposed to the
training) of ML. Drawing from an analogy between ML and child education for
social responsibility, the paper offers clear directions for responsible and
sustainable AI design, specifically with respect to how to educate algorithms
to decide ethically.
- Abstract(参考訳): 本稿では機械学習(ML)アルゴリズムを教育しなければならない。
MLで訓練されたアルゴリズム 道徳的な決定は、人間社会においてユビキタスである。
時として、社会進歩政府、ngo、市民社会は過去数十年で大きな努力を積み重ねてきたが、まだ達成の途上にある。
彼らの決定は人間の社会に不可避な影響を及ぼすが、これらのアルゴリズムは最も教育を受けていないエージェント(データ不完全、非包摂的、偏見的)である。
MLアルゴリズムは、人間の慣用性とは別物ではなく、最も暗黙的な偏見と偏見の具体化である。
不道徳なAI行動に取り組む戦略として、いくつかの研究は責任割り当てに費やされている。
しかし,本論文では,ai倫理的意思決定の解決策はmlのアルゴリズム教育(学習とは対照的に)にあると主張する。
mlと子どもの社会的責任教育の類似性から、この論文は責任感と持続可能なai設計、特に倫理的に決定するアルゴリズムを教育する方法に関する明確な指示を提供する。
関連論文リスト
- Why should we ever automate moral decision making? [30.428729272730727]
AIが重大な道徳的意味を持つ決定に関与している場合、懸念が生じる。
道徳的推論は広く受け入れられている枠組みを欠いている。
もう一つのアプローチは、人間の道徳的決定からAIを学ぶことである。
論文 参考訳(メタデータ) (2024-07-10T13:59:22Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Base rate neglect in computer science education [8.528384027684192]
本研究では,ML コースの学生の約3分の1が,背景の違いから,ベースレートの無視バイアスにより,ML アルゴリズムの性能を正しく評価できないことを示す。
この失敗率は、教育者に警告し、MLアルゴリズムのパフォーマンスを教えるための新しい教育手法の開発を促進するべきである。
論文 参考訳(メタデータ) (2022-09-17T11:03:45Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z) - State of the Art in Fair ML: From Moral Philosophy and Legislation to Fair Classifiers [1.3300455020806103]
機械学習は、多くの決定が機械学習アルゴリズムによってなされるにつれて、私たちの生活に永遠に存在している部分になりつつある。
判決はしばしば不公平であり、人種や性別に基づいて保護された集団を差別する。
この研究は、差別、それに対抗する立法府、そして機械学習アルゴリズムをそのような行動から検出し、予防するための戦略について紹介することを目的としている。
論文 参考訳(メタデータ) (2018-11-20T12:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。