論文の概要: Need of AI in Modern Education: in the Eyes of Explainable AI (xAI)
- arxiv url: http://arxiv.org/abs/2408.00025v2
- Date: Tue, 15 Oct 2024 17:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 13:40:32.844053
- Title: Need of AI in Modern Education: in the Eyes of Explainable AI (xAI)
- Title(参考訳): 現代教育におけるAIの必要性 : 説明可能なAI(xAI)の視点から
- Authors: Supriya Manna, Niladri Sett,
- Abstract要約: この章は、AIの操作方法、特にバイアスに関する複雑な方法を明かそうとしている。
これらは、より信頼性があり、説明責任があり、すべての関係者にとって有益な方法でAIを使用することを含む、より良い教育政策に向けた基本的なステップである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Education is not \textit{Modern} without AI. However, AI's complex nature makes understanding and fixing problems challenging. Research worldwide shows that a parent's income greatly influences a child's education. This led us to explore how AI, especially complex models, makes important decisions using Explainable AI tools. Our research uncovered many complexities linked to parental income and offered reasonable explanations for these decisions. However, we also found biases in AI that go against what we want from AI in education: clear transparency and equal access for everyone. These biases can impact families and children's schooling, highlighting the need for better AI solutions that offer fair opportunities to all. This chapter tries to shed light on the complex ways AI operates, especially concerning biases. These are the foundational steps towards better educational policies, which include using AI in ways that are more reliable, accountable, and beneficial for everyone involved.
- Abstract(参考訳): 現代教育はAIなしでは「textit{Modern}」ではない。
しかし、AIの複雑な性質は、問題の理解と修正を困難にしている。
世界中の研究によると、親の収入は子どもの教育に大きく影響している。
これにより、AI、特に複雑なモデルが、Explainable AIツールを使用して重要な決定を行う方法を探ることができた。
我々の研究は、親の収入に関連する多くの複雑さを発見し、これらの決定について合理的な説明を提供した。
しかし、教育におけるAIからの要望に反するAIのバイアスも見つかりました。
これらのバイアスは、家族や子供の教育に影響を与え、全員に公正な機会を提供するより良いAIソリューションの必要性を強調します。
この章は、AIの操作方法、特にバイアスに関する複雑な方法を明かそうとしている。
これらは、より信頼性があり、説明責任があり、すべての関係者にとって有益な方法でAIを使用することを含む、より良い教育政策に向けた基本的なステップである。
関連論文リスト
- Making AI Intelligible: Philosophical Foundations [0.0]
「AI知能の育成」は、意味のメタ物理に関する哲学的な研究がこれらの疑問に答えるのに役立つことを示している。
著者: 本書で取り上げられた質問は理論的に興味深いだけでなく、答えは実際的な意味を迫っている。
論文 参考訳(メタデータ) (2024-06-12T12:25:04Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Un jeu a debattre pour sensibiliser a l'Intelligence Artificielle dans
le contexte de la pandemie de COVID-19 [0.0]
我々は,パンデミックを制御するためのAIソリューションの選択を目的とした市民討論という形で,真剣なゲームを提案する。
このゲームは高校生をターゲットにしており、科学フェアで初めて実験され、現在は無料で利用できる。
論文 参考訳(メタデータ) (2023-04-19T09:06:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Unpacking the "Black Box" of AI in Education [0.0]
われわれは,「AI」とは何か,それが人間の状態を改善する教育機会の進展と妨げに持つ可能性を明らかにすることを目指している。
我々は、AIを支える様々な方法と哲学の基礎的な紹介、最近の進歩について議論、教育への応用を探究し、重要な制限とリスクを強調します。
教育における人間中心のAIの発展を理解し、尋問し、最終的に形作ることができるように、ジャーゴンの言葉や概念をしばしば利用できるようにすることを願っています。
論文 参考訳(メタデータ) (2022-12-31T18:27:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。