論文の概要: Towards an Operational Responsible AI Framework for Learning Analytics in Higher Education
- arxiv url: http://arxiv.org/abs/2410.05827v1
- Date: Tue, 8 Oct 2024 08:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 12:30:00.704672
- Title: Towards an Operational Responsible AI Framework for Learning Analytics in Higher Education
- Title(参考訳): 高等教育における分析学習のための運用責任AIフレームワークの実現に向けて
- Authors: Alba Morales Tirado, Paul Mulholland, Miriam Fernandez,
- Abstract要約: 我々は、大手IT企業を含む11の責任あるAIフレームワークを、高等教育におけるLAの文脈にマップする。
この結果、透明性、公平性、説明責任といった7つの重要な原則が特定された。
我々は,HE機関に実践的な指導を提供する新しい枠組みを提案し,コミュニティインプットによって発展するように設計されている。
- 参考スコア(独自算出の注目度): 0.2796197251957245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universities are increasingly adopting data-driven strategies to enhance student success, with AI applications like Learning Analytics (LA) and Predictive Learning Analytics (PLA) playing a key role in identifying at-risk students, personalising learning, supporting teachers, and guiding educational decision-making. However, concerns are rising about potential harms these systems may pose, such as algorithmic biases leading to unequal support for minority students. While many have explored the need for Responsible AI in LA, existing works often lack practical guidance for how institutions can operationalise these principles. In this paper, we propose a novel Responsible AI framework tailored specifically to LA in Higher Education (HE). We started by mapping 11 established Responsible AI frameworks, including those by leading tech companies, to the context of LA in HE. This led to the identification of seven key principles such as transparency, fairness, and accountability. We then conducted a systematic review of the literature to understand how these principles have been applied in practice. Drawing from these findings, we present a novel framework that offers practical guidance to HE institutions and is designed to evolve with community input, ensuring its relevance as LA systems continue to develop.
- Abstract(参考訳): 大学は、Learning Analytics(LA)やPredictive Learning Analytics(PLA)といったAIアプリケーションが、リスクの高い学生を特定し、学習をパーソナライズし、教師を支援し、教育的な意思決定を導く上で重要な役割を果たしている。
しかし、アルゴリズムバイアスが少数派の学生に不平等な支援をもたらすなど、これらのシステムがもたらす潜在的な害に対する懸念が高まっている。
LAでResponsible AIの必要性を探求する人は多いが、既存の作業では、制度がこれらの原則を運用する方法に関する実践的なガイダンスが欠如していることが多い。
本稿では, LA in Higher Education (HE) に特化して開発された, Responsible AI フレームワークを提案する。
私たちはまず、大手IT企業を含む11の確立した責任AIフレームワークを、HEにおけるLAのコンテキストにマッピングすることから始めました。
この結果、透明性、公平性、説明責任といった7つの重要な原則が特定された。
次に、これらの原則が実際にどのように適用されたかを理解するために、文献の体系的なレビューを行った。
これらの知見から,我々は,コミュニティインプットによって発展し,LAシステムが発展を続ける中で,その関連性を確保するために,HE機関に実践的なガイダンスを提供する新しい枠組みを提案する。
関連論文リスト
- Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Trustworthy AI in practice: an analysis of practitioners' needs and challenges [2.5788518098820337]
多くのフレームワークとガイドラインが、信頼できるAIアプリケーションを実装する実践者を支援しているように見える。
私たちは、AI実践者がTAIの原則、それらにどう対処するか、何を望んでいるのか、といったビジョンを研究します。
私たちは、AI実践者が信頼できるAIアプリケーションを開発するのを助けるためのレコメンデーションを強調します。
論文 参考訳(メタデータ) (2024-05-15T13:02:46Z) - A University Framework for the Responsible use of Generative AI in Research [0.0]
ジェネレーティブ人工知能(Generative Artificial Intelligence、ジェネレーティブAI)は、研究の完全性のための機会とリスクを兼ね備えている。
組織が生成AIの責任ある利用を促進・促進するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-30T04:00:15Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - Towards Goal-oriented Intelligent Tutoring Systems in Online Education [69.06930979754627]
目標指向知能チューニングシステム(GITS)という新しいタスクを提案する。
GITSは,演習や評価のカスタマイズを戦略的に計画することで,学生の指定概念の習得を可能にすることを目的としている。
PAI(Planning-Assessment-Interaction)と呼ばれるグラフに基づく新しい強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T12:37:16Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。