論文の概要: From Guidelines to Governance: A Study of AI Policies in Education
- arxiv url: http://arxiv.org/abs/2403.15601v1
- Date: Fri, 22 Mar 2024 20:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:51:43.656574
- Title: From Guidelines to Governance: A Study of AI Policies in Education
- Title(参考訳): ガイドラインからガバナンスへ:教育におけるAI政策の研究
- Authors: Aashish Ghimire, John Edwards,
- Abstract要約: 本研究は,新興技術に関する政策状況を調べるための調査手法を用いている。
ほとんどの機関は、ChatGPTのようなAIツールの倫理的展開のための特別なガイドラインを欠いている。
高校は高等教育機関よりも政策に取り組む傾向が低い。
- 参考スコア(独自算出の注目度): 1.9659095632676098
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emerging technologies like generative AI tools, including ChatGPT, are increasingly utilized in educational settings, offering innovative approaches to learning while simultaneously posing new challenges. This study employs a survey methodology to examine the policy landscape concerning these technologies, drawing insights from 102 high school principals and higher education provosts. Our results reveal a prominent policy gap: the majority of institutions lack specialized guide-lines for the ethical deployment of AI tools such as ChatGPT. Moreover,we observed that high schools are less inclined to work on policies than higher educational institutions. Where such policies do exist, they often overlook crucial issues, including student privacy and algorithmic transparency. Administrators overwhelmingly recognize the necessity of these policies, primarily to safeguard student safety and mitigate plagiarism risks. Our findings underscore the urgent need for flexible and iterative policy frameworks in educational contexts.
- Abstract(参考訳): ChatGPTなどのジェネレーティブAIツールのような新興技術は、教育現場でますます利用され、新しい課題を同時に生み出すと同時に、学習に対する革新的なアプローチを提供している。
本研究は、これらの技術に関する政策状況を調査する調査手法を用いて、102人の高校校長と高等教育推進者から洞察を得た。
機関の大半は、ChatGPTのようなAIツールの倫理的展開のための特別なガイドラインを欠いている。
さらに,高等学校は高等教育機関よりも政策にこだわる傾向が低かった。
このようなポリシーが存在する場合、学生のプライバシーやアルゴリズムの透明性など、重要な問題を見落としてしまうことが多い。
管理者はこれらの政策の必要性を圧倒的に認識し、主に学生の安全を守り、盗作のリスクを軽減する。
本研究は,教育現場におけるフレキシブルかつ反復的な政策枠組みの必要性を浮き彫りにするものである。
関連論文リスト
- Auto-assessment of assessment: A conceptual framework towards fulfilling the policy gaps in academic assessment practices [4.770873744131964]
英国、アラブ首長国連邦、イラクの3カ国から117人の学者を対象に調査を行った。
我々は、ほとんどの学者が、教育におけるAIについて肯定的な意見を持っていることを確認した。
学生の働きを自律的に評価する新しいAIフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-10-28T15:22:37Z) - Towards an Operational Responsible AI Framework for Learning Analytics in Higher Education [0.2796197251957245]
我々は、大手IT企業を含む11の責任あるAIフレームワークを、高等教育におけるLAの文脈にマップする。
この結果、透明性、公平性、説明責任といった7つの重要な原則が特定された。
我々は,HE機関に実践的な指導を提供する新しい枠組みを提案し,コミュニティインプットによって発展するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T08:55:24Z) - Assessing the State of AI Policy [0.5156484100374057]
この研究は、国際、米国、市、および連邦レベルでのAI法と指令の概要を提供する。
また、関連するビジネス標準や技術社会のイニシアチブも見直している。
論文 参考訳(メタデータ) (2024-07-31T16:09:25Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Generative AI in Higher Education: Seeing ChatGPT Through Universities' Policies, Resources, and Guidelines [11.470910427306569]
本研究は、GenAIの利用に関して、米国トップクラスの大学が確立した学術政策とガイドラインを分析した。
その結果,これらの大学の大部分は,GenAIに対するオープンだが慎重なアプローチを採用していることが示唆された。
発見は、教育実践における教育者に4つの実践的意味を与える。
論文 参考訳(メタデータ) (2023-12-08T18:33:11Z) - Representation-Driven Reinforcement Learning [57.44609759155611]
強化学習のための表現駆動型フレームワークを提案する。
期待値の見積もりとしてポリシーを表現することにより、我々は、探索と搾取を導くために、文脈的盗賊の手法を活用する。
このフレームワークの有効性を,進化的および政策的勾配に基づくアプローチに適用することによって実証する。
論文 参考訳(メタデータ) (2023-05-31T14:59:12Z) - A Comprehensive AI Policy Education Framework for University Teaching
and Learning [0.0]
本研究は,テキスト生成型AI技術の認識と意義を検証し,高等教育のためのAI教育政策を開発することを目的とする。
香港の大学では457人の学生と180人の教師とスタッフからデータを収集した。
本研究は,大学教育と学習におけるAI統合の多面的意味に対処する,AIエコロジー教育政策フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T15:35:39Z) - SAFER: Data-Efficient and Safe Reinforcement Learning via Skill
Acquisition [59.94644674087599]
安全制約下での複雑な制御タスクにおけるポリシー学習を高速化するアルゴリズムであるSAFEty skill pRiors (SAFER)を提案する。
オフラインデータセットでの原則的なトレーニングを通じて、SAFERは安全なプリミティブスキルの抽出を学ぶ。
推論段階では、SAFERで訓練されたポリシーは、安全なスキルを成功のポリシーに組み込むことを学ぶ。
論文 参考訳(メタデータ) (2022-02-10T05:43:41Z) - Goal-Conditioned Reinforcement Learning with Imagined Subgoals [89.67840168694259]
我々は、複雑なタスクの学習を容易にするために、想像上のサブゴールをポリシー学習に組み込むことを提案する。
想像上のサブゴールは、政策と批判を同時に訓練する独立したハイレベルな政策によって予測される。
複雑なロボットナビゲーションと操作タスクに対する我々のアプローチを評価し、既存の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T15:30:59Z) - Policy Evaluation Networks [50.53250641051648]
我々は,簡潔な埋め込みにおいて重要なポリシー情報を保持できる,スケーラブルで差別化可能なフィンガープリント機構を導入する。
実験の結果、これらの3つの要素を組み合わせることで、トレーニングデータを生成するものよりも優れたポリシーを作成できることが示された。
論文 参考訳(メタデータ) (2020-02-26T23:00:27Z) - Preventing Imitation Learning with Adversarial Policy Ensembles [79.81807680370677]
模倣学習は、政策プライバシに関する問題を引き起こす専門家を観察することで、ポリシーを再現することができる。
プロプライエタリなポリシーをクローンする外部オブザーバに対して、どうすれば保護できるのか?
新しい強化学習フレームワークを導入し、準最適政策のアンサンブルを訓練する。
論文 参考訳(メタデータ) (2020-01-31T01:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。