論文の概要: Analyzing Security and Privacy Challenges in Generative AI Usage Guidelines for Higher Education
- arxiv url: http://arxiv.org/abs/2506.20463v1
- Date: Wed, 25 Jun 2025 14:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.770845
- Title: Analyzing Security and Privacy Challenges in Generative AI Usage Guidelines for Higher Education
- Title(参考訳): 高等教育のためのジェネレーティブAI利用ガイドラインにおけるセキュリティとプライバシの課題の分析
- Authors: Bei Yi Ng, Jiarui Li, Xinyuan Tong, Kevin Ye, Gauthami Yenne, Varun Chandrasekaran, Jingjie Li,
- Abstract要約: 大学は、セキュリティとプライバシを保護しながら、GenAIの使用をガイドするポリシーを開発している。
この研究は、プライバシとセキュリティの側面に特に焦点をあてて、これらの新しいポリシーとガイドラインを調べます。
我々は、効果的なプライバシーとセキュリティ保護を提供する上で、機関が直面する重要な課題と機会を特定します。
- 参考スコア(独自算出の注目度): 13.414092505955205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Educators and learners worldwide are embracing the rise of Generative Artificial Intelligence (GenAI) as it reshapes higher education. However, GenAI also raises significant privacy and security concerns, as models and privacy-sensitive user data, such as student records, may be misused by service providers. Unfortunately, end-users often have little awareness of or control over how these models operate. To address these concerns, universities are developing institutional policies to guide GenAI use while safeguarding security and privacy. This work examines these emerging policies and guidelines, with a particular focus on the often-overlooked privacy and security dimensions of GenAI integration in higher education, alongside other academic values. Through a qualitative analysis of GenAI usage guidelines from universities across 12 countries, we identify key challenges and opportunities institutions face in providing effective privacy and security protections, including the need for GenAI safeguards tailored specifically to the academic context.
- Abstract(参考訳): 世界中の教育者や学習者は、高等教育の機会としてジェネレーティブ・人工知能(GenAI)の台頭を受け入れている。
しかし、GenAIはまた、モデルや学生記録のようなプライバシーに敏感なユーザーデータがサービスプロバイダによって誤用される可能性があるため、重要なプライバシーとセキュリティ上の懸念を提起する。
残念なことに、エンドユーザーはしばしばこれらのモデルの動作についてほとんど意識やコントロールを持っていません。
こうした懸念に対処するため、大学はセキュリティとプライバシを保護しつつ、GenAIの使用をガイドする制度的な政策を開発している。
この研究は、これらの新しいポリシーとガイドラインを検証し、特に、高等教育におけるGenAI統合のプライバシーとセキュリティの側面を、他の学術的価値とともに重視する。
我々は、12カ国の大学によるGenAI利用ガイドラインの質的分析を通じて、学術的文脈に特化されたGenAI保護の必要性を含む、効果的なプライバシとセキュリティ保護を提供する上で、機関が直面する重要な課題と機会を特定する。
関連論文リスト
- From Recall to Reasoning: Automated Question Generation for Deeper Math Learning through Large Language Models [44.99833362998488]
先進数学のためのコンテンツ生成を最適化する第1ステップについて検討した。
我々は、GenAIがコース内容に関連する高品質な実践問題を生み出す能力について検討した。
論文 参考訳(メタデータ) (2025-05-17T08:30:10Z) - Generative AI in Education: Student Skills and Lecturer Roles [0.0]
本研究の目的は、学生がGenAIを効果的に活用するために必要な重要な能力を特定し、評価することである。
文献レビューでは、AIリテラシー、批判的思考、倫理的AIプラクティスが最も重要視されている、GenAIエンゲージメントに必要な14の学生スキルが特定された。
講師戦略の研究において,GenAI統合とカリキュラムデザインが最も重視される6つの重要な領域を特定した。
論文 参考訳(メタデータ) (2025-04-28T10:58:30Z) - Generative Artificial Intelligence for Academic Research: Evidence from Guidance Issued for Researchers by Higher Education Institutions in the United States [4.06279597585806]
ジェネレーティブAI(GenAI)は、研究活動の大幅な変化を示唆している。
これにより、GenAIの一見生産的な使用と倫理的懸念のバランスをとる方法について疑問が持ち上がった。
これらの懸念に対処するため、多くの高等教育機関(HEIs)は研究者のための制度的なガイダンスを公開した。
論文 参考訳(メタデータ) (2025-03-01T23:34:02Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Early Adoption of Generative Artificial Intelligence in Computing Education: Emergent Student Use Cases and Perspectives in 2023 [38.83649319653387]
コンピュータ学生のGenAI利用と認識に関する先行研究は限られている。
私たちは、小さなエンジニアリングに焦点を当てたR1大学で、すべてのコンピュータサイエンス専攻を調査しました。
我々は,GenAIと教育に関する新たな議論に対する知見の影響について論じる。
論文 参考訳(メタデータ) (2024-11-17T20:17:47Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Generative AI in Higher Education: Seeing ChatGPT Through Universities' Policies, Resources, and Guidelines [11.470910427306569]
本研究は、GenAIの利用に関して、米国トップクラスの大学が確立した学術政策とガイドラインを分析した。
その結果,これらの大学の大部分は,GenAIに対するオープンだが慎重なアプローチを採用していることが示唆された。
発見は、教育実践における教育者に4つの実践的意味を与える。
論文 参考訳(メタデータ) (2023-12-08T18:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。