論文の概要: Analyzing Security and Privacy Challenges in Generative AI Usage Guidelines for Higher Education
- arxiv url: http://arxiv.org/abs/2506.20463v1
- Date: Wed, 25 Jun 2025 14:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.770845
- Title: Analyzing Security and Privacy Challenges in Generative AI Usage Guidelines for Higher Education
- Title(参考訳): 高等教育のためのジェネレーティブAI利用ガイドラインにおけるセキュリティとプライバシの課題の分析
- Authors: Bei Yi Ng, Jiarui Li, Xinyuan Tong, Kevin Ye, Gauthami Yenne, Varun Chandrasekaran, Jingjie Li,
- Abstract要約: 大学は、セキュリティとプライバシを保護しながら、GenAIの使用をガイドするポリシーを開発している。
この研究は、プライバシとセキュリティの側面に特に焦点をあてて、これらの新しいポリシーとガイドラインを調べます。
我々は、効果的なプライバシーとセキュリティ保護を提供する上で、機関が直面する重要な課題と機会を特定します。
- 参考スコア(独自算出の注目度): 13.414092505955205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Educators and learners worldwide are embracing the rise of Generative Artificial Intelligence (GenAI) as it reshapes higher education. However, GenAI also raises significant privacy and security concerns, as models and privacy-sensitive user data, such as student records, may be misused by service providers. Unfortunately, end-users often have little awareness of or control over how these models operate. To address these concerns, universities are developing institutional policies to guide GenAI use while safeguarding security and privacy. This work examines these emerging policies and guidelines, with a particular focus on the often-overlooked privacy and security dimensions of GenAI integration in higher education, alongside other academic values. Through a qualitative analysis of GenAI usage guidelines from universities across 12 countries, we identify key challenges and opportunities institutions face in providing effective privacy and security protections, including the need for GenAI safeguards tailored specifically to the academic context.
- Abstract(参考訳): 世界中の教育者や学習者は、高等教育の機会としてジェネレーティブ・人工知能(GenAI)の台頭を受け入れている。
しかし、GenAIはまた、モデルや学生記録のようなプライバシーに敏感なユーザーデータがサービスプロバイダによって誤用される可能性があるため、重要なプライバシーとセキュリティ上の懸念を提起する。
残念なことに、エンドユーザーはしばしばこれらのモデルの動作についてほとんど意識やコントロールを持っていません。
こうした懸念に対処するため、大学はセキュリティとプライバシを保護しつつ、GenAIの使用をガイドする制度的な政策を開発している。
この研究は、これらの新しいポリシーとガイドラインを検証し、特に、高等教育におけるGenAI統合のプライバシーとセキュリティの側面を、他の学術的価値とともに重視する。
我々は、12カ国の大学によるGenAI利用ガイドラインの質的分析を通じて、学術的文脈に特化されたGenAI保護の必要性を含む、効果的なプライバシとセキュリティ保護を提供する上で、機関が直面する重要な課題と機会を特定する。
関連論文リスト
- Integrating Generative AI-enhanced Cognitive Systems in Higher Education: From Stakeholder Perceptions to a Conceptual Framework considering the EU AI Act [0.7945222903786706]
GenAIは、パーソナライズされた学習を可能にし、教育サービスを合理化することによって、認知システムを強化することが期待されている。
高等教育におけるGenAIに対する利害関係者の認識は、文化的、懲戒的、制度的な文脈によって形作られたままである。
本稿では,情報工学と電気工学の分野におけるGenAIの認識について考察する。
論文 参考訳(メタデータ) (2026-02-11T12:44:03Z) - Generative AI in Saudi Arabia: A National Survey of Adoption, Risks, and Public Perceptions [0.6010778467667774]
生成人工知能(GenAI)は、ビジョン2030の下でサウジアラビアのデジタルトランスフォーメーションに急速に浸透しつつある。
本研究はサウジアラビア国民のGenAI関与の早期スナップショットを提供する。
論文 参考訳(メタデータ) (2026-01-26T07:40:41Z) - Topic Discovery and Classification for Responsible Generative AI Adaptation in Higher Education [0.0]
著者らは、サイラビや機関の政策ウェブサイトに見られるAI関連のポリシーを発見し、分類する自動化システムを開発している。
構造的かつ解釈可能な政策情報を提供することにより、教育におけるGenAI技術の安全で公平かつ教育的に整合した利用を促進する。
論文 参考訳(メタデータ) (2025-12-17T23:39:19Z) - Generative AI for Biosciences: Emerging Threats and Roadmap to Biosecurity [56.331312963880215]
生物科学における生成人工知能(GenAI)は、バイオテクノロジー、医学、合成生物学を変革している。
この概要は、バイオサイエンスにおけるGenAIの現状と、脱獄攻撃やプライバシーリスクから、自律的なAIエージェントによって引き起こされるデュアルユースな課題まで、出現する脅威ベクターの概要を概説する。
我々は、厳格なデータフィルタリング、開発中の倫理原則との整合性、有害な要求をブロックするためのリアルタイム監視など、GenAIの安全性に対する多層的なアプローチを提唱する。
論文 参考訳(メタデータ) (2025-10-13T00:24:41Z) - "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Generative AI-Empowered Secure Communications in Space-Air-Ground Integrated Networks: A Survey and Tutorial [107.26005706569498]
宇宙航空地上統合ネットワーク(SAGIN)は、その特性上、前例のないセキュリティ上の課題に直面している。
Generative AI(GAI)は、データを合成し、セマンティクスを理解し、自律的な決定を行うことで、SAGINセキュリティを保護できる変革的アプローチである。
論文 参考訳(メタデータ) (2025-08-04T01:42:57Z) - The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - From Recall to Reasoning: Automated Question Generation for Deeper Math Learning through Large Language Models [44.99833362998488]
先進数学のためのコンテンツ生成を最適化する第1ステップについて検討した。
我々は、GenAIがコース内容に関連する高品質な実践問題を生み出す能力について検討した。
論文 参考訳(メタデータ) (2025-05-17T08:30:10Z) - The GenAI Generation: Student Views of Awareness, Preparedness, and Concern [1.5709900716890133]
均質な政策・構造の発展に乗じて、源内は独自の時代を定め、元内世代を興した。
本研究では, 学生のGenAIに対する意識を, 任意のオープンエンド質問による簡潔な調査を通じて調査する。
GenAIに対するカリキュラムの露出が大きい学生は、より準備が整う傾向があり、それのない学生は脆弱性や不確実性を表現する傾向にある。
論文 参考訳(メタデータ) (2025-05-04T19:37:13Z) - Generative AI in Education: Student Skills and Lecturer Roles [0.0]
本研究の目的は、学生がGenAIを効果的に活用するために必要な重要な能力を特定し、評価することである。
文献レビューでは、AIリテラシー、批判的思考、倫理的AIプラクティスが最も重要視されている、GenAIエンゲージメントに必要な14の学生スキルが特定された。
講師戦略の研究において,GenAI統合とカリキュラムデザインが最も重視される6つの重要な領域を特定した。
論文 参考訳(メタデータ) (2025-04-28T10:58:30Z) - Generative Artificial Intelligence for Academic Research: Evidence from Guidance Issued for Researchers by Higher Education Institutions in the United States [4.06279597585806]
ジェネレーティブAI(GenAI)は、研究活動の大幅な変化を示唆している。
これにより、GenAIの一見生産的な使用と倫理的懸念のバランスをとる方法について疑問が持ち上がった。
これらの懸念に対処するため、多くの高等教育機関(HEIs)は研究者のための制度的なガイダンスを公開した。
論文 参考訳(メタデータ) (2025-03-01T23:34:02Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Early Adoption of Generative Artificial Intelligence in Computing Education: Emergent Student Use Cases and Perspectives in 2023 [38.83649319653387]
コンピュータ学生のGenAI利用と認識に関する先行研究は限られている。
私たちは、小さなエンジニアリングに焦点を当てたR1大学で、すべてのコンピュータサイエンス専攻を調査しました。
我々は,GenAIと教育に関する新たな議論に対する知見の影響について論じる。
論文 参考訳(メタデータ) (2024-11-17T20:17:47Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Generative AI in Higher Education: Seeing ChatGPT Through Universities' Policies, Resources, and Guidelines [11.470910427306569]
本研究は、GenAIの利用に関して、米国トップクラスの大学が確立した学術政策とガイドラインを分析した。
その結果,これらの大学の大部分は,GenAIに対するオープンだが慎重なアプローチを採用していることが示唆された。
発見は、教育実践における教育者に4つの実践的意味を与える。
論文 参考訳(メタデータ) (2023-12-08T18:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。