論文の概要: Generative Artificial Intelligence for Academic Research: Evidence from Guidance Issued for Researchers by Higher Education Institutions in the United States
- arxiv url: http://arxiv.org/abs/2503.00664v1
- Date: Sat, 01 Mar 2025 23:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:51.156990
- Title: Generative Artificial Intelligence for Academic Research: Evidence from Guidance Issued for Researchers by Higher Education Institutions in the United States
- Title(参考訳): 学術研究のための創造的人工知能:米国における高等教育機関による研究者への指導からの証拠
- Authors: Amrita Ganguly, Aditya Johri, Areej Ali, Nora McDonald,
- Abstract要約: ジェネレーティブAI(GenAI)は、研究活動の大幅な変化を示唆している。
これにより、GenAIの一見生産的な使用と倫理的懸念のバランスをとる方法について疑問が持ち上がった。
これらの懸念に対処するため、多くの高等教育機関(HEIs)は研究者のための制度的なガイダンスを公開した。
- 参考スコア(独自算出の注目度): 4.06279597585806
- License:
- Abstract: The recent development and use of generative AI (GenAI) has signaled a significant shift in research activities such as brainstorming, proposal writing, dissemination, and even reviewing. This has raised questions about how to balance the seemingly productive uses of GenAI with ethical concerns such as authorship and copyright issues, use of biased training data, lack of transparency, and impact on user privacy. To address these concerns, many Higher Education Institutions (HEIs) have released institutional guidance for researchers. To better understand the guidance that is being provided we report findings from a thematic analysis of guidelines from thirty HEIs in the United States that are classified as R1 or 'very high research activity.' We found that guidance provided to researchers: (1) asks them to refer to external sources of information such as funding agencies and publishers to keep updated and use institutional resources for training and education; (2) asks them to understand and learn about specific GenAI attributes that shape research such as predictive modeling, knowledge cutoff date, data provenance, and model limitations, and educate themselves about ethical concerns such as authorship, attribution, privacy, and intellectual property issues; and (3) includes instructions on how to acknowledge sources and disclose the use of GenAI, how to communicate effectively about their GenAI use, and alerts researchers to long term implications such as over reliance on GenAI, legal consequences, and risks to their institutions from GenAI use. Overall, guidance places the onus of compliance on individual researchers making them accountable for any lapses, thereby increasing their responsibility.
- Abstract(参考訳): 近年のジェネレーティブAI(GenAI)の発展と利用は、ブレインストーミング、提案書、普及、レビューといった研究活動の大幅な変化を示唆している。
このことは、著者や著作権問題、バイアスのあるトレーニングデータの使用、透明性の欠如、ユーザのプライバシーへの影響といった倫理的懸念とGenAIの一見生産的な使用のバランスをとる方法に関する疑問を提起している。
これらの懸念に対処するため、多くの高等教育機関(HEIs)は研究者のための制度的なガイダンスを公開した。
R1または「非常に高い研究活動」に分類される米国の30のHEIのガイドラインのテーマ分析から得られた知見を,より深く理解するために報告する。
研究者は,(1)資金機関や出版社などの外部情報ソースに,教育・教育のための機関資源の更新・活用を依頼すること,(2)予測モデリング,知識切断日,データ証明,モデル制限などの研究を形作る特定のGenAI属性について理解・学習すること,(3)GenAIの使用源の認識・開示方法,GenAI使用の効果的なコミュニケーション方法,及びGenAI使用への依存,法的帰結,およびGenAI使用のリスクへの長期的影響を研究者に警告すること,の3つを見出した。
全体として、ガイダンスは個々の研究者にコンプライアンスのオンスを課し、経過に責任を負わせることによって、責任を増大させる。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Engineering Educators' Perspectives on the Impact of Generative AI in Higher Education [4.06279597585806]
本研究は, 生産型AIの活用と展望について, 工学教育者を対象にした調査から得られた知見を報告する。
我々は、GenAIの利用と快適性、GenAIに対する全体的な視点、教育、学習、研究にGenAIを使うことの課題と潜在的害について質問し、彼らの教室でのGenAIの使用と統合に対するアプローチが、GenAIの経験とそれに対する認識に影響を与えているかどうかを検討した。
論文 参考訳(メタデータ) (2025-02-01T21:29:53Z) - Research Integrity and GenAI: A Systematic Analysis of Ethical Challenges Across Research Phases [0.0]
学界における生成AI(GenAI)ツールの急速な開発と利用は、ユーザにとって複雑で多面的な倫理的課題を提示している。
本研究は、さまざまな研究段階におけるGenAIの使用による倫理的懸念について検討することを目的とする。
論文 参考訳(メタデータ) (2024-12-13T13:31:45Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Future of Information Retrieval Research in the Age of Generative AI [61.56371468069577]
情報検索(IR)の急速に発展する分野では、大規模言語モデル(LLM)のような生成AI技術の統合が、情報の検索やインタラクションの方法を変えつつある。
このパラダイムシフトを認識したビジョンワークショップが2024年7月に開催され、生成AI時代のIRの将来について議論した。
本報告は、潜在的に重要な研究トピックとしての議論の要約を含み、学術、産業実践家、機関、評価キャンペーン、資金提供機関の推薦リストを含む。
論文 参考訳(メタデータ) (2024-12-03T00:01:48Z) - Analysis of Generative AI Policies in Computing Course Syllabi [3.7869332128069773]
2022年にChatGPTがリリースされて以来、ジェネレーティブAI(GenAI)は、全米の高等教育コンピューティング教室でますます使われている。
我々は、米国の54のR1機関から98のコンピューティングコースシラビを収集し、採用したGenAIポリシーと周囲の談話を調査した。
分析の結果,1)GenAI使用に関する指示は,コースの学術的整合性政策の一部であり,2)GenAI使用を禁止あるいは制限するシラビが多かった。
論文 参考訳(メタデータ) (2024-10-29T17:34:10Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Generative AI in Higher Education: Seeing ChatGPT Through Universities' Policies, Resources, and Guidelines [11.470910427306569]
本研究は、GenAIの利用に関して、米国トップクラスの大学が確立した学術政策とガイドラインを分析した。
その結果,これらの大学の大部分は,GenAIに対するオープンだが慎重なアプローチを採用していることが示唆された。
発見は、教育実践における教育者に4つの実践的意味を与える。
論文 参考訳(メタデータ) (2023-12-08T18:33:11Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。