論文の概要: Research Integrity and GenAI: A Systematic Analysis of Ethical Challenges Across Research Phases
- arxiv url: http://arxiv.org/abs/2412.10134v1
- Date: Fri, 13 Dec 2024 13:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:38.427877
- Title: Research Integrity and GenAI: A Systematic Analysis of Ethical Challenges Across Research Phases
- Title(参考訳): 研究インテリジェンスとGenAI:研究段階における倫理的課題の体系的分析
- Authors: Sonja Bjelobaba, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, Debora Weber-Wulff,
- Abstract要約: 学界における生成AI(GenAI)ツールの急速な開発と利用は、ユーザにとって複雑で多面的な倫理的課題を提示している。
本研究は、さまざまな研究段階におけるGenAIの使用による倫理的懸念について検討することを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Background: The rapid development and use of generative AI (GenAI) tools in academia presents complex and multifaceted ethical challenges for its users. Earlier research primarily focused on academic integrity concerns related to students' use of AI tools. However, limited information is available on the impact of GenAI on academic research. This study aims to examine the ethical concerns arising from the use of GenAI across different phases of research and explores potential strategies to encourage its ethical use for research purposes. Methods: We selected one or more GenAI platforms applicable to various research phases (e.g. developing research questions, conducting literature reviews, processing data, and academic writing) and analysed them to identify potential ethical concerns relevant for that stage. Results: The analysis revealed several ethical concerns, including a lack of transparency, bias, censorship, fabrication (e.g. hallucinations and false data generation), copyright violations, and privacy issues. These findings underscore the need for cautious and mindful use of GenAI. Conclusions: The advancement and use of GenAI are continuously evolving, necessitating an ongoing in-depth evaluation. We propose a set of practical recommendations to support researchers in effectively integrating these tools while adhering to the fundamental principles of ethical research practices.
- Abstract(参考訳): 背景: 学界における生成AI(GenAI)ツールの急速な開発と利用は、ユーザにとって複雑で多面的な倫理的課題を提示している。
以前の研究は、主に学生のAIツールの使用に関する学術的整合性に関する懸念に焦点を当てていた。
しかし、学術研究におけるGenAIの影響については、限られた情報しか得られていない。
本研究は、さまざまな研究段階におけるGenAIの使用による倫理的懸念について検討し、その倫理的利用を研究目的に促進するための潜在的戦略を検討することを目的とする。
方法: さまざまな研究段階に適用可能な1つ以上のGenAIプラットフォーム(研究課題の策定,文献レビューの実施,データ処理,学術文書作成など)を選択し,その段階に関連する潜在的な倫理的懸念を明らかにするために分析を行った。
結果: この分析は、透明性の欠如、偏見、検閲、製造(例えば幻覚と偽データ生成)、著作権侵害、プライバシー問題など、いくつかの倫理的懸念を明らかにした。
これらの知見は、GenAIの慎重かつマインドフルな使用の必要性を浮き彫りにした。
結論: GenAIの進歩と利用は継続的な進化を続けており、現在進行中の詳細な評価を必要としている。
本稿では,これらのツールを効果的に統合する上で,倫理的な研究実践の基本原則を守りながら,研究者を支援するための実践的勧告を提案する。
関連論文リスト
- Generative AI Tools in Academic Research: Applications and Implications for Qualitative and Quantitative Research Methodologies [0.0]
本研究では,生成人工知能(GenAI)が学術研究に与える影響について検討し,質的・定量的データ分析への応用に焦点をあてる。
GenAIツールは急速に進化し、研究の生産性を高め、複雑な分析プロセスを民主化するための新たな可能性を提供する。
学術的実践への統合は、研究の完全性、セキュリティ、著作家精神、そして学術作品の変化する性質に関する重要な疑問を提起する。
論文 参考訳(メタデータ) (2024-08-13T13:10:03Z) - A Systematic Review of Generative AI for Teaching and Learning Practice [0.37282630026096586]
高等教育におけるGenAIシステムの利用に関するガイドラインは合意されていない。
HEにおける学際的・多次元的な研究は、共同研究を通じて必要である。
論文 参考訳(メタデータ) (2024-06-13T18:16:27Z) - The collective use and perceptions of generative AI tools in digital humanities research: Survey-based results [0.6906005491572401]
創造的な人工知能技術は、デジタルヒューマニティに重要な意味を持つ研究環境に革命をもたらした。
本稿では、DH研究者がChatGPTなどの生成AI技術を研究に採用し、批判的に評価する方法について考察する。
論文 参考訳(メタデータ) (2024-04-18T18:33:00Z) - Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist [10.980912140648648]
我々は医療における創造的人工知能(GenAI)に関する倫理的議論のスコーピングレビューを行う。
我々は,GenAI研究における倫理的議論の包括的評価と透明な文書化のためのチェックリストを開発することにより,ギャップを減らすことを提案する。
論文 参考訳(メタデータ) (2023-11-02T11:55:07Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。