論文の概要: Ethical implications of ChatGPT in higher education: A scoping review
- arxiv url: http://arxiv.org/abs/2311.14378v1
- Date: Fri, 24 Nov 2023 09:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:39:28.214648
- Title: Ethical implications of ChatGPT in higher education: A scoping review
- Title(参考訳): 高等教育におけるChatGPTの倫理的意味:スコーピング・レビュー
- Authors: Ming Li, Ariunaa Enkhtur, Fei Cheng, Beverley Anne Yamamoto
- Abstract要約: 本稿では,ChatGPTを教育に活用することの倫理的課題について考察する。
英語,中国語,日本語で書かれた最近の学術論文をレビューすることで,関連研究の概要を概観することを目的とした。
- 参考スコア(独自算出の注目度): 12.63637807749908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This scoping review explores the ethical challenges of using ChatGPT in
education, focusing particularly on issues related to higher education. By
reviewing recent academic articles written in English, Chinese, and Japanese,
we aimed to provide a comprehensive overview of relevant research while
identifying gaps for future considerations. Drawing on Arksey and O'Malley's
(2005) five-stage scoping review framework, we identified research questions,
search terms, and conducted article search from four databases in the target
three languages. Each article was reviewed by at least two researchers
identifying the main ethical issues of utilizing AI in education, particularly
higher education. Our analysis of ethical issues followed the framework
developed by DeepMind (Weiginger et al., 2021) to identify six main areas of
ethical concern in Language Models. The majority of papers were concerned with
misinformation harms (n=25) and/or human-computer interaction related harms
(n=24). Given the rapid deployment of Generative Artificial Intelligence (GAI),
it is imperative for educators to conduct more empirical studies to develop
sound ethical policies for the use of GAI.
- Abstract(参考訳): このスコーピングレビューは、教育においてchatgptを使用する倫理的課題を探求し、特に高等教育に関する問題に焦点を当てている。
英語,中国語,日本語で書かれた最近の学術論文をレビューすることで,今後の考察のギャップを特定しつつ,関連する研究の概要を概観することを目的とした。
Arksey and O'Malley's five-stage scoping review framework(2005)を参考に、調査質問、検索用語を特定し、対象3言語で4つのデータベースから記事検索を行った。
それぞれの論文は少なくとも2人の研究者によってレビューされ、教育、特に高等教育でaiを利用する主な倫理的問題を特定した。
我々はDeepMind(Weiginger et al., 2021)によって開発された言語モデルにおける倫理的関心事の6つの主要な領域を特定する枠組みに従って倫理的問題を分析した。
論文の大半は誤情報害(n=25)と人間とコンピュータの相互作用関連害(n=24)に関係していた。
ジェネレーティブ・人工知能(GAI)の急速な展開を考えると、教育者はより経験的な研究を行い、GAIを使用するための健全な倫理政策を開発することが不可欠である。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Potential Societal Biases of ChatGPT in Higher Education: A Scoping Review [10.78182694538159]
生成人工知能(GAI)モデル(ChatGPTなど)は、広範なデータセットのトレーニングによって社会的バイアスを継承または増幅することができる。
高等教育機関(HEIs)における学生、教員、職員のGAI利用の増加に伴い、これらの技術に関連する倫理的問題や潜在的なバイアスについて検討することが急務である。
このスコーピングレビューは,近年の学術出版物において,GAIに関連するバイアスがどのように研究され,議論されているかを明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T10:00:23Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - The impact and applications of ChatGPT: a systematic review of
literature reviews [0.0]
ChatGPTは、最も広く使われている自然言語処理ツールの1つである。
様々な産業や分野にまたがる応用を実証する何千もの論文が出版され、ChatGPTは研究コミュニティに大きな関心を呼んだ。
複数のレビューや研究から得られた証拠の概要は、さらなる洞察を与え、冗長性を最小化し、さらなる研究が必要な領域を特定することができる。
論文 参考訳(メタデータ) (2023-05-08T17:57:34Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Use of Formal Ethical Reviews in NLP Literature: Historical Trends and
Current Practices [6.195761193461355]
近年,言語技術研究の倫理的側面が注目されている。
専門的な倫理委員会・委員会によって審査・承認された人間の被験者を対象とする研究を得るための標準的慣行である。
NLPの倫理に関する懸念や議論が高まり、NLP研究の形式的倫理的レビューの高まりも観察できるだろうか?
論文 参考訳(メタデータ) (2021-06-02T12:12:59Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Ethical issues with using Internet of Things devices in citizen science
research: A scoping review [1.933681537640272]
この章では、市民科学者とモノのインターネット(Internet of Things)デバイスの両方を活用する科学研究のスコーピングレビューを公開している。
筆者らは,研究過程で遭遇した倫理的問題について,少なくとも短時間の議論を含む研究を選択した。
この分析に続き、市民科学者とIoTデバイスを研究に統合したい研究者に推奨する。
論文 参考訳(メタデータ) (2020-07-18T12:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。