論文の概要: Potential Societal Biases of ChatGPT in Higher Education: A Scoping
Review
- arxiv url: http://arxiv.org/abs/2311.14381v1
- Date: Fri, 24 Nov 2023 10:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:22:26.868409
- Title: Potential Societal Biases of ChatGPT in Higher Education: A Scoping
Review
- Title(参考訳): 高等教育におけるChatGPTの社会的バイアスの可能性:スコーピング・レビュー
- Authors: Ming Li, Ariunaa Enkhtur, Beverley Anne Yamamoto, Fei Cheng
- Abstract要約: ChatGPTや他の生成人工知能(GAI)モデルは、一般的な社会的バイアスを継承し、増幅する傾向がある。
潜在的なバイアスのような倫理的問題を調べる必要がある。
- 参考スコア(独自算出の注目度): 12.63637807749908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ChatGPT and other Generative Artificial Intelligence (GAI) models tend to
inherit and even amplify prevailing societal biases as they are trained on
large amounts of existing data. Given the increasing usage of ChatGPT and other
GAI by students, faculty members, and staff in higher education institutions
(HEIs), there is an urgent need to examine the ethical issues involved such as
its potential biases. In this scoping review, we clarify the ways in which
biases related to GAI in higher education settings have been discussed in
recent academic publications and identify what type of potential biases are
commonly reported in this body of literature. We searched for academic articles
written in English, Chinese, and Japanese across four main databases concerned
with GAI usage in higher education and bias. Our findings show that while there
is an awareness of potential biases around large language models (LLMs) and
GAI, the majority of articles touch on ``bias'' at a relatively superficial
level. Few identify what types of bias may occur under what circumstances.
Neither do they discuss the possible implications for the higher education,
staff, faculty members, or students. There is a notable lack of empirical work
at this point, and we call for higher education researchers and AI experts to
conduct more research in this area.
- Abstract(参考訳): ChatGPTや他のジェネレーティブ人工知能(GAI)モデルは、既存の大量のデータに基づいてトレーニングされた社会的バイアスを継承し、さらに増幅する傾向がある。
高等教育機関(heis)の学生・教員・職員によるチャットgptやその他のガイの利用が増加していることから,その潜在的なバイアスなどの倫理的問題を検討することが急務である。
本稿では,近年の学術論文において,高等教育環境におけるGAIに関するバイアスが議論されている方法を明らかにするとともに,本文献で一般的に報告される潜在的なバイアスの種類を明らかにする。
英語,中国語,日本語で書かれた学術論文を,高等教育におけるgaiの利用とバイアスに関する4つの主要データベースで検索した。
以上の結果から,大言語モデル(llm)とgai(gai)には潜在的なバイアスが認識されているものの,記事の大部分は比較的表面的なレベルで「バイアス」に触れていることがわかった。
どのような状況でどのようなバイアスが発生するかを特定することは少ない。
高等教育、職員、教員、または学生に影響を及ぼす可能性についても論じていない。
現時点では経験的な研究が不足しており、私たちは高等教育の研究者やaiの専門家に、この分野でより多くの研究を行うように求めています。
関連論文リスト
- Fairness and Bias in Multimodal AI: A Survey [0.20971479389679337]
人工知能(AI)システムにおける公平性とバイアスに対処することの重要性は、過度に強調できない。
我々は,LMM(Large Multimodal Model)における,LMM(Large Language Model)とLLM(Large Language Model)の比較的最小の妥当性と偏見について,ギャップを埋める。
我々は、両方のタイプのAIに関連するデータセットとモデルの50例と、それらに影響を与えるバイアスの課題を提示します。
論文 参考訳(メタデータ) (2024-06-27T11:26:17Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Ethical Implications of ChatGPT in Higher Education: A Scoping Review [11.567239416304714]
本稿では,ChatGPTを高等教育に活用する上での倫理的課題について考察する。
英語,中国語,日本語の最近の学術論文をレビューすることで,本論文の深層的な検討とギャップの特定をめざした。
論文 参考訳(メタデータ) (2023-11-24T09:52:49Z) - Data-Driven Analysis of Gender Fairness in the Software Engineering
Academic Landscape [4.580653005421453]
本研究では,情報学(INF)およびソフトウェア工学(SE)イタリアのコミュニティにおける,学術的昇進におけるジェンダーバイアスの問題について検討する。
我々はまず,学界におけるジェンダーバイアスの問題がこれまでどのように対処されてきたかを評価するために文献レビューを実施している。
次に、イタリアの学術振興におけるジェンダーバイアスの分析に必要なINFとSEデータを収集・前処理するプロセスについて述べる。
実施した分析から,SEコミュニティが助教授への昇進のバイアスが高いこと,全教授への昇進のバイアスがINFコミュニティ全体と比較して小さいことを観察した。
論文 参考訳(メタデータ) (2023-09-20T12:04:56Z) - Challenges in Annotating Datasets to Quantify Bias in Under-represented
Society [7.9342597513806865]
ベンチマークバイアスデータセットは、二項性分類と倫理的・人種的考察のために開発された。
その結果, ニュージーランド (NZ) の人口を対象に, 偏見を定量化するための注釈付きデータセットが欠如していることから, ニュージーランド (NZ) 人口のベンチマークデータセットを作成した。
本研究は、手動のアノテーションプロセスの概要、遭遇した課題の概要、学習した教訓、今後の研究への提言について述べる。
論文 参考訳(メタデータ) (2023-09-11T22:24:39Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Use of Formal Ethical Reviews in NLP Literature: Historical Trends and
Current Practices [6.195761193461355]
近年,言語技術研究の倫理的側面が注目されている。
専門的な倫理委員会・委員会によって審査・承認された人間の被験者を対象とする研究を得るための標準的慣行である。
NLPの倫理に関する懸念や議論が高まり、NLP研究の形式的倫理的レビューの高まりも観察できるだろうか?
論文 参考訳(メタデータ) (2021-06-02T12:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。