論文の概要: A Justice Lens on Fairness and Ethics Courses in Computing Education: LLM-Assisted Multi-Perspective and Thematic Evaluation
- arxiv url: http://arxiv.org/abs/2510.18931v1
- Date: Tue, 21 Oct 2025 13:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.325859
- Title: A Justice Lens on Fairness and Ethics Courses in Computing Education: LLM-Assisted Multi-Perspective and Thematic Evaluation
- Title(参考訳): コンピュータ教育における公正と倫理のコースに関する司法レンズ--LLM支援多目的・テーマ評価
- Authors: Kenya S. Andrews, Deborah Dormah Kanubala, Kehinde Aruleba, Francisco Enrique Vicente Castro, Renata A Revelo,
- Abstract要約: Syllabus分析は、コース内のカバレッジ、深さ、プラクティス、期待を評価する方法を提供する。
そこで我々は,ジャスティス指向のスコアリングルーブリックを開発し,マルチパースペクティブ・ロール・シミュレーションによるシラビのレビューを大規模言語モデル (LLM) に依頼した。
マルチパースペクティブ評価は、AI/MLと関連するコンピューティングコースのカリキュラム設計における隠れたギャップを埋めるために、微妙でロール固有の優先順位に注意する上で役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Course syllabi set the tone and expectations for courses, shaping the learning experience for both students and instructors. In computing courses, especially those addressing fairness and ethics in artificial intelligence (AI), machine learning (ML), and algorithmic design, it is imperative that we understand how approaches to navigating barriers to fair outcomes are being addressed.These expectations should be inclusive, transparent, and grounded in promoting critical thinking. Syllabus analysis offers a way to evaluate the coverage, depth, practices, and expectations within a course. Manual syllabus evaluation, however, is time-consuming and prone to inconsistency. To address this, we developed a justice-oriented scoring rubric and asked a large language model (LLM) to review syllabi through a multi-perspective role simulation. Using this rubric, we evaluated 24 syllabi from four perspectives: instructor, departmental chair, institutional reviewer, and external evaluator. We also prompted the LLM to identify thematic trends across the courses. Findings show that multiperspective evaluation aids us in noting nuanced, role-specific priorities, leveraging them to fill hidden gaps in curricula design of AI/ML and related computing courses focused on fairness and ethics. These insights offer concrete directions for improving the design and delivery of fairness, ethics, and justice content in such courses.
- Abstract(参考訳): コースシラビはコースのトーンと期待を設定し、学生とインストラクターの両方の学習体験を形作る。
コンピューティングコース、特に人工知能(AI)、機械学習(ML)、アルゴリズム設計における公正性と倫理に対処するコースでは、公正な結果への障壁をナビゲートするためのアプローチがどのように対処されているかを理解することが不可欠であり、これらの期待は包括的で透明であり、批判的思考を促進するための基盤となるべきである。
Syllabus分析は、コース内のカバレッジ、深さ、プラクティス、期待を評価する方法を提供する。
しかし、手動のシラバス評価は時間がかかり、矛盾しがちである。
そこで我々は,ジャスティス指向のスコアリングルーブリックを開発し,マルチパースペクティブ・ロール・シミュレーションによるシラビのレビューを大規模言語モデル (LLM) に依頼した。
このルーリックを用いて,インストラクター,学部の椅子,機関のレビュアー,外部評価器の4つの視点から24シラビを評価した。
また, LLM に対して, コースごとの主題的傾向の同定を促した。
マルチパースペクティブな評価は、公正さと倫理に焦点を当てたAI/MLおよび関連するコンピューティングコースのカリキュラム設計における隠れたギャップを埋めるために、あいまいでロール固有の優先順位に注意する上で役立ちます。
これらの洞察は、これらのコースにおける公正さ、倫理、正義のコンテンツの設計と提供を改善するための具体的な方向性を提供する。
関連論文リスト
- Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI [0.0]
大規模言語モデル(LLM)は、学生、教師、同僚が「学習者が行く場所」、「学習者が現在いる場所」、「学習者を前進させる方法」を理解するのに役立つ。
本総説では,LSMを形式的評価に統合するための総合的な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-29T12:52:43Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - An Exploration of Higher Education Course Evaluation by Large Language Models [4.943165921136573]
人工知能(AI)における大規模言語モデル(LLM)は、コース評価プロセスを強化するための新しい道筋を示す。
本研究は,中国大大学の100コースにわたる厳密な実験を行い,複数の視点から自動コース評価へのLLMの適用について検討した。
論文 参考訳(メタデータ) (2024-11-03T20:43:52Z) - CourseAssist: Pedagogically Appropriate AI Tutor for Computer Science Education [1.052788652996288]
このポスターでは、コンピュータサイエンス教育用に作られた新しいLLMベースのチューターシステムであるCourseAssistを紹介している。
一般的なLLMシステムとは異なり、CourseAssistは検索強化生成、ユーザ意図分類、質問分解を使用して、AI応答を特定のコース材料や学習目標と整合させる。
論文 参考訳(メタデータ) (2024-05-01T20:43:06Z) - Enhancing Instructional Quality: Leveraging Computer-Assisted Textual
Analysis to Generate In-Depth Insights from Educational Artifacts [13.617709093240231]
本研究では、人工知能(AI)と機械学習(ML)が教育内容、教師の談話、学生の反応を分析して教育改善を促進する方法について検討する。
私たちは、教師のコーチング、学生のサポート、コンテンツ開発など、AI/ML統合が大きな利点をもたらす重要な領域を特定します。
本稿では,AI/ML技術と教育的目標との整合性の重要性を強調し,その教育的可能性を実現する。
論文 参考訳(メタデータ) (2024-03-06T18:29:18Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。