論文の概要: Detecting Gender Stereotypes in Scratch Programming Tutorials
- arxiv url: http://arxiv.org/abs/2510.11064v1
- Date: Mon, 13 Oct 2025 07:04:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.232337
- Title: Detecting Gender Stereotypes in Scratch Programming Tutorials
- Title(参考訳): Scratch Programming Tutorialsにおけるジェンダーステレオタイプの検出
- Authors: Isabella Graßl, Benedikt Fein, Gordon Fraser,
- Abstract要約: プログラミングコースにおけるジェンダーステレオタイプはしばしば気付かないが、若い学習者の興味や学習に悪影響を及ぼす可能性がある。
文字,内容,指示,プログラミング概念を考慮した性別バイアス評価フレームワークを開発した。
- 参考スコア(独自算出の注目度): 18.696852838127853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender stereotypes in introductory programming courses often go unnoticed, yet they can negatively influence young learners' interest and learning, particularly under-represented groups such as girls. Popular tutorials on block-based programming with Scratch may unintentionally reinforce biases through character choices, narrative framing, or activity types. Educators currently lack support in identifying and addressing such bias. With large language models~(LLMs) increasingly used to generate teaching materials, this problem is potentially exacerbated by LLMs trained on biased datasets. However, LLMs also offer an opportunity to address this issue. In this paper, we explore the use of LLMs for automatically identifying gender-stereotypical elements in Scratch tutorials, thus offering feedback on how to improve teaching content. We develop a framework for assessing gender bias considering characters, content, instructions, and programming concepts. Analogous to how code analysis tools provide feedback on code in terms of code smells, we operationalise this framework using an automated tool chain that identifies *gender stereotype smells*. Evaluation on 73 popular Scratch tutorials from leading educational platforms demonstrates that stereotype smells are common in practice. LLMs are not effective at detecting them, but our gender bias evaluation framework can guide LLMs in generating tutorials with fewer stereotype smells.
- Abstract(参考訳): 入門プログラミングコースにおけるジェンダーのステレオタイプは、しばしば気づかないが、若い学習者の興味や学習、特に少女のような表現不足の集団に悪影響を及ぼす可能性がある。
Scratchを使ったブロックベースのプログラミングに関する一般的なチュートリアルは、キャラクタの選択、物語のフレーミング、アクティビティタイプを通じて、意図せずにバイアスを強化することができる。
教育者は現在、そのようなバイアスを特定し、対処するサポートを欠いている。
大きな言語モデル~(LLM)が教材を生成するのにますます使われるようになると、この問題は偏りのあるデータセットで訓練されたLLMによってさらに悪化する可能性がある。
しかし、LSMはこの問題に対処する機会を提供する。
本稿では、Scratchチュートリアルにおけるジェンダーステレオタイプ要素の自動識別にLLMを用いることについて検討し、学習内容の改善に関するフィードバックを提供する。
文字,内容,指示,プログラミング概念を考慮した性別バイアス評価フレームワークを開発した。
コード分析ツールがコードの臭いに関するフィードバックを提供する方法に似て、私たちはこのフレームワークを、*ジェンダーのステレオタイプの匂いを識別する自動化ツールチェーンを使って運用しています*。
先進的な教育プラットフォームによる73の人気のあるScratchチュートリアルの評価は、実際にステレオタイプの匂いが一般的であることを実証している。
LLMは検出には有効ではないが、私たちの性別偏見評価フレームワークは、ステレオタイプの臭いが少ないチュートリアルを生成する際にLCMを導くことができる。
関連論文リスト
- More Women, Same Stereotypes: Unpacking the Gender Bias Paradox in Large Language Models [3.154053412440065]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、社会的偏見を反映または増幅する傾向について懸念が持たれている。
本研究では,LSMにおける性別バイアスを明らかにするための新しい評価枠組みを提案する。
10の著名なLSMの体系的な分析は、職業全体にわたって女性キャラクターを過剰に表現する一貫したパターンを示している。
論文 参考訳(メタデータ) (2025-03-20T07:15:45Z) - Unsupervised Concept Vector Extraction for Bias Control in LLMs [14.807513989606647]
大規模言語モデル(LLM)は、ステレオタイプを永続し、バイアスを示すことが知られている。
表現工学を応用して「ジェンダー」の概念がLLM内でどのように表現されるかを研究する。
モデル予測の高精度なステアリングを可能にするプロジェクションベース手法を開発した。
論文 参考訳(メタデータ) (2025-02-27T03:24:09Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Hire Me or Not? Examining Language Model's Behavior with Occupation Attributes [7.718858707298602]
大規模言語モデル(LLM)は、採用やレコメンデーションシステムなど、プロダクションパイプラインに広く統合されている。
本稿では、職業意思決定の文脈において、ジェンダーステレオタイプに関するLCMの行動について検討する。
論文 参考訳(メタデータ) (2024-05-06T18:09:32Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Learning to Prompt with Text Only Supervision for Vision-Language Models [107.282881515667]
メソッドの1つのブランチは、視覚情報を使用してプロンプトを学習することでCLIPに適応する。
別のアプローチでは、大規模な言語モデルからクラス記述を生成することで、トレーニング不要の手法を利用する。
そこで本研究では,テキストデータのみを用いてプロンプトを学習することで,両ストリームの強みを組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-01-04T18:59:49Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。