論文の概要: Automated Bias Assessment in AI-Generated Educational Content Using CEAT Framework
- arxiv url: http://arxiv.org/abs/2505.12718v1
- Date: Mon, 19 May 2025 05:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.421211
- Title: Automated Bias Assessment in AI-Generated Educational Content Using CEAT Framework
- Title(参考訳): CEATフレームワークを用いたAIによる教育コンテンツの自動バイアス評価
- Authors: Jingyang Peng, Wenyuan Shen, Jiarui Rao, Jionghao Lin,
- Abstract要約: AIが生成したコンテンツ(性別、人種、国家のステレオタイプなど)に埋め込まれたバイアスは、重要な倫理的および教育上の懸念を提起する。
本研究では,文脈適応型埋め込みアソシエーションテストとプロンプトエンジニアリングによる単語抽出を併用した自動バイアス評価手法を提案する。
その結果,r = 0.993のピアソン相関係数を用いて,自動単語集合と手動単語集合の間に高いアライメントを示し,信頼性と一貫したバイアス評価を示した。
- 参考スコア(独自算出の注目度): 0.9282463562486638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Generative Artificial Intelligence (GenAI) have transformed educational content creation, particularly in developing tutor training materials. However, biases embedded in AI-generated content--such as gender, racial, or national stereotypes--raise significant ethical and educational concerns. Despite the growing use of GenAI, systematic methods for detecting and evaluating such biases in educational materials remain limited. This study proposes an automated bias assessment approach that integrates the Contextualized Embedding Association Test with a prompt-engineered word extraction method within a Retrieval-Augmented Generation framework. We applied this method to AI-generated texts used in tutor training lessons. Results show a high alignment between the automated and manually curated word sets, with a Pearson correlation coefficient of r = 0.993, indicating reliable and consistent bias assessment. Our method reduces human subjectivity and enhances fairness, scalability, and reproducibility in auditing GenAI-produced educational content.
- Abstract(参考訳): ジェネレーティブ・人工知能(GenAI)の最近の進歩は、特にチューター教育教材の開発において、教育コンテンツ作成を変革している。
しかし、AIが生成したコンテンツ(性別、人種、国家のステレオタイプなど)に埋め込まれたバイアスは、重要な倫理的および教育上の懸念を提起する。
GenAIの普及にもかかわらず、そのようなバイアスを検出するための体系的な方法が教育資料に限られている。
本研究では,文脈適応型埋め込みアソシエーションテストと単語抽出手法を統合した自動バイアス評価手法を提案する。
我々はこの手法を教師養成の授業に使用するAI生成テキストに適用した。
その結果,r = 0.993のピアソン相関係数を用いて,自動単語集合と手動単語集合の間に高いアライメントを示し,信頼性と一貫したバイアス評価を示した。
提案手法は,GenAIによる教育内容の監査において,人間の主観性を低減し,公平性,拡張性,再現性を向上する。
関連論文リスト
- Enhancing AI-Driven Education: Integrating Cognitive Frameworks, Linguistic Feedback Analysis, and Ethical Considerations for Improved Content Generation [0.0]
本稿では,4つの関連研究から洞察を合成し,AI駆動型教育ツールの強化のための包括的枠組みを提案する。
我々は、認知アセスメントフレームワーク、AI生成フィードバックの言語分析、倫理設計原則を統合し、効果的で責任のあるAIツールの開発を指導する。
論文 参考訳(メタデータ) (2025-05-01T06:36:21Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - SCOPE: A Self-supervised Framework for Improving Faithfulness in Conditional Text Generation [55.61004653386632]
LLM(Large Language Models)は、しばしば幻覚(幻覚)を生成する。
本稿では,不信なサンプルのトレーニングセットを生成するための,新たな自己指導手法を提案する。
そしてトレーニングプロセスを使ってモデルを洗練し、不信なものよりも基礎的なアウトプットの生成を奨励します。
論文 参考訳(メタデータ) (2025-02-19T12:31:58Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - Comprehensive AI Assessment Framework: Enhancing Educational Evaluation with Ethical AI Integration [0.0]
本稿では、Perkins、Furze、Roe、MacVaughによるAIA(AIAS)の進化版である包括的AIアセスメントフレームワーク(CAIAF)について述べる。
CAIAFは厳格な倫理的ガイドラインを取り入れており、教育レベルと高度なAI能力に基づいて明確に区別されている。
このフレームワークは、より良い学習結果を保証するとともに、学術的完全性を維持し、AIの責任ある利用を促進する。
論文 参考訳(メタデータ) (2024-06-07T07:18:42Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - INSTRUCTSCORE: Explainable Text Generation Evaluation with Finegrained
Feedback [80.57617091714448]
テキスト生成のための説明可能な評価指標であるInstructScoreを提案する。
LLaMAに基づいてテキスト評価基準を微調整し、生成されたテキストのスコアと人間の可読性診断レポートを生成する。
論文 参考訳(メタデータ) (2023-05-23T17:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。