論文の概要: Evaluating LLMs for Career Guidance: Comparative Analysis of Computing Competency Recommendations Across Ten African Countries
- arxiv url: http://arxiv.org/abs/2510.18902v1
- Date: Mon, 20 Oct 2025 20:04:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.22387
- Title: Evaluating LLMs for Career Guidance: Comparative Analysis of Computing Competency Recommendations Across Ten African Countries
- Title(参考訳): キャリアガイダンスのためのLCMの評価:アフリカ10カ国における計算能力勧告の比較分析
- Authors: Precious Eze, Stephanie Lunn, Bruk Berhane,
- Abstract要約: 本研究では,アフリカ10か国における6つの大規模言語モデルが,エントリーレベルのコンピューティングキャリアの期待をどう表現するかを検討した。
クラウドコンピューティングやプログラミングのような技術的スキルは一貫して現れたが、モデルが非技術的能力にどう対処するかという点で顕著な違いが現れた。
オープンソースモデルは、コンテキスト認識の強化と、技術的スキルと専門スキルのバランスの向上を示し、10カ国中9カ国でトップスコアを獲得した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Employers increasingly expect graduates to utilize large language models (LLMs) in the workplace, yet the competencies needed for computing roles across Africa remain unclear given varying national contexts. This study examined how six LLMs, namely ChatGPT 4, DeepSeek, Gemini, Claude 3.5, Llama 3, and Mistral AI, describe entry-level computing career expectations across ten African countries. Using the Computing Curricula 2020 framework and drawing on Digital Colonialism Theory and Ubuntu Philosophy, we analyzed 60 LLM responses to standardized prompts. Technical skills such as cloud computing and programming appeared consistently, but notable differences emerged in how models addressed non-technical competencies, particularly ethics and responsible AI use. Models varied considerably in recognizing country-specific factors, including local technology ecosystems, language requirements, and national policies. Open-source models demonstrated stronger contextual awareness and a better balance between technical and professional skills, earning top scores in nine of ten countries. Still, all models struggled with cultural sensitivity and infrastructure considerations, averaging only 35.4% contextual awareness. This first broad comparison of LLM career guidance for African computing students uncovers entrenched infrastructure assumptions and Western-centric biases, creating gaps between technical recommendations and local needs. The strong performance of cost-effective open-source models (Llama: 4.47/5; DeepSeek: 4.25/5) compared to proprietary alternatives (ChatGPT 4: 3.90/5; Claude: 3.46/5) challenges assumptions about AI tool quality in resource-constrained settings. Our findings highlight how computing competency requirements vary widely across Africa and underscore the need for decolonial approaches to AI in education that emphasize contextual relevance
- Abstract(参考訳): 雇用者は、大学院生が職場で大きな言語モデル(LLM)を利用することをますます期待している。
本研究では,ChatGPT 4,DeepSeek,Gemini,Claude 3.5,Llama 3,Mistral AIの6つのLSMが,アフリカ10カ国におけるエントリーレベルのコンピューティングキャリアの期待をいかに表現しているかを検討した。
The Computing Curricula 2020 framework and drawing on Digital Colonialism Theory and Ubuntu Philosophy, we analyzed 60 LLM response to standardized prompts。
クラウドコンピューティングやプログラミングのような技術的スキルは一貫して現れたが、モデルが非技術的能力、特に倫理とAIの責任を負う使用にどう対処するかという点で顕著な違いが現れた。
モデルは、地域技術エコシステム、言語要件、国家政策など、国固有の要因を認識する際に大きく変化した。
オープンソースモデルは、コンテキスト認識の強化と、技術的スキルと専門スキルのバランスの向上を示し、10カ国中9カ国でトップスコアを獲得した。
それでも、全てのモデルは文化的感受性とインフラの考慮に苦慮し、平均的な文脈認識は35.4%に過ぎなかった。
アフリカコンピューティングの学生を対象としたLLMキャリアガイダンスの最初の広範な比較では、確立されたインフラストラクチャの前提と西洋中心の偏見が明らかになり、技術的レコメンデーションと地域のニーズのギャップが生じる。
コスト効率の高いオープンソースモデル(Llama: 4.47/5; DeepSeek: 4.25/5; DeepSeek: 4.25/5)の強力なパフォーマンスは、プロプライエタリな代替モデル(ChatGPT 4: 3.90/5; Claude: 3.46/5)と比較して、リソース制約された設定におけるAIツールの品質に関する仮定に疑問を呈している。
我々の研究は、コンピュータ能力の要件がアフリカ全体でどのように異なるかを強調し、文脈的関連性を重視した教育におけるAIに対する植民地的アプローチの必要性を強調している。
関連論文リスト
- MDK12-Bench: A Comprehensive Evaluation of Multimodal Large Language Models on Multidisciplinary Exams [50.293164501645975]
MLLM(Multimodal large language model)は、言語と視覚を統合して問題解決を行う。
MLLMのインテリジェンスを測定するための現在のベンチマークは、限られた規模、狭い範囲、構造化されていない知識に悩まされている。
MDK12-Benchは、6つの分野にまたがる実世界のK-12試験から構築された大規模マルチディシプリナベンチマークである。
論文 参考訳(メタデータ) (2025-08-09T06:21:10Z) - How Well Do LLMs Predict Prerequisite Skills? Zero-Shot Comparison to Expert-Defined Concepts [2.3020018305241337]
本稿では,大規模言語モデル (LLM) がゼロショット設定で前提条件のスキルを予測できるかどうかを検討する。
GPT-4, Claude 3, Gemini, LLaMA 4, Qwen2, Score, DeepSeekを含む13の最先端LCMを評価した。
以上の結果から,LLaMA4-Maverick,Claude-3-7-Sonnet,Qwen2-72Bなどのモデルが,専門家の地上真実と密接に一致した予測を生成することがわかった。
論文 参考訳(メタデータ) (2025-07-24T14:54:45Z) - MateInfoUB: A Real-World Benchmark for Testing LLMs in Competitive, Multilingual, and Multimodal Educational Tasks [0.0]
本研究では, バイリンガル (英語-ルーマニア語) マルチモーダル (テキストと画像) による複数質問のデータセットを提案する。
我々のデータセットの特長は、問題のいくつかが論文の推論で簡単に解けるように考えられているのに対して、他の方法ではより効率的であることです。
論文 参考訳(メタデータ) (2025-07-03T20:43:28Z) - Data to Decisions: A Computational Framework to Identify skill requirements from Advertorial Data [1.5621498886998335]
提案手法は,統計解析,データマイニング,自然言語処理といった手法を用いている。
分析結果は、CS&IT産業におけるスキルニーズの現状に関する有用な洞察を提供するだけでなく、求職希望者、研修機関、高等教育・専門訓練機関に実践的な意味を与える。
論文 参考訳(メタデータ) (2025-03-21T09:49:31Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Leveraging AI to Advance Science and Computing Education across Africa: Challenges, Progress and Opportunities [1.2691047660244332]
アフリカにおける科学・コンピューティング教育のための教育ツールにおけるAIの開発と展開について述べる。
SuaCodeは、アフリカ人がスマートフォンを使ってプログラミングを学ぶことができるAIベースのアプリだ。
AutoGradは、グラフィカルおよびインタラクティブなコーディング割り当てのための自動グレーディングおよびフィードバックツールである。
Kwame for Science(クウェーム・フォー・サイエンス、英語: Kwame for Science)は、学生の科学問題に対する即時回答を提供する、WebベースのAI教育アシスタントである。
論文 参考訳(メタデータ) (2024-02-12T04:10:09Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [87.96683299084788]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
人間の認知を模倣して、知識関連能力の4段階の分類を形成し、19ドルのタスクをカバーします。
私たちは、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集された新興コーパスを使用して、目に見えないデータや進化する知識を扱う能力を評価します。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。