論文の概要: OpenCoderRank: AI-Driven Technical Assessments Made Easy
- arxiv url: http://arxiv.org/abs/2509.06774v1
- Date: Mon, 08 Sep 2025 14:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.203138
- Title: OpenCoderRank: AI-Driven Technical Assessments Made Easy
- Title(参考訳): OpenCoderRank: AI駆動の技術的アセスメントが簡単に
- Authors: Hridoy Sankar Dutta, Sana Ansari, Swati Kumari, Shounak Ravi Bhalerao,
- Abstract要約: 本稿では,技術評価をシミュレートするために設計された,使い易いOpenCoderRankを紹介する。
問題セッターと問題解決者の間の橋渡しとして機能し、問題解決者が時間制約や不慣れな問題に備えるのを助ける。
- 参考スコア(独自算出の注目度): 1.0499611180329802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations and educational institutions use time-bound assessment tasks to evaluate coding and problem-solving skills. These assessments measure not only the correctness of the solutions, but also their efficiency. Problem setters (educator/interviewer) are responsible for crafting these challenges, carefully balancing difficulty and relevance to create meaningful evaluation experiences. Conversely, problem solvers (student/interviewee) apply coding efficiency and logical thinking to arrive at correct solutions. In the era of Large Language Models (LLMs), LLMs assist problem setters in generating diverse and challenging questions, but they can undermine assessment integrity for problem solvers by providing easy access to solutions. This paper introduces OpenCoderRank, an easy-to-use platform designed to simulate technical assessments. It acts as a bridge between problem setters and problem solvers, helping solvers prepare for time constraints and unfamiliar problems while allowing setters to self-host assessments, offering a no-cost and customizable solution for technical assessments in resource-constrained environments.
- Abstract(参考訳): 組織や教育機関は、コーディングと問題解決のスキルを評価するために、タイムバウンドアセスメントタスクを使用します。
これらの評価は、解の正しさだけでなく、その効率も測定する。
問題セッター(教育者/インタビュアー)はこれらの課題の作成に責任を持ち、難易度と関連性を慎重にバランスさせ、有意義な評価経験を生み出す。
逆に、問題解決者(学生/インタビュータ)は、正しい解に到達するために、コーディング効率と論理的思考を適用します。
LLM(Large Language Models)の時代において、LLMは多様で挑戦的な質問を生成するために問題セッターを支援するが、ソリューションへの容易にアクセスを提供することで問題解決者に対する評価の整合性を損なうことができる。
本稿では,技術評価をシミュレートするために設計された,使い易いOpenCoderRankを紹介する。
これは問題セッターと問題解決者の間の橋渡しとして機能し、解決者が時間制約や不慣れな問題に備えるのを助けながら、セッターが自己ホスト型アセスメントを許容し、リソース制約のある環境で技術的アセスメントのための費用がかからない、カスタマイズ可能なソリューションを提供する。
関連論文リスト
- BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
BloomWiseは認知にインスパイアされた大規模言語モデル(LLM)のプロンプト技術である
解法をより説明しやすいものにしながら、数学的問題解決におけるLLMの性能を高めるように設計されている。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - Estimating Difficulty Levels of Programming Problems with Pre-trained Model [18.92661958433282]
プログラミング問題の難易度は、生徒の適応学習を導く上で不可欠な基準となっている。
テキスト記述とコードの解の例から,各プログラム問題の難易度自動推定の問題を定式化する。
この問題に対処するため,テキストモダリティとコードモダリティの2つの事前学習モデルを統一モデルに分割することを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:38:20Z) - Learning Task Decomposition to Assist Humans in Competitive Programming [90.4846613669734]
タスク分解学習のための新しい目的,いわゆる値(AssistV)を導入する。
我々は、さまざまな分解されたソリューションに対して、人間の修理経験のデータセットを収集する。
人間の177時間以内の研究では、非専門家が33.3%の問題を解き、それらを3.3倍スピードアップさせ、無支援の専門家にマッチさせる権限を与える。
論文 参考訳(メタデータ) (2024-06-07T03:27:51Z) - Competition-Level Problems are Effective LLM Evaluators [121.15880285283116]
本稿では,Codeforcesにおける最近のプログラミング問題の解決において,大規模言語モデル(LLM)の推論能力を評価することを目的とする。
まず,問題の発生時間,難易度,遭遇したエラーの種類など,様々な側面を考慮して,GPT-4の望ましくないゼロショット性能を総合的に評価する。
驚くべきことに、GPT-4のTheThoughtivedのパフォーマンスは、2021年9月以降、あらゆる困難と種類の問題に対して一貫して問題が減少するような崖を経験している。
論文 参考訳(メタデータ) (2023-12-04T18:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。