論文の概要: AutoOEP -- A Multi-modal Framework for Online Exam Proctoring
- arxiv url: http://arxiv.org/abs/2509.10887v1
- Date: Sat, 13 Sep 2025 16:34:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.83278
- Title: AutoOEP -- A Multi-modal Framework for Online Exam Proctoring
- Title(参考訳): AutoOEP - オンラインExam Proctoringのためのマルチモーダルフレームワーク
- Authors: Aryan Kashyap Naveen, Bhuvanesh Singla, Raajan Wankhade, Shreesha M, Ramu S, Ram Mohana Reddy Guddeti,
- Abstract要約: 本稿では,コンピュータビジョンと機械学習を活用した総合的マルチモーダルフレームワークであるAutoOEP(Automated Online Exam Proctoring)を紹介する。
このシステムは、デュアルカメラ装置を使用して、検査の正面ビューとワークスペースの側面ビューの両方をキャプチャし、盲点を最小限にする。
Hand Moduleは、禁止アイテム(携帯電話、ノートなど)を検知し、これらのオブジェクトに手近をトラッキングするために、微調整されたYOLOv11モデルを使用している。
- 参考スコア(独自算出の注目度): 1.6522310568442877
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The burgeoning of online education has created an urgent need for robust and scalable systems to ensure academic integrity during remote examinations. Traditional human proctoring is often not feasible at scale, while existing automated solutions can be intrusive or fail to detect a wide range of cheating behaviors. This paper introduces AutoOEP (Automated Online Exam Proctoring), a comprehensive, multi-modal framework that leverages computer vision and machine learning to provide effective, automated proctoring. The system utilizes a dual-camera setup to capture both a frontal view of the examinee and a side view of the workspace, minimizing blind spots. Our approach integrates several parallel analyses: the Face Module performs continuous identity verification using ArcFace, along with head pose estimation, gaze tracking, and mouth movement analysis to detect suspicious cues. Concurrently, the Hand Module employs a fine-tuned YOLOv11 model for detecting prohibited items (e.g., mobile phones, notes) and tracks hand proximity to these objects. Features from these modules are aggregated and fed into a Long Short-Term Memory (LSTM) network that analyzes temporal patterns to calculate a real-time cheating probability score. We evaluate AutoOEP on a custom-collected dataset simulating diverse exam conditions. Our system achieves an accuracy of 90.7% in classifying suspicious activities. The object detection component obtains a mean Average Precision (mAP@.5) of 0.57 for prohibited items, and the entire framework processes video streams at approximately 2.4 frames per second without a GPU. The results demonstrate that AutoOEP is an effective and resource-efficient solution for automated proctoring, significantly reducing the need for human intervention and enhancing the integrity of online assessments.
- Abstract(参考訳): オンライン教育の急成長は、遠隔試験中に学術的整合性を確保するために、堅牢でスケーラブルなシステムに対する緊急の需要を生み出した。
従来のヒューマン・プロクタリングは大規模では実現できないことが多いが、既存の自動化されたソリューションは侵入的あるいは広範囲の不正行為を検出することができない。
本稿では,コンピュータビジョンと機械学習を活用した総合的マルチモーダルフレームワークであるAutoOEP(Automated Online Exam Proctoring)を紹介する。
このシステムは、デュアルカメラ装置を使用して、検査の正面ビューとワークスペースの側面ビューの両方をキャプチャし、盲点を最小限にする。
提案手法は,ArcFaceを用いた連続的同一性検証と頭部ポーズ推定,視線追跡,口の動き解析を併用し,疑わしい手がかりを検出する。
同時に、Hand Moduleは、禁止アイテム(例えば携帯電話、ノート)を検出し、これらのオブジェクトに手近を追跡するために、微調整されたYOLOv11モデルを採用している。
これらのモジュールの特徴を集約してLong Short-Term Memory (LSTM)ネットワークに入力し、時間パターンを分析してリアルタイムの不正確率スコアを算出する。
各種試験条件を模擬したカスタムコンパイルデータセット上でAutoOEPを評価する。
本システムは疑わしい活動の分類において90.7%の精度を達成している。
オブジェクト検出コンポーネントは、禁止アイテムに対する平均平均精度(mAP@.5)0.57を取得し、フレームワーク全体はGPUなしでビデオストリームを毎秒2.4フレーム処理する。
以上の結果から,AutoOEPは人的介入の必要性を著しく低減し,オンラインアセスメントの完全性を高める上で,有効かつ資源効率の高い自動プロクタリングソリューションであることが示された。
関連論文リスト
- ViSTR-GP: Online Cyberattack Detection via Vision-to-State Tensor Regression and Gaussian Processes in Automated Robotic Operations [5.95097350945477]
接続された工場と自動化された工場は、サイバーセキュリティのリスクが増大し、物理的運用に中断や損害をもたらす可能性がある。
データ統合攻撃は、攻撃者が運用データにアクセスし操作できるような高度な脆弱性を悪用することが多い。
本稿では、コントローラの権限外の頭上カメラからの視覚に基づく推定値に対して、エンコーダが報告した計測値を相互にチェックするオンライン検出フレームワークViSTR-GPを開発する。
論文 参考訳(メタデータ) (2025-09-13T19:10:35Z) - On the Black-box Explainability of Object Detection Models for Safe and Trustworthy Industrial Applications [7.848637922112521]
本稿では,物体検出モデルに対するモデルに依存しない説明可能性手法に着目し,形態的フラクタル摂動ピラミッド(P)法の拡張としてD-Pを提案する。
これらの手法を実世界の産業用・ロボット用データセット上で評価し,マスク数,モデルサイズ,画像解像度などのパラメータが説明の質に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-10-28T13:28:05Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Follow Anything: Open-set detection, tracking, and following in
real-time [89.83421771766682]
我々は,物体をリアルタイムで検出,追跡,追跡するロボットシステムを提案する。
私たちのアプローチは、何でも従う"(FAn)と呼ばれ、オープンな語彙とマルチモーダルモデルです。
FAnは軽量(6~8GB)グラフィックカードでラップトップにデプロイでき、毎秒6~20フレームのスループットを実現する。
論文 参考訳(メタデータ) (2023-08-10T17:57:06Z) - Improving Variational Autoencoder based Out-of-Distribution Detection
for Embedded Real-time Applications [2.9327503320877457]
アウト・オブ・ディストリビューション(OD)検出は、リアルタイムにアウト・オブ・ディストリビューションを検出するという課題に対処する新しいアプローチである。
本稿では,自律走行エージェントの周囲の有害な動きを頑健に検出する方法について述べる。
提案手法は,OoD因子の検出能力を一意に改善し,最先端手法よりも42%向上した。
また,本モデルでは,実験した実世界およびシミュレーション駆動データに対して,最先端技術よりも97%の精度でほぼ完璧に一般化した。
論文 参考訳(メタデータ) (2021-07-25T07:52:53Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。