論文の概要: Face Identification Proficiency Test Designed Using Item Response Theory
- arxiv url: http://arxiv.org/abs/2106.15323v2
- Date: Thu, 1 Jul 2021 16:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 19:45:39.631903
- Title: Face Identification Proficiency Test Designed Using Item Response Theory
- Title(参考訳): 項目応答理論を用いた顔識別能力試験
- Authors: G\'eraldine Jeckeln, Ying Hu, Jacqueline G. Cavazos, Amy N. Yates,
Carina A. Hahn, Larry Tang, P. Jonathon Phillips, Alice J. O'Toole
- Abstract要約: Triad Identity Matching (TIM) test is based onstimul difficulty measures based on Item Response Theory (IRT) based on Item Response Theory (IRT)
実験1では, 大学生がTIM検査で広範囲の精度を示した。
IRTベースの項目難易度尺度は、TIMテストを3つの「簡単」サブセットと3つの「難易度」サブセットに分割するために使用された。
- 参考スコア(独自算出の注目度): 5.284353550094401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measures of face identification proficiency are essential to ensure accurate
and consistent performance by professional forensic face examiners and others
who perform face identification tasks in applied scenarios. Current proficiency
tests rely on static sets of stimulus items, and so, cannot be administered
validly to the same individual multiple times. To create a proficiency test, a
large number of items of "known" difficulty must be assembled. Multiple tests
of equal difficulty can be constructed then using subsets of items. Here, we
introduce a proficiency test, the Triad Identity Matching (TIM) test, based on
stimulus difficulty measures based on Item Response Theory (IRT). Participants
view face-image "triads" (N=225) (two images of one identity and one image of a
different identity) and select the different identity. In Experiment 1,
university students (N=197) showed wide-ranging accuracy on the TIM test.
Furthermore, IRT modeling demonstrated that the TIM test produces items of
various difficulty levels. In Experiment 2, IRT-based item difficulty measures
were used to partition the TIM test into three equally "easy" and three equally
"difficult" subsets. Simulation results indicated that the full set, as well as
curated subsets, of the TIM items yielded reliable estimates of subject
ability. In summary, the TIM test can provide a starting point for developing a
framework that is flexible, calibrated, and adaptive to measure proficiency
across various ability levels (e.g., professionals or populations with face
processing deficits)
- Abstract(参考訳): 顔識別能力の確保は, 応用シナリオにおいて顔識別作業を行う専門家の顔検査者等による精度と一貫性を確保する上で不可欠である。
現在の熟練度テストは、刺激項目の静的セットに依存しているため、同じ個人に対して複数回有効に管理することはできない。
熟練度テストを作成するには、多くの「既知の」困難項目を組み立てなければならない。
同じ難しさの複数のテストは、アイテムのサブセットを使用して構築することができる。
本稿では,アイテム応答理論(irt)に基づく刺激難易度尺度に基づいて,熟練度テストである3adアイデンティティマッチング(tim)テストを提案する。
参加者は、顔画像の「トライアド」(N=225)(同一人物の2つの画像と同一人物の1つの画像)を見て、異なる同一人物を選択する。
実験1では, 大学生 (N=197) がTIM試験において広範囲の精度を示した。
さらに、IRTモデリングは、TIMテストが様々な難易度の項目を生成することを示した。
実験2では、IRTベースの項目難易度尺度を使用して、TIMテストを3つの「簡単」サブセットと3つの「難易度」サブセットに分割した。
シミュレーションの結果,tim項目の完全集合とキュレーションされた部分集合は,被写体能力の信頼性の高い推定値を示した。
要約すると、tim testは、さまざまな能力レベル(例えば、顔処理の欠陥のある専門家や人口)における熟練度を測定するために、柔軟で校正され、適応されたフレームワークを開発するための出発点となる。
関連論文リスト
- Identity Overlap Between Face Recognition Train/Test Data: Causing Optimistic Bias in Accuracy Measurement [5.3490692492497836]
トレーニングセットとテストセットの重複は 楽観的な精度の見積もりを引き起こす。
テストセットからの画像対の平均10倍の分類精度と推定されるのが一般的である。
実験の結果, LFW系テストセットとMS1MV2トレーニングセットの相違点と画像の重複点が明らかとなった。
論文 参考訳(メタデータ) (2024-05-15T14:59:26Z) - Task-adaptive Q-Face [75.15668556061772]
本稿では,タスク適応型マルチタスク顔分析手法Q-Faceを提案する。
Q-Faceは統合されたモデルで複数の顔分析タスクを同時に実行する。
本手法は,顔表情認識,行動単位検出,顔属性分析,年齢推定,顔ポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-05-15T03:13:11Z) - Controlling Cloze-test Question Item Difficulty with PLM-based Surrogate
Models for IRT Assessment [0.6138671548064356]
本稿では,項目応答理論(IRT)の評価を可能にする代理モデルとして,事前学習言語モデル(PLM)のトレーニングを提案する。
また,不正な邪魔者を減らすためのランキングルールを用いて,ギャップと邪魔者の双方の難易度を制御するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-03T09:18:05Z) - ProTIP: Probabilistic Robustness Verification on Text-to-Image Diffusion Models against Stochastic Perturbation [18.103478658038846]
テキスト・ツー・イメージ(T2I)拡散モデル(DM)は、単純なテキスト記述に基づいて高品質な画像を生成する際、印象的な能力を示した。
多くのディープラーニング(DL)モデルに共通するように、DMは堅牢性に欠ける。
本稿では,T2I DMのロバスト性に関する確率論的概念を導入し,統計的保証で評価するための効率的なフレームワークであるProTIPを確立する。
論文 参考訳(メタデータ) (2024-02-23T16:48:56Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - Modeling the Uncertainty with Maximum Discrepant Students for
Semi-supervised 2D Pose Estimation [57.17120203327993]
半教師付きポーズ推定タスクにおける擬似ラベルの品質を推定する枠組みを提案する。
提案手法は,3つのデータセットに対する半教師付きポーズ推定の性能を向上させる。
論文 参考訳(メタデータ) (2023-11-03T08:11:06Z) - ClusT3: Information Invariant Test-Time Training [19.461441044484427]
これらの脆弱性を軽減するため、TTT(Test-time Training)法が開発されている。
マルチスケール特徴写像と離散潜在表現の相互情報に基づく新しい非教師付きTTT手法を提案する。
実験結果から, 様々なテスト時間適応ベンチマークにおいて, 競争力のある分類性能が示された。
論文 参考訳(メタデータ) (2023-10-18T21:43:37Z) - On Pitfalls of Test-Time Adaptation [82.8392232222119]
TTA(Test-Time Adaptation)は、分散シフトの下で堅牢性に取り組むための有望なアプローチとして登場した。
TTABは,10の最先端アルゴリズム,多種多様な分散シフト,および2つの評価プロトコルを含むテスト時間適応ベンチマークである。
論文 参考訳(メタデータ) (2023-06-06T09:35:29Z) - Unimodal Face Classification with Multimodal Training [1.9580473532948401]
顔の頑健な分類のためのMTUT(Multimodal Training Unimodal Test)フレームワークを提案する。
本フレームワークは,トレーニング中のモダリティ間の関係を利用して,テスト中の不完全な単一モダリティ入力の補完として適用する。
MTUTフレームワークは、両方のデータセットの2Dおよび3D設定において、10のベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2021-12-08T09:12:47Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Measuring Massive Multitask Language Understanding [79.6985576698597]
このテストでは、基礎数学、アメリカの歴史、コンピュータ科学、法学など57のタスクをカバーしている。
最も大きなGPT-3モデルでは、ランダムな確率を平均20ポイント近く改善する。
モデルにはパフォーマンスの面もあるが、いつ間違っているかはよく分かっていない。
論文 参考訳(メタデータ) (2020-09-07T17:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。