論文の概要: CleverBirds: A Multiple-Choice Benchmark for Fine-grained Human Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2511.08512v1
- Date: Wed, 12 Nov 2025 02:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.848038
- Title: CleverBirds: A Multiple-Choice Benchmark for Fine-grained Human Knowledge Tracing
- Title(参考訳): CleverBirds: きめ細かい人間の知識の追跡のためのマルチコースベンチマーク
- Authors: Leonie Bossemeyer, Samuel Heinrich, Grant Van Horn, Oisin Mac Aodha,
- Abstract要約: クリーバーバード(CleverBirds)は,鳥種認識のための大規模知識トレースベンチマークである。
4万人以上の参加者がクイズに参加し、1万種以上の鳥にまたがる1700万件以上の質問に答えている。
学習者の知識の追跡は,特にサブグループや質問タイプにおいて困難であることを示す。
- 参考スコア(独自算出の注目度): 26.10058900334388
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Mastering fine-grained visual recognition, essential in many expert domains, can require that specialists undergo years of dedicated training. Modeling the progression of such expertize in humans remains challenging, and accurately inferring a human learner's knowledge state is a key step toward understanding visual learning. We introduce CleverBirds, a large-scale knowledge tracing benchmark for fine-grained bird species recognition. Collected by the citizen-science platform eBird, it offers insight into how individuals acquire expertize in complex fine-grained classification. More than 40,000 participants have engaged in the quiz, answering over 17 million multiple-choice questions spanning over 10,000 bird species, with long-range learning patterns across an average of 400 questions per participant. We release this dataset to support the development and evaluation of new methods for visual knowledge tracing. We show that tracking learners' knowledge is challenging, especially across participant subgroups and question types, with different forms of contextual information offering varying degrees of predictive benefit. CleverBirds is among the largest benchmark of its kind, offering a substantially higher number of learnable concepts. With it, we hope to enable new avenues for studying the development of visual expertize over time and across individuals.
- Abstract(参考訳): 多くの専門分野において必須の、きめ細かい視覚認識を習得するには、専門医が長年の専門訓練を受ける必要がある。
人間の知識状態を正確に推定することは、視覚学習を理解するための重要なステップである。
クリーバーバード(CleverBirds)は,鳥種認識のための大規模知識トレースベンチマークである。
市民科学プラットフォームのeBirdが収集したこのサイトは、個人が複雑なきめ細かい分類の専門知識を得る方法についての洞察を提供する。
このクイズには4万人以上の参加者が参加し、1万種以上の鳥に1700万件以上の複数の質問を回答している。
我々は,視覚的知識追跡のための新しい手法の開発と評価を支援するために,このデータセットをリリースする。
学習者の知識の追跡は、特に参加者のサブグループや質問タイプにおいて、様々な形態の文脈情報によって予測的利益の度合いが変化していることが示される。
CleverBirdsは、このタイプの最大のベンチマークのひとつで、学習可能な概念をかなり多く提供しています。
これにより、時間とともに個人にわたって視覚的専門化の発達を研究するための新たな道のりが実現されることを願っている。
関連論文リスト
- Query-Based Knowledge Sharing for Open-Vocabulary Multi-Label
Classification [5.985859108787149]
マルチラベルゼロショット学習はコンピュータビジョンにおける非自明なタスクである。
本稿では,この課題に対する新しい問合せに基づく知識共有パラダイムを提案する。
NUS-WIDE および Open Images では、ゼロショットタスクの最先端手法を5.9%、mAP の4.5%で大幅に上回っている。
論文 参考訳(メタデータ) (2024-01-02T12:18:40Z) - Knowledge-augmented Deep Learning and Its Applications: A Survey [60.221292040710885]
知識強化ディープラーニング(KADL)は、ドメイン知識を特定し、それをデータ効率、一般化可能、解釈可能なディープラーニングのためのディープモデルに統合することを目的としている。
本調査は,既存の研究成果を補足し,知識強化深層学習の一般分野における鳥眼研究の展望を提供する。
論文 参考訳(メタデータ) (2022-11-30T03:44:15Z) - Visual Knowledge Tracing [26.446317829793454]
本稿では,人間の学習者の進化的分類行動を追跡する新しい課題を提案する。
本研究では,学習者が使用する視覚的特徴を協調的に抽出し,活用する分類機能を予測するモデルを提案する。
以上の結果から,我々の反復モデルでは,3つの課題のある医療画像と種識別タスクに基づいて,人間の学習者の分類行動を予測することが可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:24:57Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Recognition of Unseen Bird Species by Learning from Field Guides [23.137536032163855]
我々は、野のガイドを利用して鳥の種認識を学習し、特に目に見えない種をゼロショットで認識する。
本研究では,(1)標準のゼロショット学習方式に入力可能な画像のコントラスト符号化,(2)イラストも画像であるという事実を活用する新しい手法について検討する。
この結果から,広範囲の種で容易に利用できるフィールドガイドからのイラストが,ゼロショット学習におけるサイド情報の競合源であることが示唆された。
論文 参考訳(メタデータ) (2022-06-03T09:13:46Z) - Making a Bird AI Expert Work for You and Me [46.632625411724625]
人間がAIから学ぶためのトランスファー可能な知識を構成するものは何か?
本稿では,知識を専門家排他的な高度に識別可能な視覚領域として表現することを提案する。
15,000件の治験を総合的に調査した結果, 飛散する鳥の専門知識を継続的に改善できることがわかった。
論文 参考訳(メタデータ) (2021-12-06T02:47:21Z) - Deep Long-Tailed Learning: A Survey [163.16874896812885]
ディープ・ロングテール・ラーニング(Deep Long-tailed Learning)は、長いテールのクラス分布に追従する多数の画像から、優れたパフォーマンスのディープモデルをトレーニングすることを目的としている。
長い尾を持つクラス不均衡は、現実的な視覚認識タスクにおいて一般的な問題である。
本稿では,近年の長期学習の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2021-10-09T15:25:22Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。