論文の概要: Overview of ExpertLifeCLEF 2018: how far automated identification systems are from the best experts?
- arxiv url: http://arxiv.org/abs/2509.21419v1
- Date: Thu, 25 Sep 2025 07:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.917317
- Title: Overview of ExpertLifeCLEF 2018: how far automated identification systems are from the best experts?
- Title(参考訳): ExpertLifeCLEF 2018の概要: 自動化された識別システムは、最高の専門家からどのくらいの距離にあるか?
- Authors: Herve Goeau, Pierre Bonnet, Alexis Joly,
- Abstract要約: LifeCLEF 2018 ExpertCLEFチャレンジは、人間の専門家と自動化システムの比較を可能にするように設計されている。
フランスの植物学の専門家9名を対象に,4つの異なる研究チームが実施した19のディープラーニングシステムを評価した。
主な成果は、最先端のディープラーニングモデルのパフォーマンスが、現在最も高度な人間の専門知識に近いことである。
- 参考スコア(独自算出の注目度): 2.961584451143903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated identification of plants and animals has improved considerably in the last few years, in particular thanks to the recent advances in deep learning. The next big question is how far such automated systems are from the human expertise. Indeed, even the best experts are sometimes confused and/or disagree between each others when validating visual or audio observations of living organism. A picture actually contains only a partial information that is usually not sufficient to determine the right species with certainty. Quantifying this uncertainty and comparing it to the performance of automated systems is of high interest for both computer scientists and expert naturalists. The LifeCLEF 2018 ExpertCLEF challenge presented in this paper was designed to allow this comparison between human experts and automated systems. In total, 19 deep-learning systems implemented by 4 different research teams were evaluated with regard to 9 expert botanists of the French flora. The main outcome of this work is that the performance of state-of-the-art deep learning models is now close to the most advanced human expertise. This paper presents more precisely the resources and assessments of the challenge, summarizes the approaches and systems employed by the participating research groups, and provides an analysis of the main outcomes.
- Abstract(参考訳): 植物や動物の自動識別は、近年のディープラーニングの進歩により、ここ数年で大幅に改善されている。
次の大きな疑問は、このような自動化システムは人間の専門知識からどのくらい遠いのかということだ。
実際、最高の専門家でさえ、生物の視覚的または音声的な観察を検証する際に、混乱したり、互いに意見が一致しないことがある。
写真は実際には、特定の種を決定するのに通常不十分な部分的な情報しか含まない。
この不確実性を定量化し、自動化システムの性能と比較することは、コンピュータ科学者と専門家の博物学者の両方にとって大きな関心事である。
この論文で提示されたLifeCLEF 2018 ExpertCLEFチャレンジは、人間の専門家と自動化システムとのこの比較を可能にするように設計されている。
フランスの植物学の専門家9名を対象に,4つの異なる研究チームが実施した19のディープラーニングシステムを評価した。
この研究の主な成果は、最先端のディープラーニングモデルのパフォーマンスが、現在最も高度な人間の専門知識に近いことである。
本稿では,課題の資源と評価をより正確に提示し,参加研究グループが採用するアプローチとシステムを要約し,主な成果について分析する。
関連論文リスト
- RED.AI Id-Pattern: First Results of Stone Deterioration Patterns with Multi-Agent Systems [0.0]
RED.AIプロジェクトにおけるId-Patternシステム(Reabilitaccao Estrutural Digital atrav's da AI)は、石の劣化パターンの識別を支援するために設計されたエージェントシステムである。
専門家チームによる直接的な観察に基づく従来の方法論は正確だが、時間とリソースの面ではコストがかかる。
最初の結果から,基本モデルと比較して,システムのすべての指標が大幅に向上したことが分かりました。
論文 参考訳(メタデータ) (2025-08-19T14:39:27Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Beyond human subjectivity and error: a novel AI grading system [67.410870290301]
オープンエンドの質問の格付けは、教育における高い努力と高いインパクトの課題である。
AI技術の最近のブレークスルーは、このような自動化を促進するかもしれないが、大規模に実証されていない。
本稿では,新しい自動短解階調システム(ASAG)を提案する。
論文 参考訳(メタデータ) (2024-05-07T13:49:59Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Improving the Efficiency of Human-in-the-Loop Systems: Adding Artificial
to Human Experts [0.7349727826230862]
未知のクラスからデータインスタンスを分類することを学ぶ人工専門家を作成するハイブリッドシステムを提案する。
提案手法は、画像分類に関するいくつかのベンチマークにおいて、従来のHITLシステムより優れている。
論文 参考訳(メタデータ) (2023-07-06T14:06:23Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Forming Effective Human-AI Teams: Building Machine Learning Models that
Complement the Capabilities of Multiple Experts [0.0]
複数の専門家の能力を補うために分類モデルを訓練する手法を提案する。
提案手法を,複数の放射線学者による「合成」の専門家と実世界の医療データセットを用いた公開データセットの実験で評価した。
論文 参考訳(メタデータ) (2022-06-16T06:42:10Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。