論文の概要: Facing the Hard Problems in FGVC
- arxiv url: http://arxiv.org/abs/2006.13190v2
- Date: Wed, 24 Jun 2020 20:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:17:20.178652
- Title: Facing the Hard Problems in FGVC
- Title(参考訳): fgvcの困難に直面する
- Authors: Connor Anderson, Matt Gwilliam, Adam Teuscher, Andrew Merrill, Ryan
Farrell
- Abstract要約: モデルがある種の「ハード」なイメージと普遍的に苦労する一方で、補完的な誤りを犯していることを示す。
補完モデルを組み合わせることで、一般的なCUB-200データセットの精度が5%以上向上することを示した。
- 参考スコア(独自算出の注目度): 2.4499092754102874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In fine-grained visual categorization (FGVC), there is a near-singular focus
in pursuit of attaining state-of-the-art (SOTA) accuracy. This work carefully
analyzes the performance of recent SOTA methods, quantitatively, but more
importantly, qualitatively. We show that these models universally struggle with
certain "hard" images, while also making complementary mistakes. We underscore
the importance of such analysis, and demonstrate that combining complementary
models can improve accuracy on the popular CUB-200 dataset by over 5%. In
addition to detailed analysis and characterization of the errors made by these
SOTA methods, we provide a clear set of recommended directions for future FGVC
researchers.
- Abstract(参考訳): きめ細かい視覚分類(FGVC)では、最先端(SOTA)の精度を追求するために、ほぼ特異な焦点がある。
この研究は、最近のSOTA法の性能を定量的に、さらに重要なのは質的に、慎重に分析する。
これらのモデルが特定の「ハード」なイメージと普遍的に苦労し、補完的な誤りを犯していることを示す。
このような分析の重要性を強調し,一般的なcub-200データセットにおいて,補完モデルの組み合わせによって精度が5%以上向上できることを実証する。
これらのSOTA手法による誤差の詳細な解析と評価に加えて、将来のFGVC研究者に推奨される方向の明確なセットを提供する。
関連論文リスト
- FiCo-ITR: bridging fine-grained and coarse-grained image-text retrieval for comparative performance analysis [1.0972875392165036]
本稿では,FGモデルとCGモデルの両方の評価手法を標準化したtexttFiCo-ITRライブラリを提案する。
両サブフィールドから代表モデルの実証的評価を行い,精度,リコール,計算複雑性を分析した。
この結果から,最近の代表的FGモデルとCGモデル間の性能・効率トレードオフに関する新たな知見が得られ,それぞれの強みと限界が浮き彫りになった。
論文 参考訳(メタデータ) (2024-07-29T15:44:22Z) - Red Teaming Models for Hyperspectral Image Analysis Using Explainable AI [10.475941327617686]
本稿では,ハイパースペクトル画像を用いた機械学習モデルの検討手法を提案する。
我々は、説明可能なAI(XAI)ドメインからのポストホックな説明手法を用いて、最高のパフォーマンスモデルを評価する。
当社のアプローチは,重要な欠点を指摘し,検証することで,モデルを効果的にチーム化するものです。
論文 参考訳(メタデータ) (2024-03-12T18:28:32Z) - Masked Thought: Simply Masking Partial Reasoning Steps Can Improve Mathematical Reasoning Learning of Language Models [102.72940700598055]
推論タスクでは、小さなエラーでも不正確な結果にカスケードすることができる。
入力の摂動に頼らず、外部リソースの導入を避ける手法を開発した。
私たちのトレーニングアプローチでは、思考の連鎖の中で特定のトークンをランダムにマスクします。
論文 参考訳(メタデータ) (2024-03-04T16:21:54Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - A Comprehensive Evaluation and Analysis Study for Chinese Spelling Check [53.152011258252315]
音声とグラフィックの情報を合理的に使用することは,中国語のスペルチェックに有効であることを示す。
モデルはテストセットのエラー分布に敏感であり、モデルの欠点を反映している。
一般的なベンチマークであるSIGHANは、モデルの性能を確実に評価できない。
論文 参考訳(メタデータ) (2023-07-25T17:02:38Z) - Convolutional Ensembling based Few-Shot Defect Detection Technique [0.0]
我々は,複数の事前学習された畳み込みモデルの知識ベースを用いる,複数ショット分類に対する新しいアプローチを提案する。
本フレームワークでは,パラメータの総数を劇的に削減しつつ,精度を高めるために,新しいアンサンブル手法を用いている。
論文 参考訳(メタデータ) (2022-08-05T17:29:14Z) - Scalable End-to-End Training of Knowledge Graph-Enhanced Aspect
Embedding for Aspect Level Sentiment Analysis [4.602499084328038]
アスペクトレベルの感情分類(ALSC)は、ベンチマークデータセットの80%未満のマクロF1スコアを示す最先端モデルでは難しい問題である。
KGをベースとしたアスペクト埋め込みとALSCモデルの効率的な共同学習を可能にする2段階のグローバルな実体埋め込み方式を提案する。
論文 参考訳(メタデータ) (2021-08-26T08:52:04Z) - How Knowledge Graph and Attention Help? A Quantitative Analysis into
Bag-level Relation Extraction [66.09605613944201]
バッグレベルの関係抽出(RE)における注意と知識グラフの効果を定量的に評価する。
その結果,(1)注目精度の向上は,エンティティ参照特徴を抽出するモデルの性能を損なう可能性があること,(2)注目性能は様々なノイズ分布パターンの影響が大きいこと,(3)KG強化された注目はRE性能を向上するが,その効果は注目度を向上させるだけでなく,先行するエンティティを組み込むことによっても改善することがわかった。
論文 参考訳(メタデータ) (2021-07-26T09:38:28Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。