論文の概要: Circles: Inter-Model Comparison of Multi-Classification Problems with
High Number of Classes
- arxiv url: http://arxiv.org/abs/2309.05672v1
- Date: Fri, 8 Sep 2023 19:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 15:48:48.384644
- Title: Circles: Inter-Model Comparison of Multi-Classification Problems with
High Number of Classes
- Title(参考訳): circles: クラス数の多いマルチクラス化問題のモデル間比較
- Authors: Nina Mir, Ragaad AlTarawneh, Shah Rukh Humayoun
- Abstract要約: 本稿では,対話型視覚分析ツールCirclesについて,多数の分類モデルと1つの視点における1Kクラスとの視覚的モデル間比較を行う。
プロトタイプでは,9種類のモデルと1Kクラスを比較した。
- 参考スコア(独自算出の注目度): 0.24554686192257422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advancements in machine learning have motivated researchers to
generate classification models dealing with hundreds of classes such as in the
case of image datasets. However, visualization of classification models with
high number of classes and inter-model comparison in such classification
problems are two areas that have not received much attention in the literature,
despite the ever-increasing use of classification models to address problems
with very large class categories. In this paper, we present our interactive
visual analytics tool, called Circles, that allows a visual inter-model
comparison of numerous classification models with 1K classes in one view. To
mitigate the tricky issue of visual clutter, we chose concentric a radial line
layout for our inter-model comparison task. Our prototype shows the results of
9 models with 1K classes
- Abstract(参考訳): 機械学習の最近の進歩は、画像データセットのような数百のクラスを扱う分類モデルを作成する動機となった。
しかし,類数の多い分類モデルの可視化と,その分類問題におけるモデル間比較は,非常に大きな分類カテゴリの問題に対処するための分類モデルの利用が増えているにもかかわらず,文献ではあまり注目されていない2つの分野である。
本稿では,対話型視覚分析ツールCirclesについて,多数の分類モデルと1つの視点での1Kクラスとの視覚的モデル間比較を行う。
視覚クラッターの厄介な問題を軽減するために、モデル間比較タスクで放射状線配置を同心点に選んだ。
プロトタイプは1kクラス9モデルの結果を示します
関連論文リスト
- Investigating Self-Supervised Methods for Label-Efficient Learning [27.029542823306866]
低撮影能力のためのコントラスト学習、クラスタリング、マスク付き画像モデリングなど、さまざまな自己教師付きプレテキストタスクについて検討する。
マスク画像モデリングとクラスタリングの両方をプリテキストタスクとして含むフレームワークを導入する。
実規模データセット上でモデルをテストした場合,マルチクラス分類,マルチラベル分類,セマンティックセマンティックセグメンテーションにおける性能向上を示す。
論文 参考訳(メタデータ) (2024-06-25T10:56:03Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - MultiCaM-Vis: Visual Exploration of Multi-Classification Model with High
Number of Classes [0.2900810893770134]
我々はMultiCaM-Visと呼ばれるインタラクティブなビジュアル分析ツールを提示する。
Emphoverview+detailスタイルの並列座標ビューと、クラスレベルのインスタンスのミス分類の探索と検査のためのコードダイアグラムを提供する。
論文 参考訳(メタデータ) (2023-09-09T08:55:22Z) - Unicom: Universal and Compact Representation Learning for Image
Retrieval [65.96296089560421]
大規模LAION400Mを,CLIPモデルにより抽出された共同テキストと視覚的特徴に基づいて,100万の擬似クラスにクラスタリングする。
このような矛盾を緩和するために、我々は、マージンベースのソフトマックス損失を構築するために、ランダムにクラス間の部分的なプロトタイプを選択する。
提案手法は,複数のベンチマークにおいて,教師なし,教師なしの画像検索手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-12T14:25:52Z) - Exploiting Category Names for Few-Shot Classification with
Vision-Language Models [78.51975804319149]
大規模データに事前訓練された視覚言語基礎モデルは、多くの視覚的理解タスクに強力なツールを提供する。
本稿では,カテゴリ名を用いて分類ヘッドを初期化することにより,少数ショット分類の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-11-29T21:08:46Z) - Elimination of Non-Novel Segments at Multi-Scale for Few-Shot
Segmentation [0.0]
ほとんどショットのセグメンテーションは、トレーニング中に目に見えないクラスからクエリイメージをセグメンテーションする一般化モデルを考案することを目的としている。
PASCAL-5iとCOCO-20iの両方のデータセット上で,2つの重要な問題に同時に対処し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-04T07:52:54Z) - Discovering Relationships between Object Categories via Universal
Canonical Maps [80.07703460198198]
変形可能なオブジェクトの複数カテゴリの幾何学を共同で学習する問題に取り組む。
近年の研究では、関連オブジェクトのいくつかのカテゴリに対して、統合された高密度ポーズ予測器を学習できることが示されている。
改良された対応性は,カテゴリ固有の高密度ポーズ予測器の自然な副産物として自動的に学習できることを示す。
論文 参考訳(メタデータ) (2021-06-17T18:38:18Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。