論文の概要: ConceptScope: Characterizing Dataset Bias via Disentangled Visual Concepts
- arxiv url: http://arxiv.org/abs/2510.26186v1
- Date: Thu, 30 Oct 2025 06:46:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.689174
- Title: ConceptScope: Characterizing Dataset Bias via Disentangled Visual Concepts
- Title(参考訳): ConceptScope: 切り離された視覚概念によるデータセットバイアスのキャラクタリゼーション
- Authors: Jinho Choi, Hyesu Lim, Steffen Schneider, Jaegul Choo,
- Abstract要約: ConceptScopeは、ビジュアルデータセットを分析するためのスケーラブルで自動化されたフレームワークである。
概念を、その意味的関連性とクラスラベルとの統計的相関に基づいて、ターゲット、コンテキスト、バイアスタイプに分類する。
既知のバイアスを確実に検出し、未発表のバイアスを発見できる。
- 参考スコア(独自算出の注目度): 54.60525564599342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dataset bias, where data points are skewed to certain concepts, is ubiquitous in machine learning datasets. Yet, systematically identifying these biases is challenging without costly, fine-grained attribute annotations. We present ConceptScope, a scalable and automated framework for analyzing visual datasets by discovering and quantifying human-interpretable concepts using Sparse Autoencoders trained on representations from vision foundation models. ConceptScope categorizes concepts into target, context, and bias types based on their semantic relevance and statistical correlation to class labels, enabling class-level dataset characterization, bias identification, and robustness evaluation through concept-based subgrouping. We validate that ConceptScope captures a wide range of visual concepts, including objects, textures, backgrounds, facial attributes, emotions, and actions, through comparisons with annotated datasets. Furthermore, we show that concept activations produce spatial attributions that align with semantically meaningful image regions. ConceptScope reliably detects known biases (e.g., background bias in Waterbirds) and uncovers previously unannotated ones (e.g, co-occurring objects in ImageNet), offering a practical tool for dataset auditing and model diagnostics.
- Abstract(参考訳): 特定の概念にデータポイントが歪んだデータセットバイアスは、機械学習データセットでユビキタスである。
しかし、これらのバイアスを体系的に識別することは、高価できめ細かい属性アノテーションなしでは難しい。
本研究では,視覚基盤モデルからの表現を訓練したスパースオートエンコーダを用いて,人間の解釈可能な概念を発見し,定量化することで,視覚データセットを分析するスケーラブルで自動化されたフレームワークであるConceptScopeを提案する。
ConceptScopeは、概念を、その意味的関連性とクラスラベルとの統計的相関に基づいて、ターゲット、コンテキスト、バイアスタイプに分類し、クラスレベルのデータセットのキャラクタリゼーション、バイアス識別、そして概念ベースのサブグループによるロバストネス評価を可能にする。
ceptScopeは、アノテーション付きデータセットとの比較を通じて、オブジェクト、テクスチャ、背景、顔属性、感情、行動など、幅広い視覚概念をキャプチャする。
さらに,概念アクティベーションが意味的に意味のある画像領域と一致した空間属性を生成することを示す。
ConceptScopeは既知のバイアス(例えばWaterbirdsの背景バイアス)を確実に検出し、未発表のバイアス(ImageNetの共起オブジェクトなど)を明らかにし、データセットの監査とモデル診断のための実用的なツールを提供する。
関連論文リスト
- Prompt the Unseen: Evaluating Visual-Language Alignment Beyond Supervision [22.712690974750007]
VLM(Vision-Language Models)は、視覚エンコーダと大規模言語モデル(LLM)を組み合わせたアライメントトレーニングである。
その重要性にもかかわらず、投影層が見えない視覚概念を一般化する能力は体系的に評価されていない。
本研究ではアライメント一般化のための新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-31T05:00:51Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Knowledge graphs for empirical concept retrieval [1.06378109904813]
概念に基づく説明可能なAIは、あるユーザの前提における複雑なモデルの理解を改善するツールとして期待されている。
本稿では,テキスト領域と画像領域の両方でユーザ主導のデータ収集を行うワークフローを提案する。
我々は,概念アクティベーションベクトル(CAV)と概念アクティベーション領域(CAR)の2つの概念ベース説明可能性手法を用いて,検索した概念データセットをテストする。
論文 参考訳(メタデータ) (2024-04-10T13:47:22Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Discovering Concepts in Learned Representations using Statistical
Inference and Interactive Visualization [0.76146285961466]
概念発見は、深層学習の専門家とモデルエンドユーザーの間のギャップを埋めるために重要である。
現在のアプローチには、手作りの概念データセットと、それを潜在空間方向に変換することが含まれる。
本研究では,複数の仮説テストに基づく意味ある概念のユーザ発見と,インタラクティブな可視化に関する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-09T22:29:48Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - Object Recognition as Classification of Visual Properties [5.1652563977194434]
本稿では,Ranganathanの4段階の顔付き知識組織プロセスに基づく物体認識プロセスを提案する。
我々は,オブジェクト認識リソースの構築を目的とした,現在進行中のMultiMedia UKCを紹介した。
論文 参考訳(メタデータ) (2021-12-20T13:50:07Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。