論文の概要: Agile Deliberation: Concept Deliberation for Subjective Visual Classification
- arxiv url: http://arxiv.org/abs/2512.10821v1
- Date: Thu, 11 Dec 2025 17:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.481107
- Title: Agile Deliberation: Concept Deliberation for Subjective Visual Classification
- Title(参考訳): Agile Deliberation: 主観的視覚分類のための概念検討
- Authors: Leijie Wang, Otilia Stretcu, Wei Qiao, Thomas Denby, Krishnamurthy Viswanathan, Enming Luo, Chun-Ta Lu, Tushar Dogra, Ranjay Krishna, Ariel Fuxman,
- Abstract要約: 私たちは、実際のコンテンツモデレーターが使用する審議の共通戦略を、"Agile Deliberation"と呼ばれる人力で行うフレームワークに運用します。
このシステムは、ユーザ自身が定義する概念を、境界線のケースに公開することによって、ユーザをサポートする。
Agile Deliberationは、自動分解ベースラインよりもF1スコアが7.5%高く、手動のDeliberationよりも3%高くなっています。
- 参考スコア(独自算出の注目度): 28.563231886454762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From content moderation to content curation, applications requiring vision classifiers for visual concepts are rapidly expanding. Existing human-in-the-loop approaches typically assume users begin with a clear, stable concept understanding to be able to provide high-quality supervision. In reality, users often start with a vague idea and must iteratively refine it through "concept deliberation", a practice we uncovered through structured interviews with content moderation experts. We operationalize the common strategies in deliberation used by real content moderators into a human-in-the-loop framework called "Agile Deliberation" that explicitly supports evolving and subjective concepts. The system supports users in defining the concept for themselves by exposing them to borderline cases. The system does this with two deliberation stages: (1) concept scoping, which decomposes the initial concept into a structured hierarchy of sub-concepts, and (2) concept iteration, which surfaces semantically borderline examples for user reflection and feedback to iteratively align an image classifier with the user's evolving intent. Since concept deliberation is inherently subjective and interactive, we painstakingly evaluate the framework through 18 user sessions, each 1.5h long, rather than standard benchmarking datasets. We find that Agile Deliberation achieves 7.5% higher F1 scores than automated decomposition baselines and more than 3% higher than manual deliberation, while participants reported clearer conceptual understanding and lower cognitive effort.
- Abstract(参考訳): コンテンツモデレーションからコンテンツキュレーションまで、視覚概念のための視覚分類器を必要とするアプリケーションは急速に拡大している。
既存のHuman-in-the-loopアプローチは、ユーザーが高品質の監視を提供するために明確で安定した概念理解から始めることを前提としている。
実際には、ユーザは曖昧なアイデアから始め、コンテンツモデレーションの専門家との構造化されたインタビューを通じて、"概念検討"を通じてそれを反復的に洗練しなければなりません。
私たちは、実際のコンテンツモデレーターが使用する熟考の共通戦略を、進化的で主観的な概念を明示的にサポートする“アジャイル熟考(Agile Deliberation)”と呼ばれるヒューマン・イン・ザ・ループのフレームワークに運用しています。
このシステムは、ユーザ自身が定義する概念を、境界線のケースに公開することによって、ユーザをサポートする。
本システムは,(1) 概念スコピング,(2) 概念をサブコンセプトの構造的階層に分解する,(2) 概念反復,(2) ユーザのリフレクションとフィードバックのセマンティックな境界の例を表面化し,画像分類器をユーザの進化意図と反復的に整合させる,という2つの検討段階で実施する。
概念の議論は本質的に主観的かつインタラクティブであるため、標準ベンチマークデータセットではなく、18のユーザセッションを通じてフレームワークを評価するのに苦労しています。
Agile Deliberationは、自動分解ベースラインよりも7.5%高いF1スコアを達成し、手動のDeliberationよりも3%以上高いことを、参加者は、概念的理解の明確化と認知活動の低さを報告している。
関連論文リスト
- ConceptScope: Characterizing Dataset Bias via Disentangled Visual Concepts [54.60525564599342]
ConceptScopeは、ビジュアルデータセットを分析するためのスケーラブルで自動化されたフレームワークである。
概念を、その意味的関連性とクラスラベルとの統計的相関に基づいて、ターゲット、コンテキスト、バイアスタイプに分類する。
既知のバイアスを確実に検出し、未発表のバイアスを発見できる。
論文 参考訳(メタデータ) (2025-10-30T06:46:17Z) - FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - Analyzing Latent Concepts in Code Language Models [10.214183897113118]
グローバルなポストホック解釈可能性フレームワークであるコード概念分析(CoCoA)を提案する。
CoCoAは、コード言語モデルの表現空間における創発的語彙、構文、意味構造を明らかにする。
本稿では,静的解析ツールをベースとした構文アライメントと,プロンプトエンジニアリングによる大規模言語モデルを組み合わせたハイブリッドアノテーションパイプラインを提案する。
論文 参考訳(メタデータ) (2025-10-01T03:53:21Z) - What You Perceive Is What You Conceive: A Cognition-Inspired Framework for Open Vocabulary Image Segmentation [65.80512502962071]
オープン語彙のイメージセグメンテーションは、推論時に動的に調整可能で事前定義された新しいカテゴリを認識するという課題に取り組む。
既存のパラダイムは通常、クラスに依存しない領域のセグメンテーションを実行し、続いてカテゴリマッチングを行い、領域のセグメンテーションとターゲット概念の整合性が劣る。
人間の視覚認識過程をエミュレートするオープン語彙画像セグメント化のための新しい認知刺激フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T06:33:48Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Knowledge graphs for empirical concept retrieval [1.06378109904813]
概念に基づく説明可能なAIは、あるユーザの前提における複雑なモデルの理解を改善するツールとして期待されている。
本稿では,テキスト領域と画像領域の両方でユーザ主導のデータ収集を行うワークフローを提案する。
我々は,概念アクティベーションベクトル(CAV)と概念アクティベーション領域(CAR)の2つの概念ベース説明可能性手法を用いて,検索した概念データセットをテストする。
論文 参考訳(メタデータ) (2024-04-10T13:47:22Z) - CEIR: Concept-based Explainable Image Representation Learning [0.4198865250277024]
本稿では,概念に基づく説明可能な画像表現(CEIR)を導入し,ラベルに依存しない高品質な表現を導出する。
提案手法は, CIFAR10, CIFAR100, STL10などのベンチマーク上で, 最先端の非教師付きクラスタリング性能を示す。
CEIRは、微調整なしで、オープンワールドイメージから関連概念をシームレスに抽出することができる。
論文 参考訳(メタデータ) (2023-12-17T15:37:41Z) - Agile Modeling: From Concept to Classifier in Minutes [35.03003329814567]
主観的な視覚概念をコンピュータビジョンモデルに変換するプロセスです。
ユーザが30分以内で最小限の労力で分類器を作成できることを、ユーザスタディで示しています。
このユーザ主導のプロセスと,従来のクラウドソーシングのパラダイムを比較して,クラウドソーシングの概念がユーザの概念としばしば異なっていることを確認する。
論文 参考訳(メタデータ) (2023-02-25T01:18:09Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。