論文の概要: Taxonomizing and Measuring Representational Harms: A Look at Image
Tagging
- arxiv url: http://arxiv.org/abs/2305.01776v1
- Date: Tue, 2 May 2023 20:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 16:39:41.302214
- Title: Taxonomizing and Measuring Representational Harms: A Look at Image
Tagging
- Title(参考訳): 分類と表現のハームの測定:画像タギングを例として
- Authors: Jared Katzman and Angelina Wang and Morgan Scheuerman and Su Lin
Blodgett and Kristen Laird and Hanna Wallach and Solon Barocas
- Abstract要約: 画像タグ付けシステムによって引き起こされる4種類の表現障害を同定する。
この種の害を緩和しようとする試みは、互いに緊張関係にある可能性がある。
- 参考スコア(独自算出の注目度): 12.576454410948292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we examine computational approaches for measuring the
"fairness" of image tagging systems, finding that they cluster into five
distinct categories, each with its own analytic foundation. We also identify a
range of normative concerns that are often collapsed under the terms
"unfairness," "bias," or even "discrimination" when discussing problematic
cases of image tagging. Specifically, we identify four types of
representational harms that can be caused by image tagging systems, providing
concrete examples of each. We then consider how different computational
measurement approaches map to each of these types, demonstrating that there is
not a one-to-one mapping. Our findings emphasize that no single measurement
approach will be definitive and that it is not possible to infer from the use
of a particular measurement approach which type of harm was intended to be
measured. Lastly, equipped with this more granular understanding of the types
of representational harms that can be caused by image tagging systems, we show
that attempts to mitigate some of these types of harms may be in tension with
one another.
- Abstract(参考訳): 本稿では,画像タギングシステムの「公正性」を測定するための計算手法について検討し,これらを5つのカテゴリに分類し,それぞれが独自の解析基盤を持つことを示した。
また,画像タグ付けに関する議論において,「不公平」や「バイアス」,さらには「差別」といった用語でしばしば崩壊する規範的関心事も特定した。
具体的には、画像タグ付けシステムによって引き起こされる4種類の表現障害を特定し、それぞれの具体例を示す。
次に、それぞれ異なる計算計測手法がどう対応しているかを検討し、1対1のマッピングがないことを示す。
以上の結果から, 単一測定アプローチは決定的ではなく, 害の種類を想定した特定の測定手法の使用から推測することはできないことを強調した。
最後に、画像タグ付けシステムによって引き起こされる表現的害の種類をより細かく理解することで、これらの害のいくつかを緩和しようとする試みは、互いに緊張関係にある可能性があることを示す。
関連論文リスト
- Interpretable Measures of Conceptual Similarity by
Complexity-Constrained Descriptive Auto-Encoding [112.0878081944858]
画像間の類似度を定量化することは、画像ベースの機械学習にとって重要な著作権問題である。
我々は,高次関係を捉えた画像間での「概念的類似性」の概念を定義し,計算することを目指している。
2つの非常に異種な画像は、その記述の早い段階で識別できるが、概念的に異種な画像は、より詳細を区別する必要がある。
論文 参考訳(メタデータ) (2024-02-14T03:31:17Z) - Introspective Deep Metric Learning [91.47907685364036]
本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
提案するIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能を向上させる。
論文 参考訳(メタデータ) (2023-09-11T16:21:13Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Measuring Representational Harms in Image Captioning [5.543867614999908]
本稿では,5種類の表現的害を測定するための一連の手法と,その結果を述べる。
我々の目標は、この画像キャプションシステムを評価することではなく、基準的基礎計測技術を開発することであった。
測定手法の根底にある仮定を議論し、それが持たないことを指摘する。
論文 参考訳(メタデータ) (2022-06-14T21:08:01Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - On the Choice of Fairness: Finding Representative Fairness Metrics for a
Given Context [5.667221573173013]
フェアネスの様々な概念が定義されているが、適切な計量を選択することは困難である。
トレードオフと不合理な定理により、そのような選択はさらに複雑で議論を呼んでいる。
そこで本稿では,あるコンテキストに対して異なる測度間の相関関係とトレードオフを自動的に検出するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T04:17:38Z) - Contrastive Counterfactual Visual Explanations With Overdetermination [7.8752926274677435]
CLEARイメージは、満足いく説明は対照的で、事実的であり、測定可能であるべきだという見解に基づいている。
CLEAR画像は、Grad-CAMやLIMEなどの手法を平均27%向上させる医療画像ケーススタディに適用した。
論文 参考訳(メタデータ) (2021-06-28T10:24:17Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Measuring Model Biases in the Absence of Ground Truth [2.802021236064919]
根拠となる真理ラベルに依存しない公平さと偏見の測定に新たなフレーミングを導入する。
代わりに、ある画像のモデル予測を、自然言語処理(NLP)で使用される「言葉の袋」アプローチに類似したラベルの集合として扱う。
異なる相関指標の統計的性質(特に正規化)が,「生成バイアス」が検出されるラベルの異なる集合にどのようにつながるかを実証する。
論文 参考訳(メタデータ) (2021-03-05T01:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。