論文の概要: What Values Do ImageNet-trained Classifiers Enact?
- arxiv url: http://arxiv.org/abs/2402.04911v1
- Date: Wed, 7 Feb 2024 14:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:05:17.673866
- Title: What Values Do ImageNet-trained Classifiers Enact?
- Title(参考訳): ImageNet-trained Classifierはどのような価値を実現するか?
- Authors: Will Penman, Joshua Babu, Abhinaya Raghunathan
- Abstract要約: 我々は、「価値」を、重要な社会的関心事に関するオープンな質問に対して、分類者が発言する行動として特定する。
しかし、AIの社会的偏見とは異なり、分類者の価値観は必ずしも道徳的に恐ろしいものではない。
我々の発見は、コンピュータビジョン以外の他の領域に適用可能なML研究者に、社会世界に対する豊かな感覚をもたらします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We identify "values" as actions that classifiers take that speak to open
questions of significant social concern. Investigating a classifier's values
builds on studies of social bias that uncover how classifiers participate in
social processes beyond their creators' forethought. In our case, this
participation involves what counts as nutritious, what it means to be modest,
and more. Unlike AI social bias, however, a classifier's values are not
necessarily morally loathsome. Attending to image classifiers' values can
facilitate public debate and introspection about the future of society. To
substantiate these claims, we report on an extensive examination of both
ImageNet training/validation data and ImageNet-trained classifiers with custom
testing data. We identify perceptual decision boundaries in 118 categories that
address open questions in society, and through quantitative testing of rival
datasets we find that ImageNet-trained classifiers enact at least 7 values
through their perceptual decisions. To contextualize these results, we develop
a conceptual framework that integrates values, social bias, and accuracy, and
we describe a rhetorical method for identifying how context affects the values
that a classifier enacts. We also discover that classifier performance does not
straightforwardly reflect the proportions of subgroups in a training set. Our
findings bring a rich sense of the social world to ML researchers that can be
applied to other domains beyond computer vision.
- Abstract(参考訳): 我々は「価値」を、重要な社会的関心事のオープンな質問に対して、分類器が話す行動として識別する。
分類器の価値を調べることは、分類器が創造者の前提を超えた社会的プロセスに参加する方法を明らかにする社会的偏見の研究に基づいている。
私たちの場合、この参加には栄養価ととらえるもの、控えめであることの意味などが含まれています。
しかし、AIの社会的偏見とは異なり、分類者の価値観は必ずしも道徳的に恐ろしいものではない。
画像分類器の価値に従うことで、社会の将来についての議論や内省が促進される。
これらの主張を裏付けるために、ImageNetトレーニング/バリデーションデータとカスタムテストデータを用いたImageNet訓練分類器の双方について広範な検討を行った。
我々は,社会のオープン問題に対処する118のカテゴリにおいて知覚的決定境界を同定し,imagenetが学習した分類器が知覚的決定を通じて少なくとも7つの値を持つことを示す。
これらの結果を文脈化するために, 価値, 社会的バイアス, 正確性を統合した概念的枠組みを開発し, 文脈が分類器が作用する値にどのように影響するかを識別するための修辞的手法を提案する。
また,分類器の性能はトレーニングセット内のサブグループの比率を直接反映していないことも確認した。
我々の発見は、コンピュータビジョン以外の他の領域に適用可能なML研究者に、社会世界に対する豊かな感覚をもたらします。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - State-of-the-Art in Nudity Classification: A Comparative Analysis [5.76536165136814]
本稿では,ヌードの有無に基づいて画像の分類を行う既存のヌード分類手法の比較分析を行う。
この研究は、現在の評価データセットの限界を特定し、より多様で挑戦的なデータセットの必要性を強調している。
本研究は,プラットフォーム利用者の安全と幸福を確保するため,画像分類モデルの改善を継続的に進めることの重要性を強調した。
論文 参考訳(メタデータ) (2023-12-26T21:24:55Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Towards Reliable Assessments of Demographic Disparities in Multi-Label
Image Classifiers [11.973749734226852]
マルチラベル画像分類と,特に対象分類タスクについて検討する。
測定のための設計選択とトレードオフは、以前のコンピュータビジョン文学で議論されたよりもニュアンスが高い。
実装の詳細にだけ似ているが、評価の結論に大きな影響を及ぼすいくつかの設計選択を特定します。
論文 参考訳(メタデータ) (2023-02-16T20:34:54Z) - Improving Fairness in Large-Scale Object Recognition by CrowdSourced
Demographic Information [7.968124582214686]
機械学習データセットでオブジェクトをかなり表現することは、特定の文化に対するバイアスの少ないモデルにつながるだろう。
コントリビュータの人口構成をクラウドソーシングした,シンプルで汎用的なアプローチを提案する。
既存のデータセットと比較して、より公平な世界カバレッジをもたらす分析結果を提示します。
論文 参考訳(メタデータ) (2022-06-02T22:55:10Z) - Learning to Adapt Domain Shifts of Moral Values via Instance Weighting [74.94940334628632]
ソーシャルメディアからユーザ生成テキストの道徳的価値を分類することは、コミュニティ文化を理解する上で重要である。
道徳的価値観と言語使用法は、社会運動全体で変化しうる。
本稿では、ドメイン間分類タスクを改善するために、インスタンス重み付けによるニューラルネットワーク適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T18:15:41Z) - Evaluating Adversarial Attacks on ImageNet: A Reality Check on
Misclassification Classes [3.0128052969792605]
逆例がImageNetで誤って分類されるクラスの性質について検討する。
モデルからモデルへの変換性を達成した敵対的な例の71%は、トップ5クラスのうちの1つに誤って分類されている。
また、未ターゲットの誤分類の大規模なサブセットは、実際には、意味論的に類似したクラスへの誤分類である。
論文 参考訳(メタデータ) (2021-11-22T08:54:34Z) - Enriching ImageNet with Human Similarity Judgments and Psychological
Embeddings [7.6146285961466]
人間の知覚と推論のタスク汎用能力を具現化したデータセットを提案する。
ImageNet(ImageNet-HSJ)のHuman similarity Judgments拡張は、人間の類似性判定で構成されている。
新しいデータセットは、教師なし学習アルゴリズムの評価を含む、タスクとパフォーマンスのメトリクスの範囲をサポートする。
論文 参考訳(メタデータ) (2020-11-22T13:41:54Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。