論文の概要: Image Cropping on Twitter: Fairness Metrics, their Limitations, and the
Importance of Representation, Design, and Agency
- arxiv url: http://arxiv.org/abs/2105.08667v1
- Date: Tue, 18 May 2021 16:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:05:00.253447
- Title: Image Cropping on Twitter: Fairness Metrics, their Limitations, and the
Importance of Representation, Design, and Agency
- Title(参考訳): Image Cropping on Twitter: Fairness Metrics, their limitation, and the importance of Representation, Design, and Agency
- Authors: Kyra Yee, Uthaipon Tantipongpipat, Shubhanshu Mishra
- Abstract要約: 2020年秋、twitterのユーザーは、自動トリッピングシステムが暗い肌の個人よりも明るい肌を好むことを懸念した。
我々はこれらの懸念に対処するために、形式化されたグループフェアネス指標を用いて広範な分析を行う。
ユーザエージェンシーをよりよく保存するソリューションとして,サリエンシに基づく収穫の除去を提案する。
- 参考スコア(独自算出の注目度): 1.5899159309486681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Twitter uses machine learning to crop images, where crops are centered around
the part predicted to be the most salient. In fall 2020, Twitter users raised
concerns that the automated image cropping system on Twitter favored
light-skinned over dark-skinned individuals, as well as concerns that the
system favored cropping woman's bodies instead of their heads. In order to
address these concerns, we conduct an extensive analysis using formalized group
fairness metrics. We find systematic disparities in cropping and identify
contributing factors, including the fact that the cropping based on the single
most salient point can amplify the disparities. However, we demonstrate that
formalized fairness metrics and quantitative analysis on their own are
insufficient for capturing the risk of representational harm in automatic
cropping. We suggest the removal of saliency-based cropping in favor of a
solution that better preserves user agency. For developing a new solution that
sufficiently address concerns related to representational harm, our critique
motivates a combination of quantitative and qualitative methods that include
human-centered design.
- Abstract(参考訳): twitterは機械学習を使って画像を収穫する。
2020年秋、twitterのユーザーは、自動トリッピングシステムが浅黒い肌の個人よりも明るい肌を好むことを懸念し、またこのシステムが頭の代わりに女性の身体をトリッピングすることを好んでいることを懸念した。
これらの懸念に対処するために,形式化されたグループフェアネスメトリクスを用いて広範な分析を行う。
作付けにおける系統的な相違は,最も顕著な点に基づく作付けが,その相違を増幅するという事実を含む寄与要因を同定する。
しかし, 自動収穫における表現的害のリスクを捉えるには, 形式化された公正度指標と定量分析が不十分であることを示す。
ユーザエージェンシーをよりよく保存するソリューションとして,サリエンシに基づく収穫の除去を提案する。
表現的危害に関する懸念に十分対処できる新しいソリューションを開発するために、我々の批判は、人間中心の設計を含む量的および質的手法の組み合わせを動機付ける。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Safeguard Text-to-Image Diffusion Models with Human Feedback Inversion [51.931083971448885]
本稿では,Human Feedback Inversion (HFI) というフレームワークを提案する。
実験の結果,画像品質を維持しながら,好ましくないコンテンツ生成を著しく削減し,公的な領域におけるAIの倫理的展開に寄与することが示された。
論文 参考訳(メタデータ) (2024-07-17T05:21:41Z) - Be Yourself: Bounded Attention for Multi-Subject Text-to-Image Generation [60.943159830780154]
本稿では,サンプリングプロセスにおける情報フローをバウンドする訓練不要な手法である境界注意法を紹介する。
提案手法は,与えられたプロンプトとレイアウトの整合性を向上する複数の主題の生成に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:52:07Z) - Extracting Human Attention through Crowdsourced Patch Labeling [18.947126675569667]
画像分類では、データセットのバイアスから重大な問題が生じる。
このようなバイアスを軽減する1つのアプローチは、モデルが対象物の位置に注意を向けることである。
本稿では,画像から人の注意を捉えるために,クラウドソーシングとAI支援を統合した新しいパッチラベル手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T07:57:27Z) - Learning Subject-Aware Cropping by Outpainting Professional Photos [69.0772948657867]
本稿では,高品質な主観的作物を生産する要因を,プロのストックイメージから学習するための弱教師付きアプローチを提案する。
私たちの洞察は、ストックイメージのライブラリと、最新のトレーニング済みのテキスト-画像拡散モデルを組み合わせることです。
我々は、収穫された無作為のトレーニングペアの大規模なデータセットを自動的に生成して、収穫モデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-12-19T11:57:54Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Dissecting Image Crops [22.482090207522358]
収穫の基本的な操作は、ほぼ全てのコンピュータビジョンシステムに根ざしている。
本稿では,本操作で導入された微妙な痕跡について考察する。
本研究では,これらの痕跡の検出方法と,収穫が画像分布に与える影響について検討する。
論文 参考訳(メタデータ) (2020-11-24T01:33:47Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。