論文の概要: Image Cropping on Twitter: Fairness Metrics, their Limitations, and the
Importance of Representation, Design, and Agency
- arxiv url: http://arxiv.org/abs/2105.08667v1
- Date: Tue, 18 May 2021 16:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:05:00.253447
- Title: Image Cropping on Twitter: Fairness Metrics, their Limitations, and the
Importance of Representation, Design, and Agency
- Title(参考訳): Image Cropping on Twitter: Fairness Metrics, their limitation, and the importance of Representation, Design, and Agency
- Authors: Kyra Yee, Uthaipon Tantipongpipat, Shubhanshu Mishra
- Abstract要約: 2020年秋、twitterのユーザーは、自動トリッピングシステムが暗い肌の個人よりも明るい肌を好むことを懸念した。
我々はこれらの懸念に対処するために、形式化されたグループフェアネス指標を用いて広範な分析を行う。
ユーザエージェンシーをよりよく保存するソリューションとして,サリエンシに基づく収穫の除去を提案する。
- 参考スコア(独自算出の注目度): 1.5899159309486681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Twitter uses machine learning to crop images, where crops are centered around
the part predicted to be the most salient. In fall 2020, Twitter users raised
concerns that the automated image cropping system on Twitter favored
light-skinned over dark-skinned individuals, as well as concerns that the
system favored cropping woman's bodies instead of their heads. In order to
address these concerns, we conduct an extensive analysis using formalized group
fairness metrics. We find systematic disparities in cropping and identify
contributing factors, including the fact that the cropping based on the single
most salient point can amplify the disparities. However, we demonstrate that
formalized fairness metrics and quantitative analysis on their own are
insufficient for capturing the risk of representational harm in automatic
cropping. We suggest the removal of saliency-based cropping in favor of a
solution that better preserves user agency. For developing a new solution that
sufficiently address concerns related to representational harm, our critique
motivates a combination of quantitative and qualitative methods that include
human-centered design.
- Abstract(参考訳): twitterは機械学習を使って画像を収穫する。
2020年秋、twitterのユーザーは、自動トリッピングシステムが浅黒い肌の個人よりも明るい肌を好むことを懸念し、またこのシステムが頭の代わりに女性の身体をトリッピングすることを好んでいることを懸念した。
これらの懸念に対処するために,形式化されたグループフェアネスメトリクスを用いて広範な分析を行う。
作付けにおける系統的な相違は,最も顕著な点に基づく作付けが,その相違を増幅するという事実を含む寄与要因を同定する。
しかし, 自動収穫における表現的害のリスクを捉えるには, 形式化された公正度指標と定量分析が不十分であることを示す。
ユーザエージェンシーをよりよく保存するソリューションとして,サリエンシに基づく収穫の除去を提案する。
表現的危害に関する懸念に十分対処できる新しいソリューションを開発するために、我々の批判は、人間中心の設計を含む量的および質的手法の組み合わせを動機付ける。
関連論文リスト
- Learning Subject-Aware Cropping by Outpainting Professional Photos [66.19494654346795]
本稿では,高品質な主観的作物を生産する要因を,プロのストックイメージから学習するための弱教師付きアプローチを提案する。
私たちの洞察は、ストックイメージのライブラリと、最新のトレーニング済みのテキスト-画像拡散モデルを組み合わせることです。
我々は、収穫された無作為のトレーニングペアの大規模なデータセットを自動的に生成して、収穫モデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-12-19T11:57:54Z) - Exploring the Naturalness of AI-Generated Images [59.04528584651131]
我々は、AI生成画像の視覚的自然性をベンチマークし、評価する第一歩を踏み出した。
本研究では,人間の評価を整列するAGIの自然性を自動予測するジョイント・オブジェクト・イメージ・ナチュラルネス評価器(JOINT)を提案する。
その結果,JOINTは自然性評価において,より主観的に一貫した結果を提供するために,ベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-12-09T06:08:09Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Human-centric Image Cropping with Partition-aware and Content-preserving
Features [23.692951740488365]
候補作物に2つの新しい特徴を持つ人中心画像収穫法を提案する。
分割認識機能では、画像全体を人間の境界ボックスに基づいて9つのパーティションに分割し、人間の情報に基づいて異なる条件の候補作物における異なるパーティションを処理する。
コンテンツ保存機能については,作物に含まれる重要な内容を示すヒートマップを予測し,ヒートマップと候補作物との幾何学的関係を抽出する。
論文 参考訳(メタデータ) (2022-07-21T02:34:07Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Dissecting Image Crops [22.482090207522358]
収穫の基本的な操作は、ほぼ全てのコンピュータビジョンシステムに根ざしている。
本稿では,本操作で導入された微妙な痕跡について考察する。
本研究では,これらの痕跡の検出方法と,収穫が画像分布に与える影響について検討する。
論文 参考訳(メタデータ) (2020-11-24T01:33:47Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。