論文の概要: A Sign That Spells: DALL-E 2, Invisual Images and The Racial Politics of
Feature Space
- arxiv url: http://arxiv.org/abs/2211.06323v1
- Date: Wed, 26 Oct 2022 17:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 14:15:05.638592
- Title: A Sign That Spells: DALL-E 2, Invisual Images and The Racial Politics of
Feature Space
- Title(参考訳): dall-e 2: 視覚画像と特徴空間の人種政治
- Authors: Fabian Offert and Thao Phan
- Abstract要約: 本稿では,DALL-E 2と関連するモデルに着目し,特徴抽出とセマンティック圧縮の文化的手法によって機能する画像作成の創発的アプローチとして論じる。
私たちは、DALL-E 2のようなシステムがいかにして人種のような政治的に健全な人間の概念を解き明かし、再構成するかを問うために、Open AIの失敗する努力を、彼らのシステムを「デビアス」するために使用しています。
- 参考スコア(独自算出の注目度): 3.468886360466784
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we examine how generative machine learning systems produce a
new politics of visual culture. We focus on DALL-E 2 and related models as an
emergent approach to image-making that operates through the cultural techniques
of feature extraction and semantic compression. These techniques, we argue, are
inhuman, invisual, and opaque, yet are still caught in a paradox that is
ironically all too human: the consistent reproduction of whiteness as a latent
feature of dominant visual culture. We use Open AI's failed efforts to 'debias'
their system as a critical opening to interrogate how systems like DALL-E 2
dissolve and reconstitute politically salient human concepts like race. This
example vividly illustrates the stakes of this moment of transformation, when
so-called foundation models reconfigure the boundaries of visual culture and
when 'doing' anti-racism means deploying quick technical fixes to mitigate
personal discomfort, or more importantly, potential commercial loss.
- Abstract(参考訳): 本稿では,生成型機械学習システムが視覚文化の新しい政治をいかに生み出すかを検討する。
我々は,dall-e 2と関連モデルに着目し,特徴抽出と意味圧縮の文化的手法を応用した画像生成への創発的アプローチを提案する。
これらのテクニックは、非人間的、視覚的、不透明でありながら、皮肉なことに、非常に人間的すぎるパラドックスに巻き込まれている: 支配的な視覚文化の潜伏した特徴としての、白さの一貫して再現。
私たちは、DALL-E 2のようなシステムが、人種のような政治的に健全な人間の概念をいかに解消し、再構成するかを問う重要なオープニングとして、Open AIの失敗する努力を「デビアス」するために使用しています。
この例は、いわゆるファンデーションモデルが視覚文化の境界を再構成する時、そして"反人種差別"が個人的不愉快を和らげるために素早く技術的な修正を配置することを意味している時の、変革の瞬間を鮮明に説明します。
関連論文リスト
- DELIFFAS: Deformable Light Fields for Fast Avatar Synthesis [79.66663771181204]
本研究では,表面光場としての人間の外観をパラメータ化するDELIFFASという新しい手法を提案する。
中心となるのは、変形可能な2面パラメタライゼーションにより、人間の外見の高速かつ正確な推測を可能にする、人間の周囲の光場を表現することである。
慎重に設計された人間の表現と監督戦略は、最先端の合成結果と推測時間につながる。
論文 参考訳(メタデータ) (2023-10-17T17:58:00Z) - Implicit Concept Removal of Diffusion Models [96.03200681493348]
テキスト・ツー・イメージ(T2I)拡散モデルは、透かしや安全でない画像などの不要な概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - AI and Blackness: Towards moving beyond bias and representation [0.8223798883838329]
AI倫理は人種に基づく表現と偏見という概念を超えてはならないと我々は主張する。
AIにおけるアンチブラックネスは、AIシステムの設計、開発、デプロイの基盤を提供する存在論的空間の検査をもっと必要とします。
論文 参考訳(メタデータ) (2021-11-05T18:24:54Z) - Toward a Visual Concept Vocabulary for GAN Latent Space [74.12447538049537]
本稿では,GANの潜在空間で表現される原始視覚概念のオープンエンド語彙を構築するための新しい手法を提案する。
提案手法は, 層選択性に基づく知覚的正当方向の自動識別, 自由形, 構成的自然言語記述による人為的アノテーションの3つの要素から構成される。
実験により、我々のアプローチで学んだ概念は信頼性があり、構成可能であることが示され、クラス、コンテキスト、オブザーバをまたいで一般化される。
論文 参考訳(メタデータ) (2021-10-08T17:58:19Z) - PACE: Posthoc Architecture-Agnostic Concept Extractor for Explaining
CNNs [3.0724051098062097]
画像の小さな部分領域を自動的に抽出するPosthoc Architecture-Agnostic Concept Extractor (PACE)を導入する。
PACEは、説明フレームワークの忠実さをブラックボックスモデルに密に統合する。
これらの実験の結果、PACEによって抽出された概念の72%以上が人間の解釈可能であることが示唆された。
論文 参考訳(メタデータ) (2021-08-31T13:36:15Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Computer Vision and Conflicting Values: Describing People with Automated
Alt Text [11.656318345362804]
本稿では,コンピュータビジョンを用いてアルトテキストを制作している企業が直面する倫理的ジレンマについて検討する。
私たちは、Facebookの自動アルトテキストツールを主要なケーススタディとして使用しています。
論文 参考訳(メタデータ) (2021-05-26T18:01:16Z) - Image Cropping on Twitter: Fairness Metrics, their Limitations, and the
Importance of Representation, Design, and Agency [1.5899159309486681]
2020年秋、twitterのユーザーは、自動トリッピングシステムが暗い肌の個人よりも明るい肌を好むことを懸念した。
我々はこれらの懸念に対処するために、形式化されたグループフェアネス指標を用いて広範な分析を行う。
ユーザエージェンシーをよりよく保存するソリューションとして,サリエンシに基づく収穫の除去を提案する。
論文 参考訳(メタデータ) (2021-05-18T16:50:50Z) - Towards decolonising computational sciences [0.0]
この闘争は2つの基本的なステップを必要としていると考えています。
フィールドの歴史と遺産に 不満を抱くことは 過去の過ちを 避ける鍵を握る
私たちは、これらの分野が、彼らの停滞したセクシスト、人種差別主義者の過去から離れて行くことを望んでいます。
論文 参考訳(メタデータ) (2020-09-29T18:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。