論文の概要: Excavating "Excavating AI": The Elephant in the Gallery
- arxiv url: http://arxiv.org/abs/2009.01215v3
- Date: Thu, 24 Dec 2020 01:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:25:48.559486
- Title: Excavating "Excavating AI": The Elephant in the Gallery
- Title(参考訳): Excavating AI」を発掘する - ギャラリーのエレファント
- Authors: Michael J. Lyons
- Abstract要約: 批判的な精査は、顔画像の使用に対するインフォームドコンセントに関する自己コントラクタリースタンスを明らかにする。
我々の分析は、芸術的、その他の文脈で人的データを使用する場合、インフォームド・コンセントの非交渉性を裏付けるものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two art exhibitions, "Training Humans" and "Making Faces," and the
accompanying essay "Excavating AI: The politics of images in machine learning
training sets" by Kate Crawford and Trevor Paglen, are making substantial
impact on discourse taking place in the social and mass media networks, and
some scholarly circles. Critical scrutiny reveals, however, a
self-contradictory stance regarding informed consent for the use of facial
images, as well as serious flaws in their critique of ML training sets. Our
analysis underlines the non-negotiability of informed consent when using human
data in artistic and other contexts, and clarifies issues relating to the
description of ML training sets.
- Abstract(参考訳): 2つのアート展「Training Humans」と「Making Faces」は、ケイト・クロウフォードとトレバー・パグレンによるエッセイ「Excavating AI: The politics of image in machine learning training sets」に付随し、社会・マスメディアネットワークや学術サークルで起こっている議論に大きな影響を与えている。
しかし、批判的な精査は、顔画像の使用に対するインフォームドコンセンサスに関する自己コントラクタリースタンスと、MLトレーニングセットに対する批判の深刻な欠陥を明らかにしている。
本分析は,芸術的,その他の文脈で人的データを使用する場合のインフォームド・コンセントの非交渉性を明らかにし,MLトレーニングセットの記述に関する問題点を明らかにする。
関連論文リスト
- Attention is All You Want: Machinic Gaze and the Anthropocene [2.4554686192257424]
計算ビジョンは、人類新世の表現を解釈し、合成する。
我々は、この創発的な機械的視線が、その未来的な風景の組成を通してどのように見えるか、そして、観察され観察される人間の対象に向かって振り返るかを考察する。
様々な補助的、監視的、生成的役割において、コンピュータビジョンは人間の欲望を反映するだけでなく、独自の斜めの要求を明瞭に反映する。
論文 参考訳(メタデータ) (2024-05-16T00:00:53Z) - Synthesizing Environment-Specific People in Photographs [57.962139271004325]
ESPはコンテキスト対応フルボディ生成のための新しい手法である。
ESPは、シーンの写真から抽出された2Dポーズとコンテキストキューに条件付けされる。
本研究では,ESPがコンテキストフルボディ生成のタスクにおいて,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-22T10:15:15Z) - Combating the "Sameness" in AI Art: Reflections on the Interactive AI
Installation Fencing Hallucination [5.54780083433538]
この記事では、AI(Artificial Intelligence)アートにおける3つのタイプの「サミーネス」問題を要約する。
Fencing Hallucinationプロジェクトを通じて、同記事は、統一感を緩和するAIアート制作の設計を反映している。
論文 参考訳(メタデータ) (2023-11-28T00:00:34Z) - Understanding Pose and Appearance Disentanglement in 3D Human Pose
Estimation [72.50214227616728]
ポーズ情報から外見情報を引き離すために,自己教師型で画像表現を学習する手法がいくつか提案されている。
我々は,多種多様な画像合成実験を通じて,自己教師ネットワークの観点から,ゆがみについて検討する。
我々は,対象の自然な外見変化を生起することに焦点を当てた敵対的戦略を設計し,その反対に,絡み合ったネットワークが堅牢であることを期待している。
論文 参考訳(メタデータ) (2023-09-20T22:22:21Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Contextually-rich human affect perception using multimodal scene
information [36.042369831043686]
我々は、事前学習された視覚言語(VLN)モデルを利用して、画像から前景の文脈の記述を抽出する。
本研究では,前景の手がかりを視覚シーンと組み合わせたマルチモーダルコンテキスト融合(MCF)モジュールと,感情予測のための個人ベースのコンテキスト情報を提案する。
自然のシーンとテレビ番組に関連する2つのデータセットに対して,モジュール設計の有効性を示す。
論文 参考訳(メタデータ) (2023-03-13T07:46:41Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - "Excavating AI" Re-excavated: Debunking a Fallacious Account of the
JAFFE Dataset [0.7614628596146599]
この記事では、JAFFEデータセットの作成と、CrawfordとPaglenの誤記のそれぞれについて言及している。
JAFFEはまた、表情、感情コンピューティング、人間とコンピュータの相互作用の研究に関連して、より広範囲に議論する。
論文 参考訳(メタデータ) (2021-07-28T01:31:59Z) - ChaLearn Looking at People: Inpainting and Denoising challenges [41.481257371694284]
本章では、画像や映像の描画に焦点を当てた学術コンペティションのデザインについて述べる。
ChaLearn Looking at People Inpainting Challengeは、視覚的インペインティングに関する最先端技術を目指しています。
3つのトラックが提案され、人間の身体のポーズ推定、テキストのオーバーレイ除去、指紋のデノーミングといった視覚的塗布が役立つが、それでも難しい。
論文 参考訳(メタデータ) (2021-06-24T14:57:21Z) - Comparing Visual Reasoning in Humans and AI [66.89451296340809]
人間の行動や社会的相互作用を含む複雑なシーンのデータセットを作成しました。
ai/ヒューマンのシーン記述と、各シーンの他の5つの人間記述の地上真実との類似度を定量的に測定した。
結果は、機械/人間の合意シーンの説明は、私たちの複雑なシーンの人間/人間の合意よりもはるかに低いことを示しています。
論文 参考訳(メタデータ) (2021-04-29T04:44:13Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。