論文の概要: "Excavating AI" Re-excavated: Debunking a Fallacious Account of the
JAFFE Dataset
- arxiv url: http://arxiv.org/abs/2107.13998v1
- Date: Wed, 28 Jul 2021 01:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:28:42.745096
- Title: "Excavating AI" Re-excavated: Debunking a Fallacious Account of the
JAFFE Dataset
- Title(参考訳): AIの発掘」再発見:JAFFEデータセットの誤った説明
- Authors: Michael J. Lyons
- Abstract要約: この記事では、JAFFEデータセットの作成と、CrawfordとPaglenの誤記のそれぞれについて言及している。
JAFFEはまた、表情、感情コンピューティング、人間とコンピュータの相互作用の研究に関連して、より広範囲に議論する。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Twenty-five years ago, my colleagues Miyuki Kamachi and Jiro Gyoba and I
designed and photographed JAFFE, a set of facial expression images intended for
use in a study of face perception. In 2019, without seeking permission or
informing us, Kate Crawford and Trevor Paglen exhibited JAFFE in two widely
publicized art shows. In addition, they published a nonfactual account of the
images in the essay "Excavating AI: The Politics of Images in Machine Learning
Training Sets." The present article recounts the creation of the JAFFE dataset
and unravels each of Crawford and Paglen's fallacious statements. I also
discuss JAFFE more broadly in connection with research on facial expression,
affective computing, and human-computer interaction.
- Abstract(参考訳): 25年前、同僚の蒲町みゆきとぎょうば二郎と私は、顔の知覚の研究に使用する表情画像のセットであるJAFFEをデザインし、撮影しました。
2019年、ケイト・クロウフォード(Kate Crawford)氏とトレバー・パグレン(Trevor Paglen)氏は、JAFFEを広く公開された2つのアートショーで展示した。
さらに、彼らはエッセイ"Expcavating AI: The Politics of Images in Machine Learning Training Sets"の中で、画像の非現実的な説明を公開した。
この記事では、JAFFEデータセットの作成と、CrawfordとPaglenの誤記のそれぞれについて説明します。
JAFFEはまた、表情、感情コンピューティング、人間とコンピュータの相互作用の研究に関連して、より広範囲に議論する。
関連論文リスト
- GiMeFive: Towards Interpretable Facial Emotion Classification [1.1468563069298348]
深層畳み込みニューラルネットワークは、顔の感情をうまく認識することが示されている。
本稿では,階層アクティベーションと勾配重み付きクラスマッピングを用いたGiMeFiveモデルを提案する。
実験結果から,本モデルでは従来の手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-24T00:37:37Z) - Blind Dates: Examining the Expression of Temporality in Historical
Photographs [57.07335632641355]
マルチモーダル言語とビジョンモデルであるCLIPのオープンソース実装であるOpenCLIPを用いて、画像の日付を調査する。
我々は1950年から1999年までの39,866枚のグレースケールの歴史的プレス写真を含むtextitDe Boer Scene Detectionデータセットを使用している。
解析の結果、バス、車、猫、犬、そして人々が写っている画像はより正確に年代付けされており、時間的マーカーの存在が示唆されている。
論文 参考訳(メタデータ) (2023-10-10T13:51:24Z) - RAPHAEL: Text-to-Image Generation via Large Mixture of Diffusion Paths [40.94292893746311]
我々はRAPHAELと呼ばれるテキスト条件画像拡散モデルを導入し,芸術的画像を生成する。
RAPHAELは、日本の漫画、リアリズム、サイバーパンク、インクイラストレーションなど、さまざまなスタイルの画像を切り替える際の優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-05-29T17:59:41Z) - Introducing Construct Theory as a Standard Methodology for Inclusive AI
Models [0.0]
Google Cloud Vision APIとMicrosoft Cognitive Services APIをテストし、50のサブエレメントで、顔の構成の15の要素を提示します。
この結果から, 傾斜率の差が正確に分かる。
実験結果から,AIMLモデルの業界標準として,検証された包括的構成が提案される。
論文 参考訳(メタデータ) (2023-04-19T01:01:19Z) - Learning Dynamic Facial Radiance Fields for Few-Shot Talking Head
Synthesis [90.43371339871105]
音声音声音声合成のための動的顔放射場(DFRF)を提案する。
DFRF条件は2次元外観画像上の放射界を呈示し、先行した顔の学習を行う。
実験により、DFRFは40kの反復しか持たない新しいアイデンティティのために、自然で高品質な音声駆動音声ヘッドビデオを合成できることが示された。
論文 参考訳(メタデータ) (2022-07-24T16:46:03Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - FaceEraser: Removing Facial Parts for Augmented Reality [10.575917056215289]
私たちの仕事は、すべての顔部分を取り除き、拡張現実のために空白の顔に視覚的要素を課すことです。
本研究では,空白の顔によく似通ったペアトレーニングデータを生成する新しいデータ生成手法を提案する。
提案手法は商用製品に統合され,その有効性は制約のないユーザ入力で検証されている。
論文 参考訳(メタデータ) (2021-09-22T14:30:12Z) - Excavating "Excavating AI": The Elephant in the Gallery [0.0]
批判的な精査は、顔画像の使用に対するインフォームドコンセントに関する自己コントラクタリースタンスを明らかにする。
我々の分析は、芸術的、その他の文脈で人的データを使用する場合、インフォームド・コンセントの非交渉性を裏付けるものである。
論文 参考訳(メタデータ) (2020-09-02T17:42:06Z) - Federated Face Presentation Attack Detection [93.25058425356694]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
本稿では,FedPAD(Federated Face Presentation Detection)フレームワークを提案する。
FedPADは、データプライバシを保持しながら、異なるデータオーナで利用可能な豊富なfPAD情報を同時に活用する。
論文 参考訳(メタデータ) (2020-05-29T15:56:01Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。