論文の概要: Exploring Gender and Race Biases in the NFT Market
- arxiv url: http://arxiv.org/abs/2304.06484v1
- Date: Wed, 29 Mar 2023 17:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 21:46:22.910339
- Title: Exploring Gender and Race Biases in the NFT Market
- Title(参考訳): NFT市場におけるジェンダーとレースバイアスの探索
- Authors: Howard Zhong, Mark Hamilton
- Abstract要約: 非Fungible Tokens(NFT)は非交換可能な資産であり、通常はデジタルアートであり、ブロックチェーンに格納される。
予備研究により、メスとより暗い肌のNFTは、男性やより軽い肌のNFTよりも価値が低いことが判明した。
我々は、CryptoPunksの価格における人種とジェンダーのバイアスの統計的意義を検証し、幅広いNFT市場におけるジェンダーバイアスの最初の研究を示す。
- 参考スコア(独自算出の注目度): 0.7568479331927529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-Fungible Tokens (NFTs) are non-interchangeable assets, usually digital
art, which are stored on the blockchain. Preliminary studies find that female
and darker-skinned NFTs are valued less than their male and lighter-skinned
counterparts. However, these studies analyze only the CryptoPunks collection.
We test the statistical significance of race and gender biases in the prices of
CryptoPunks and present the first study of gender bias in the broader NFT
market. We find evidence of racial bias but not gender bias. Our work also
introduces a dataset of gender-labeled NFT collections to advance the broader
study of social equity in this emerging market.
- Abstract(参考訳): 非Fungible Tokens(NFT)は非交換可能な資産であり、通常はデジタルアートであり、ブロックチェーンに格納される。
予備研究により、女性や浅黒い肌のNFTは、男性や軽い肌のNFTよりも価値が低いことが判明した。
しかし、これらの研究はCryptoPunksコレクションのみを分析する。
我々は、CryptoPunksの価格における人種とジェンダーのバイアスの統計的意義を検証し、幅広いNFT市場におけるジェンダーバイアスの最初の研究を示す。
人種バイアスの証拠は見つかるが、性別バイアスは見当たらない。
我々の研究は、この新興市場におけるソーシャルエクイティの広範な研究を促進するために、ジェンダーラベル付きNFTコレクションのデータセットも導入している。
関連論文リスト
- The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - On the Mechanics of NFT Valuation: AI Ethics and Social Media [9.0270684890377]
ソーシャルメディアの感情とジェンダーと肌のトーンがNFTの評価にどのように貢献するかを研究する。
クリプトパンクに対する人々の態度は概ね肯定的だが, 取引活動の不均衡や, 性別や肌の色調に基づく価格設定を反映している。
論文 参考訳(メタデータ) (2023-07-13T03:12:00Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - A Survey on Gender Bias in Natural Language Processing [22.91475787277623]
自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
論文 参考訳(メタデータ) (2021-12-28T14:54:18Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。