論文の概要: Ethical Considerations for Collecting Human-Centric Image Datasets
- arxiv url: http://arxiv.org/abs/2302.03629v1
- Date: Tue, 7 Feb 2023 17:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:29:54.957249
- Title: Ethical Considerations for Collecting Human-Centric Image Datasets
- Title(参考訳): 人間中心画像データセット収集のための倫理的考察
- Authors: Jerone T. A. Andrews and Dora Zhao and William Thong and Apostolos
Modas and Orestis Papakyriakopoulos and Shruti Nagpal and Alice Xiang
- Abstract要約: 人間中心の画像データセットはコンピュータビジョン技術の発展に不可欠である。
最近の調査は、プライバシーと偏見に関する重要な倫理的問題を予見している。
我々は、より倫理的なイメージデータを集めるための重要な倫理的考察と実践的な勧告を提示する。
- 参考スコア(独自算出の注目度): 13.892950222462494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-centric image datasets are critical to the development of computer
vision technologies. However, recent investigations have foregrounded
significant ethical issues related to privacy and bias, which have resulted in
the complete retraction, or modification, of several prominent datasets. Recent
works have tried to reverse this trend, for example, by proposing analytical
frameworks for ethically evaluating datasets, the standardization of dataset
documentation and curation practices, privacy preservation methodologies, as
well as tools for surfacing and mitigating representational biases. Little
attention, however, has been paid to the realities of operationalizing ethical
data collection. To fill this gap, we present a set of key ethical
considerations and practical recommendations for collecting more
ethically-minded human-centric image data. Our research directly addresses
issues of privacy and bias by contributing to the research community best
practices for ethical data collection, covering purpose, privacy and consent,
as well as diversity. We motivate each consideration by drawing on lessons from
current practices, dataset withdrawals and audits, and analytical ethical
frameworks. Our research is intended to augment recent scholarship,
representing an important step toward more responsible data curation practices.
- Abstract(参考訳): 人間中心の画像データセットはコンピュータビジョン技術の発展に不可欠である。
しかし、近年の研究では、プライバシとバイアスに関する重大な倫理上の問題が予見され、いくつかの著名なデータセットの完全な撤回、あるいは修正に繋がった。
例えば、データセットを倫理的に評価するための分析フレームワークの提案、データセットの文書化とキュレーションプラクティスの標準化、プライバシ保護方法論、表現バイアスを表面化し緩和するためのツールなどだ。
しかし、倫理データ収集の運用の現実にはほとんど注意が払われていない。
このギャップを埋めるために、より倫理的に重視された人間中心の画像データを集めるための重要な倫理的考察と実践的な勧告を提案する。
本研究は、倫理データ収集における研究コミュニティのベストプラクティスに貢献し、目的、プライバシ、同意、多様性をカバーし、プライバシーと偏見の問題を直接的に解決する。
私たちは、現在のプラクティス、データセットの離脱と監査、分析的倫理的枠組みから教訓を導き、各考慮事項にモチベーションを与えます。
我々の研究は、最近の奨学金を強化することを目的としており、より責任あるデータキュレーションの実践に向けた重要なステップである。
関連論文リスト
- Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - When is Off-Policy Evaluation (Reward Modeling) Useful in Contextual Bandits? A Data-Centric Perspective [64.73162159837956]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
医療データセットを用いたログ化された文脈的帯域設定におけるDataCOPEの実証分析により、機械学習と人間の専門家ポリシーの両方を評価する能力が確認された。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。