論文の概要: Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets
- arxiv url: http://arxiv.org/abs/2409.10533v3
- Date: Sun, 22 Sep 2024 16:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 20:35:12.578934
- Title: Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets
- Title(参考訳): コンピュータビジョンにおける倫理的課題: 公開データセットにおけるプライバシの確保とバイアスの緩和
- Authors: Ghalib Ahmed Tahir,
- Abstract要約: 本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題に光を当てることを目的とする。
コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to shed light on the ethical problems of creating and deploying computer vision tech, particularly in using publicly available datasets. Due to the rapid growth of machine learning and artificial intelligence, computer vision has become a vital tool in many industries, including medical care, security systems, and trade. However, extensive use of visual data that is often collected without consent due to an informed discussion of its ramifications raises significant concerns about privacy and bias. The paper also examines these issues by analyzing popular datasets such as COCO, LFW, ImageNet, CelebA, PASCAL VOC, etc., that are usually used for training computer vision models. We offer a comprehensive ethical framework that addresses these challenges regarding the protection of individual rights, minimization of bias as well as openness and responsibility. We aim to encourage AI development that will take into account societal values as well as ethical standards to avoid any public harm.
- Abstract(参考訳): 本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題,特に公開データセットの利用に関して,光を当てることを目的としている。
機械学習と人工知能の急速な成長により、コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
しかし、その影響についての情報的な議論により、同意なく収集されることが多い視覚的データの広範な使用は、プライバシーと偏見に関する重大な懸念を提起する。
また、コンピュータビジョンモデルのトレーニングに通常使用されるCOCO、LFW、ImageNet、CelebA、PASCAL VOCなどの一般的なデータセットを分析して、これらの問題についても検討する。
我々は、個人の権利の保護、バイアスの最小化、開放性と責任に関するこれらの課題に対処する包括的な倫理的枠組みを提供する。
我々は、社会的な価値と倫理的基準を考慮に入れたAI開発を奨励し、公共の害を避けることを目指している。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges [6.916147439085307]
大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T21:36:35Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Privacy and Copyright Protection in Generative AI: A Lifecycle Perspective [28.968233485060654]
データライフサイクルにおけるプライバシーと著作権保護の多面的課題について論じる。
我々は、技術的革新と倫理的展望を組み合わせた統合的なアプローチを提唱する。
この作業は、より広範な議論のきっかけとなり、ジェネレーティブAIにおけるデータのプライバシと著作権の整合性に対する継続的な取り組みを促進することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T05:03:08Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - An Ethical Highlighter for People-Centric Dataset Creation [62.886916477131486]
本稿では,既存のデータセットの倫理的評価を導くための分析フレームワークを提案する。
我々の研究は、先行研究のレビューと分析によって知らされ、そのような倫理的課題が生じる場所を強調します。
論文 参考訳(メタデータ) (2020-11-27T07:18:44Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。