論文の概要: Whose Side are Ethics Codes On? Power, Responsibility and the Social
Good
- arxiv url: http://arxiv.org/abs/2002.01559v1
- Date: Tue, 4 Feb 2020 22:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:26:42.089309
- Title: Whose Side are Ethics Codes On? Power, Responsibility and the Social
Good
- Title(参考訳): Ethics Codes Onって誰の側?
権力と責任と社会的利益は
- Authors: Anne L. Washington, Rachel S. Kuo
- Abstract要約: 我々は、消費者を高揚させる倫理規定が同時に脆弱な人口のニーズに従属する可能性があると論じる。
データ技術における有害な露光を説明するために,デジタルディファレンシャル脆弱性の概念を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The moral authority of ethics codes stems from an assumption that they serve
a unified society, yet this ignores the political aspects of any shared
resource. The sociologist Howard S. Becker challenged researchers to clarify
their power and responsibility in the classic essay: Whose Side Are We On.
Building on Becker's hierarchy of credibility, we report on a critical
discourse analysis of data ethics codes and emerging conceptualizations of
beneficence, or the "social good", of data technology. The analysis revealed
that ethics codes from corporations and professional associations conflated
consumers with society and were largely silent on agency. Interviews with
community organizers about social change in the digital era supplement the
analysis, surfacing the limits of technical solutions to concerns of
marginalized communities. Given evidence that highlights the gulf between the
documents and lived experiences, we argue that ethics codes that elevate
consumers may simultaneously subordinate the needs of vulnerable populations.
Understanding contested digital resources is central to the emerging field of
public interest technology. We introduce the concept of digital differential
vulnerability to explain disproportionate exposures to harm within data
technology and suggest recommendations for future ethics codes.
- Abstract(参考訳): 倫理規範の道徳的権威は、それらが統一社会に仕えるという仮定に由来するが、これは共有資源の政治的側面を無視している。
社会学者ハワード・S・ベッカー(Howard S. Becker)は古典的なエッセイ『Whose Side Are We On』で、研究者にその力と責任を明確にするよう求めた。
ベッカーの信頼の階層に基づいて,データ倫理規範の批判的言説分析と,データ技術の「社会的善」という概念化について報告する。
分析の結果、企業や専門団体の倫理規定が消費者を社会と混同し、機関でほとんど沈黙していたことが明らかとなった。
デジタル時代の社会変化に関するコミュニティオーガナイザへのインタビューは分析を補完し、疎外化コミュニティの懸念に対する技術的な解決策の限界を克服した。
文書と生活経験の間の溝を浮かび上がらせる証拠を考えると、我々は消費者を高める倫理規定が同時に脆弱な人口のニーズに従属する可能性があると論じる。
競合するデジタルリソースを理解することは、公益技術の新興分野の中心である。
本稿では,デジタルディファレンシャル脆弱性の概念を導入し,データ技術における有害な暴露を説明するとともに,将来的な倫理規定に対する勧告を提案する。
関連論文リスト
- Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets [0.0]
本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題に光を当てることを目的とする。
コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
論文 参考訳(メタデータ) (2024-08-31T00:59:29Z) - Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models [51.69735366140249]
我々はEthical-Lensというフレームワークを紹介した。
Ethical-Lensは、毒性とバイアス次元をまたいだテキストと画像のモデルにおける価値アライメントを保証する。
実験の結果、Ethical-Lensは商業モデルに匹敵するレベルまでアライメント能力を向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T11:38:25Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - A Critical Examination of the Ethics of AI-Mediated Peer Review [0.0]
人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
論文 参考訳(メタデータ) (2023-09-02T18:14:10Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Navigating Surveillance Capitalism: A Critical Analysis through
philosophical perspectives in Computer Ethics [0.0]
監視資本主義は大量のユーザーデータを収集し分析する実践である。
GoogleやFacebookのようなテクノロジー企業は、ユーザーの個人情報を使ってパーソナライズされたコンテンツや広告を提供する。
監視資本主義のもう一つの例は、国家安全保障のためのデータ収集と分析に軍事技術を使用することである。
論文 参考訳(メタデータ) (2023-05-05T18:37:56Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Technology Ethics in Action: Critical and Interdisciplinary Perspectives [0.0]
デジタル技術に関連する社会的な害に関する懸念に応えて、多くの個人や機関がデジタル技術における倫理を重視する必要性を明確に表明している。
この学際的な問題はこれらの疑問を取り上げ、倫理、技術、社会の間の関係を疑問視する。
論文 参考訳(メタデータ) (2022-02-03T00:41:53Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Ethics in the digital era [0.0]
倫理は、文明の起源から人類にとっての古代の物質であり、倫理は最も関係の深い人間の関心や決定的な文化と関係している。
人工知能とデータによって実現されているデジタル革命は、これらの技術の社会的応用に倫理的に悪質な問題をもたらしている。
論文 参考訳(メタデータ) (2020-03-14T01:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。