論文の概要: An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections
- arxiv url: http://arxiv.org/abs/2101.02008v1
- Date: Sun, 27 Dec 2020 07:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 03:58:50.933744
- Title: An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections
- Title(参考訳): 倫理的AIとデータ利用への生態系アプローチ:実験的考察
- Authors: Mark Findlay and Josephine Seah
- Abstract要約: 本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While we have witnessed a rapid growth of ethics documents meant to guide AI
development, the promotion of AI ethics has nonetheless proceeded with little
input from AI practitioners themselves. Given the proliferation of AI for
Social Good initiatives, this is an emerging gap that needs to be addressed in
order to develop more meaningful ethical approaches to AI use and development.
This paper offers a methodology, a shared fairness approach, aimed at
identifying the needs of AI practitioners when it comes to confronting and
resolving ethical challenges and to find a third space where their operational
language can be married with that of the more abstract principles that
presently remain at the periphery of their work experiences. We offer a
grassroots approach to operational ethics based on dialog and mutualised
responsibility. This methodology is centred around conversations intended to
elicit practitioners perceived ethical attribution and distribution over key
value laden operational decisions, to identify when these decisions arise and
what ethical challenges they confront, and to engage in a language of ethics
and responsibility which enables practitioners to internalise ethical
responsibility. The methodology bridges responsibility imbalances that rest in
structural decision making power and elite technical knowledge, by commencing
with personal, facilitated conversations, returning the ethical discourse to
those meant to give it meaning at the sharp end of the ecosystem. Our primary
contribution is to add to the recent literature seeking to bring AI
practitioners' experiences to the fore by offering a methodology for
understanding how ethics manifests as a relational and interdependent
sociotechnical practice in their work.
- Abstract(参考訳): AI開発を導くための倫理文書が急速に成長しているのを私たちは見てきたが、それでもAI倫理の推進は、AI実践者自身からの入力はほとんど行われていない。
AI for Social Goodイニシアチブが急増していることを考えると、これはAIの使用と開発に対するより有意義な倫理的アプローチを開発するために対処する必要がある、新たなギャップである。
本稿では,倫理的課題に直面し解決する上で,ai実践者のニーズを識別し,作業経験の周縁に残る抽象的な原則と運用言語を融合できる第3の空間を見つけることを目的とした,共有公平性アプローチを提案する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
この方法論は、実践者が重要な価値を持つ運用上の決定に対して倫理的帰属と分配を認識させ、これらの決定がいつ発生し、どのような倫理的課題に直面するかを特定し、実践者が倫理的責任を内在化するための倫理的責任の言語に取り組むことを目的としている。
この方法論は、構造的な意思決定力とエリートな技術的知識におけるrestの責任の不均衡を橋渡しし、個人的な会話を促進させ、生態系の鋭い端でその意味を与えるために倫理的な談話を返す。
我々の主な貢献は、AI実践者の経験を前面に持ち込もうとする最近の文献に加え、倫理が彼らの仕事においてリレーショナルで相互依存の社会技術的実践としてどのように現れるかを理解するための方法論を提供することである。
関連論文リスト
- Raising AI Ethics Awareness through an AI Ethics Quiz for Software Practitioners [7.928588994077104]
研究は、AI倫理と倫理原則に対する実践者の認識と知識に重大なギャップがあることを示唆している。
我々は、ソフトウェア実践者間の認知を高め、AI倫理の知識を高めるための、ソフトウェアベースのツールであるAI Ethics Quizを開発した。
論文 参考訳(メタデータ) (2024-08-28T23:36:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - German AI Start-Ups and AI Ethics: Using A Social Practice Lens for
Assessing and Implementing Socio-Technical Innovation [0.0]
本稿では,倫理的AIを理解するための実践的アプローチを紹介する。
我々は,ドイツのAIスタートアップにおける倫理の運用に関する実証的な知見を提示する。
倫理的AIの実践は、原則、ニーズ、物語、実体化、文化的な系図に分解できると提案する。
論文 参考訳(メタデータ) (2022-06-20T19:44:39Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Implementing AI Ethics in Practice: An Empirical Evaluation of the
RESOLVEDD Strategy [6.7298812735467095]
我々は,ビジネス倫理学の分野であるRESOLVEDD戦略から,倫理システム開発の文脈において,既存の手法を実証的に評価する。
私たちの重要な発見の1つは、倫理的手法の使用が参加者に強制されたとしても、その利用はプロジェクトにおける倫理的配慮を促進したことである。
論文 参考訳(メタデータ) (2020-04-21T17:58:53Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。