論文の概要: Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics
- arxiv url: http://arxiv.org/abs/2202.08792v2
- Date: Fri, 20 Jan 2023 22:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:02:03.772234
- Title: Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics
- Title(参考訳): ツールキットのように見る: ツールキットがai倫理の仕事をどう考えるか
- Authors: Richmond Y. Wong, Michael A. Madaio, Nick Merrill
- Abstract要約: 我々は27のAI倫理ツールキットの質的分析を行い、倫理の作業がどのように想像され、これらのツールキットによってどのように支援されるかを調べる。
私たちは、倫理の想像された仕事と、ツールキットがその仕事をするために提供するサポートのミスマッチを特定します。
- 参考スコア(独自算出の注目度): 26.977005985123615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous toolkits have been developed to support ethical AI development.
However, toolkits, like all tools, encode assumptions in their design about
what work should be done and how. In this paper, we conduct a qualitative
analysis of 27 AI ethics toolkits to critically examine how the work of ethics
is imagined and how it is supported by these toolkits. Specifically, we examine
the discourses toolkits rely on when talking about ethical issues, who they
imagine should do the work of ethics, and how they envision the work practices
involved in addressing ethics. Among the toolkits, we identify a mismatch
between the imagined work of ethics and the support the toolkits provide for
doing that work. In particular, we identify a lack of guidance around how to
navigate labor, organizational, and institutional power dynamics as they relate
to performing ethical work. We use these omissions to chart future work for
researchers and designers of AI ethics toolkits.
- Abstract(参考訳): 倫理的AI開発を支援するために多くのツールキットが開発されている。
しかしながら、ツールキットは、他のツールと同様に、何をすべきか、どのように行うべきかという前提を設計にエンコードします。
本稿では,27のAI倫理ツールキットの質的分析を行い,倫理的作業がどのように想像されるか,どのように支援されるのかを批判的に検証する。
具体的には,倫理的問題,倫理的作業を行うべき者,倫理的対処に関わる作業慣行をどのように想定するか,などについて論じる。
それらのツールキットのうち、倫理に関する想像上の作業と、その作業にツールキットが提供するサポートのミスマッチを識別する。
特に,倫理的な作業を行う上で,労働力,組織力,組織力のダイナミクスをいかにナビゲートするかに関する指導の欠如を明らかにする。
我々はこれらの欠落を利用して、AI倫理ツールキットの研究者やデザイナーの今後の業績をグラフ化しています。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Ethics in AI through the Practitioner's View: A Grounded Theory
Literature Review [12.941478155592502]
近年、AI開発における倫理的問題のプロファイルが高まり、私たちの日常生活におけるAI技術の普及に対する世間の懸念が高まっている。
我々は,AI実践者のAI倫理観を含む,38の初等実証研究の根拠的理論文献レビュー(GTLR)を行った。
我々は,AI倫理の異なる側面を特定し,理解する上で,実践者の視点からAI倫理の分類を提示する。
論文 参考訳(メタデータ) (2022-06-20T00:28:51Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Empowered and Embedded: Ethics and Agile Processes [60.63670249088117]
私たちは倫理的考慮事項を(アジャイル)ソフトウェア開発プロセスに組み込む必要があると論じています。
私たちは、すでに存在しており、確立されたアジャイルソフトウェア開発プロセスで倫理的な議論を実施する可能性を強調しました。
論文 参考訳(メタデータ) (2021-07-15T11:14:03Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections [0.0]
本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
論文 参考訳(メタデータ) (2020-12-27T07:41:26Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - The Moral-IT Deck: A Tool for Ethics by Design [1.52292571922932]
本稿では,デザインによる倫理を実現するための新しいツール,The Moral-IT Cardの設計プロセスと実証評価について述べる。
システム設計における倫理的問題に対処する上で、技術者の役割を支援するために、より良いツールが必要である。
研究と商業の両方の場から参加者20名とともに、5つのワークショップでカードの開発とテストについて論じる。
論文 参考訳(メタデータ) (2020-07-15T07:26:45Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。