論文の概要: Identifying Potential Inlets of Man in the Artificial Intelligence Development Process
- arxiv url: http://arxiv.org/abs/2403.14658v1
- Date: Tue, 27 Feb 2024 16:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:43:10.569492
- Title: Identifying Potential Inlets of Man in the Artificial Intelligence Development Process
- Title(参考訳): 人工知能開発プロセスにおける人間の電位入射の同定
- Authors: Deja Workman, Christopher L. Dancy,
- Abstract要約: 本稿の目的は、WynterのバイオセントリックマンがどのようにAIライフサイクルで生み出されている技術で表現され、強化されているのかをよりよく理解することである。
この開発プロセスのデコンストラクションによって、一般的に人間が優先順位付けされていない方法や、その影響が疎外された人々にどのように影響するかを特定できる可能性がある。
- 参考スコア(独自算出の注目度): 0.1657441317977376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we hope to identify how the typical or standard artificial intelligence development process encourages or facilitates the creation of racialized technologies. We begin by understanding Sylvia Wynter's definition of the biocentric Man genre and its exclusion of Blackness from humanness. We follow this with outlining what we consider to be the typical steps for developing an AI-based technology, which we have broken down into 6 stages: identifying a problem, development process and management tool selection, dataset development and data processing, model development, deployment and risk assessment, and integration and monitoring. The goal of this paper is to better understand how Wynter's biocentric Man is being represented and reinforced by the technologies we are producing in the AI lifecycle and by the lifecycle itself; we hope to identify ways in which the distinction of Blackness from the "ideal" human leads to perpetual punishment at the hands of these technologies. By deconstructing this development process, we can potentially identify ways in which humans in general have not been prioritized and how those affects are disproportionately affecting marginalized people. We hope to offer solutions that will encourage changes in the AI development cycle.
- Abstract(参考訳): 本稿では,典型的あるいは標準的な人工知能開発プロセスが,人種化技術の創造をいかに促進するか,あるいは促進するかを明らかにすることを目的とする。
我々は、シルヴィア・ウィンター(Sylvia Wynter)による生物中心マンのジャンルの定義と、黒さを人間性から排除することから始める。
問題、開発プロセスと管理ツールの選択、データセットの開発とデータ処理、モデル開発、デプロイメントとリスクアセスメント、統合と監視です。
この論文の目的は、Wynterのバイオセンシティブ・マンがどのようにAIライフサイクルとライフサイクル自体で生み出されている技術によってどのように表現され、強化されているのかをよりよく理解することである。
この開発プロセスのデコンストラクションによって、一般的に人間が優先順位付けされていない方法や、その影響が疎外された人々にどのように影響するかを特定できる可能性がある。
AI開発サイクルの変更を促進するソリューションを提供したいと思っています。
関連論文リスト
- Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Artificial Intelligence: 70 Years Down the Road [4.952211615828121]
我々は、過去の失敗の背後にある理由と現在のAIの成功を理解するために、技術的および哲学的な視点から理由を分析しました。
我々は、AIの持続可能な開発方向性は、人間と機械のコラボレーションと、コンピュータパワーを中心とした技術パスであるべきだと結論付けている。
論文 参考訳(メタデータ) (2023-03-06T01:19:25Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Future of work: ethics [0.0]
過度な自動化がデジタル化プロセスの原動力のようだ。
デジタル技術は人間のスキルを高め、人間の認知と能力をより生産的に活用するために設計されるべきである。
論文 参考訳(メタデータ) (2021-04-06T15:20:30Z) - Intelligent behavior depends on the ecological niche: Scaling up AI to
human-like intelligence in socio-cultural environments [17.238068736229017]
本稿では、AIの未来を概観し、人間のような知能のマシンモデルの方向性について議論する。
我々は、知的行動の彫刻における生態的ニッチの役割を強調し、特に人間の知性は、絶えず変化する社会文化的環境に適応するために根本的に形作られていた。
論文 参考訳(メタデータ) (2021-03-11T16:24:00Z) - Modelos din\^amicos aplicados \`a aprendizagem de valores em
intelig\^encia artificial [0.0]
この地域の数人の研究者が、人間と環境の保存のための堅牢で有益な、安全なAIの概念を開発した。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
おそらくこの難しさは、認知的手法を使って価値を表現するという問題に対処する方法から来ています。
論文 参考訳(メタデータ) (2020-07-30T00:56:11Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。