論文の概要: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- arxiv url: http://arxiv.org/abs/2209.09780v3
- Date: Wed, 21 Jun 2023 02:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 18:16:07.848215
- Title: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- Title(参考訳): AIサプライチェーンにおける分散アカウンタビリティ - モジュール性と開発者の責任通知
- Authors: David Gray Widder and Dawn Nafus
- Abstract要約: 我々は、人工知能労働が現在どのように組織化されているかを示すために、S suchman氏の“ロケーション・カウンタビリティ”を使用します。
私たちは、倫理チェックリストのような現在の責任ある人工知能の介入は、ある説明責任のアプローチをとることで改善できると主張している。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Responsible artificial intelligence guidelines ask engineers to consider how
their systems might harm. However, contemporary artificial intelligence systems
are built by composing many preexisting software modules that pass through many
hands before becoming a finished product or service. How does this shape
responsible artificial intelligence practice? In interviews with 27 artificial
intelligence engineers across industry, open source, and academia, our
participants often did not see the questions posed in responsible artificial
intelligence guidelines to be within their agency, capability, or
responsibility to address. We use Suchman's "located accountability" to show
how responsible artificial intelligence labor is currently organized and to
explore how it could be done differently. We identify cross-cutting social
logics, like modularizability, scale, reputation, and customer orientation,
that organize which responsible artificial intelligence actions do take place
and which are relegated to low status staff or believed to be the work of the
next or previous person in the imagined "supply chain." We argue that current
responsible artificial intelligence interventions, like ethics checklists and
guidelines that assume panoptical knowledge and control over systems, could be
improved by taking a located accountability approach, recognizing where
relations and obligations might intertwine inside and outside of this supply
chain.
- Abstract(参考訳): 責任ある人工知能ガイドラインは、エンジニアに自分たちのシステムがどう害を受けるかを検討するよう求めている。
しかし、現代の人工知能システムは、完成製品やサービスになる前に多くの手を通る既存のソフトウェアモジュールを構成することで構築されている。
この形は人工知能の実践にどう影響するのか?
業界、オープンソース、学界にまたがる27人の人工知能エンジニアとのインタビューで、私たちの参加者は、人工知能ガイドラインの責任を負った質問が、その機関、能力、あるいは対処する責任にあることをよく見ませんでした。
我々は、s suchmanの"ロケーション・アカウンタビリティ(located accountability)"を使用して、現在の人工知能労働がいかに責任を負うかを示し、それがどのように異なる方法で実施できるかを探求する。
モジュール化可能性、スケール、評判、顧客指向といった横断的な社会論理は、責任ある人工知能のアクションが実行され、低い地位のスタッフに委ねられるか、あるいは想像される「供給連鎖」における次の人または前の人の仕事であると信じられている。
我々は、現在責任ある人工知能の介入、例えば倫理チェックリストやシステムに対する一元的な知識と制御を前提とするガイドラインは、このサプライチェーンの内外で関係や義務がどこに絡み合うかを認識することで改善できると主張している。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。