論文の概要: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- arxiv url: http://arxiv.org/abs/2209.09780v3
- Date: Wed, 21 Jun 2023 02:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 18:16:07.848215
- Title: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- Title(参考訳): AIサプライチェーンにおける分散アカウンタビリティ - モジュール性と開発者の責任通知
- Authors: David Gray Widder and Dawn Nafus
- Abstract要約: 我々は、人工知能労働が現在どのように組織化されているかを示すために、S suchman氏の“ロケーション・カウンタビリティ”を使用します。
私たちは、倫理チェックリストのような現在の責任ある人工知能の介入は、ある説明責任のアプローチをとることで改善できると主張している。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Responsible artificial intelligence guidelines ask engineers to consider how
their systems might harm. However, contemporary artificial intelligence systems
are built by composing many preexisting software modules that pass through many
hands before becoming a finished product or service. How does this shape
responsible artificial intelligence practice? In interviews with 27 artificial
intelligence engineers across industry, open source, and academia, our
participants often did not see the questions posed in responsible artificial
intelligence guidelines to be within their agency, capability, or
responsibility to address. We use Suchman's "located accountability" to show
how responsible artificial intelligence labor is currently organized and to
explore how it could be done differently. We identify cross-cutting social
logics, like modularizability, scale, reputation, and customer orientation,
that organize which responsible artificial intelligence actions do take place
and which are relegated to low status staff or believed to be the work of the
next or previous person in the imagined "supply chain." We argue that current
responsible artificial intelligence interventions, like ethics checklists and
guidelines that assume panoptical knowledge and control over systems, could be
improved by taking a located accountability approach, recognizing where
relations and obligations might intertwine inside and outside of this supply
chain.
- Abstract(参考訳): 責任ある人工知能ガイドラインは、エンジニアに自分たちのシステムがどう害を受けるかを検討するよう求めている。
しかし、現代の人工知能システムは、完成製品やサービスになる前に多くの手を通る既存のソフトウェアモジュールを構成することで構築されている。
この形は人工知能の実践にどう影響するのか?
業界、オープンソース、学界にまたがる27人の人工知能エンジニアとのインタビューで、私たちの参加者は、人工知能ガイドラインの責任を負った質問が、その機関、能力、あるいは対処する責任にあることをよく見ませんでした。
我々は、s suchmanの"ロケーション・アカウンタビリティ(located accountability)"を使用して、現在の人工知能労働がいかに責任を負うかを示し、それがどのように異なる方法で実施できるかを探求する。
モジュール化可能性、スケール、評判、顧客指向といった横断的な社会論理は、責任ある人工知能のアクションが実行され、低い地位のスタッフに委ねられるか、あるいは想像される「供給連鎖」における次の人または前の人の仕事であると信じられている。
我々は、現在責任ある人工知能の介入、例えば倫理チェックリストやシステムに対する一元的な知識と制御を前提とするガイドラインは、このサプライチェーンの内外で関係や義務がどこに絡み合うかを認識することで改善できると主張している。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines [0.0]
我々は、複数の分野にわたる現在の研究をレビューし、AIの文脈における説明責任の重要な側面を特定する。
13の次元と追加の説明責任ファシリテータを持つ6つのテーマを明らかにする。
論文 参考訳(メタデータ) (2024-10-05T18:08:39Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。