論文の概要: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- arxiv url: http://arxiv.org/abs/2209.09780v2
- Date: Tue, 27 Sep 2022 15:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:16:37.565402
- Title: Dislocated Accountabilities in the AI Supply Chain: Modularity and
Developers' Notions of Responsibility
- Title(参考訳): AIサプライチェーンにおける分散アカウンタビリティ - モジュール性と開発者の責任通知
- Authors: David Gray Widder and Dawn Nafus
- Abstract要約: 私たちは、倫理チェックリストのような現在の責任あるAI介入は、位置した説明責任のアプローチをとることで改善できると論じています。
これは、"サプライチェーン"思考から"バリューチェーン"思考へのシフトを構成する。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI guidelines often ask engineers to consider how their systems
might harm. However, contemporary AI systems are built by composing many
preexisting software modules that pass through many hands before becoming a
finished product or service. How does this shape responsible AI practice? In
interviews with 27 AI engineers across industry, open source, and academia, our
participants often did not see the questions posed in responsible AI guidelines
to be within their agency, capability, or responsibility to address. We use
Lucy Suchman's notion of located accountability to show how responsible AI
labor is currently organized, and to explore how it could be done differently.
We identify cross-cutting social logics, like modularizability, scale,
reputation, and customer orientation, that organize which responsible AI
actions do take place, and which are relegated to low status staff or believed
to be the work of the next or previous person in the chain. We argue that
current responsible AI interventions, like ethics checklists and guidelines
that assume panoptical knowledge and control over systems, could improve by
taking a located accountability approach, where relations and obligations
intertwine and incrementally add value in the process. This would constitute a
shift from "supply chain' thinking to "value chain" thinking.
- Abstract(参考訳): 責任あるaiガイドラインは、しばしばエンジニアに、自分のシステムがどう影響するかを考えるように要求する。
しかし、現代のAIシステムは、完成製品やサービスになる前に多くの手を通る既存のソフトウェアモジュールを構成することで構築されている。
この形はAIの実践にどのように影響しますか?
業界、オープンソース、アカデミックにまたがる27人のAIエンジニアとのインタビューにおいて、私たちの参加者は、AIガイドラインの責任を負う問題に対処する権限、能力、責任を問うことがしばしば見つからなかった。
我々は、Lucy Suchman氏の位置説明責任の概念を使用して、AI労働が現在どのように組織されているかを示し、どのように異なる方法で実施できるかを探索する。
モジュール化、スケール、評判、顧客指向といった横断的なソーシャルロジックは、どの責任あるAIアクションが実行されるのかを整理し、低い地位のスタッフに委ねられるか、チェーン内の次の人または前の人の仕事であると信じられている。
私たちは、現在責任あるAI介入、例えば倫理チェックリストやシステムに対する統一的な知識と制御を前提とするガイドラインは、関係と義務が相互に介在し、プロセスに価値を漸進的に付加する、配置された説明責任アプローチを採用することで改善できると論じています。
これは、"サプライチェーン"思考から"バリューチェーン"思考へのシフトを構成する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines [0.0]
我々は、複数の分野にわたる現在の研究をレビューし、AIの文脈における説明責任の重要な側面を特定する。
13の次元と追加の説明責任ファシリテータを持つ6つのテーマを明らかにする。
論文 参考訳(メタデータ) (2024-10-05T18:08:39Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。