論文の概要: Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems
- arxiv url: http://arxiv.org/abs/2101.09385v1
- Date: Sat, 23 Jan 2021 00:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:41:28.090729
- Title: Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems
- Title(参考訳): トレーサビリティの概要:コンピューティングシステムにおける説明責任の運用原理
- Authors: Joshua A. Kroll
- Abstract要約: トレーサビリティには、システムの動作方法だけでなく、その生成方法や目的の確立が必要です。
トレーサビリティは、システムがどのように構築され、システムが機械的に何をしたかの記録を、より広範なガバナンスの目標に結びつけます。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイする方法、時期、理由を示す。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accountability is widely understood as a goal for well governed computer
systems, and is a sought-after value in many governance contexts. But how can
it be achieved? Recent work on standards for governable artificial intelligence
systems offers a related principle: traceability. Traceability requires
establishing not only how a system worked but how it was created and for what
purpose, in a way that explains why a system has particular dynamics or
behaviors. It connects records of how the system was constructed and what the
system did mechanically to the broader goals of governance, in a way that
highlights human understanding of that mechanical operation and the decision
processes underlying it. We examine the various ways in which the principle of
traceability has been articulated in AI principles and other policy documents
from around the world, distill from these a set of requirements on software
systems driven by the principle, and systematize the technologies available to
meet those requirements. From our map of requirements to supporting tools,
techniques, and procedures, we identify gaps and needs separating what
traceability requires from the toolbox available for practitioners. This map
reframes existing discussions around accountability and transparency, using the
principle of traceability to show how, when, and why transparency can be
deployed to serve accountability goals and thereby improve the normative
fidelity of systems and their development processes.
- Abstract(参考訳): 説明責任はよく管理されたコンピュータシステムの目標として広く理解されており、多くのガバナンスの文脈において追求すべき価値である。
しかし、どうやって達成できるのか?
統治可能な人工知能システムの標準に関する最近の研究は、関連する原則であるトレーサビリティを提供する。
トレーサビリティは、システムの動作方法だけでなく、その生成方法や目的のために、システムが特別なダイナミクスや振る舞いを持つ理由を説明する方法を確立する必要がある。
システムがどのように構築され、システムが機械的に何をしたかの記録を、その機械的操作とそれを支える決定プロセスに対する人間の理解を強調する方法で、より広範なガバナンスの目標に結びつける。
トレーサビリティの原則が世界中のai原則やその他の政策文書で説明され、原則によって駆動されるソフトウェアシステムに関する一連の要件を抽出し、これらの要件を満たすために利用可能なテクノロジを体系化する様々な方法について検討する。
要件のマップからツール、テクニック、手順のサポートまで、トレーサビリティが必要とするものを実践者に提供するツールボックスから分離する必要があります。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイし、システムとその開発プロセスの規範的忠実性を改善する方法を示します。
関連論文リスト
- Introduction to the Artificial Intelligence that can be applied to the
Network Automation Journey [68.8204255655161]
Intent-Based Networking - Concepts and Definitions"ドキュメントには、NetDevOpsに関わる可能性のあるエコシステムのさまざまな部分について記述されている。
認識、生成、翻訳、精巧な機能には、アルゴリズムを実装するための新しい方法が必要だ。
論文 参考訳(メタデータ) (2022-04-02T08:12:08Z) - Responsible-AI-by-Design: a Pattern Collection for Designing Responsible
AI Systems [12.825892132103236]
責任あるAIのための多くの倫理規定、原則、ガイドラインが最近発行されている。
本稿では、システムレベルのガイダンスとして、責任あるAIシステムのアーキテクチャをどのように設計するかという、欠落した要素を1つ挙げる。
本稿では、AIシステムに組み込んだデザインパターンを製品として紹介し、責任あるAI設計に貢献する。
論文 参考訳(メタデータ) (2022-03-02T07:30:03Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Expert System Gradient Descent Style Training: Development of a
Defensible Artificial Intelligence Technique [0.0]
本稿では,意味割り当てノード (facts) と相関関係 (rules) を用いて開発した機械学習エキスパートシステムについて述べる。
これらのシステムの性能は、ランダムで完全に接続されたネットワークと比較される。
論文 参考訳(メタデータ) (2021-03-07T10:09:50Z) - Principles of Explanation in Human-AI Systems [0.7768952514701895]
説明可能な人工知能(XAI)は、現代のAIとMLシステムの開発に応えて再導入されている。
XAIシステムは、しばしばアルゴリズムに焦点を当てており、説明可能性に関する基本的な未テストのアイデアを実装したアルゴリズムの開始と終了である。
我々は,まず,XAIシステムの設計,テスト,実装に関する人間中心の原則から始めることを提案する。
論文 参考訳(メタデータ) (2021-02-09T17:43:45Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。