論文の概要: Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems
- arxiv url: http://arxiv.org/abs/2101.09385v1
- Date: Sat, 23 Jan 2021 00:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:41:28.090729
- Title: Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems
- Title(参考訳): トレーサビリティの概要:コンピューティングシステムにおける説明責任の運用原理
- Authors: Joshua A. Kroll
- Abstract要約: トレーサビリティには、システムの動作方法だけでなく、その生成方法や目的の確立が必要です。
トレーサビリティは、システムがどのように構築され、システムが機械的に何をしたかの記録を、より広範なガバナンスの目標に結びつけます。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイする方法、時期、理由を示す。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accountability is widely understood as a goal for well governed computer
systems, and is a sought-after value in many governance contexts. But how can
it be achieved? Recent work on standards for governable artificial intelligence
systems offers a related principle: traceability. Traceability requires
establishing not only how a system worked but how it was created and for what
purpose, in a way that explains why a system has particular dynamics or
behaviors. It connects records of how the system was constructed and what the
system did mechanically to the broader goals of governance, in a way that
highlights human understanding of that mechanical operation and the decision
processes underlying it. We examine the various ways in which the principle of
traceability has been articulated in AI principles and other policy documents
from around the world, distill from these a set of requirements on software
systems driven by the principle, and systematize the technologies available to
meet those requirements. From our map of requirements to supporting tools,
techniques, and procedures, we identify gaps and needs separating what
traceability requires from the toolbox available for practitioners. This map
reframes existing discussions around accountability and transparency, using the
principle of traceability to show how, when, and why transparency can be
deployed to serve accountability goals and thereby improve the normative
fidelity of systems and their development processes.
- Abstract(参考訳): 説明責任はよく管理されたコンピュータシステムの目標として広く理解されており、多くのガバナンスの文脈において追求すべき価値である。
しかし、どうやって達成できるのか?
統治可能な人工知能システムの標準に関する最近の研究は、関連する原則であるトレーサビリティを提供する。
トレーサビリティは、システムの動作方法だけでなく、その生成方法や目的のために、システムが特別なダイナミクスや振る舞いを持つ理由を説明する方法を確立する必要がある。
システムがどのように構築され、システムが機械的に何をしたかの記録を、その機械的操作とそれを支える決定プロセスに対する人間の理解を強調する方法で、より広範なガバナンスの目標に結びつける。
トレーサビリティの原則が世界中のai原則やその他の政策文書で説明され、原則によって駆動されるソフトウェアシステムに関する一連の要件を抽出し、これらの要件を満たすために利用可能なテクノロジを体系化する様々な方法について検討する。
要件のマップからツール、テクニック、手順のサポートまで、トレーサビリティが必要とするものを実践者に提供するツールボックスから分離する必要があります。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイし、システムとその開発プロセスの規範的忠実性を改善する方法を示します。
関連論文リスト
- Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Data-Centric Governance [6.85316573653194]
現在のAIガバナンスアプローチは、主に手作業によるレビューとドキュメントプロセスで構成されている。
データに作用し、データを生成し、データエンジニアリングを通じて構築される。
本研究では、データセットとアルゴリズムによる評価を通じて、ガバナンス要件の体系化について検討する。
論文 参考訳(メタデータ) (2023-02-14T07:22:32Z) - FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems [69.24490096929709]
FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
論文 参考訳(メタデータ) (2022-09-08T13:25:02Z) - Introduction to the Artificial Intelligence that can be applied to the
Network Automation Journey [68.8204255655161]
Intent-Based Networking - Concepts and Definitions"ドキュメントには、NetDevOpsに関わる可能性のあるエコシステムのさまざまな部分について記述されている。
認識、生成、翻訳、精巧な機能には、アルゴリズムを実装するための新しい方法が必要だ。
論文 参考訳(メタデータ) (2022-04-02T08:12:08Z) - Making the Unaccountable Internet: The Changing Meaning of Accounting in
the Early ARPANET [2.6397379133308214]
本稿では、技術的に不可欠な説明責任概念の批判と、意図しない結果として「非可算インターネット」の特性について述べる。
1970年代から80年代にかけて、初期のインターネットの設計に関するコメントのコーパスとして、会計の意味の変化と説明責任との関係について検討している。
論文 参考訳(メタデータ) (2022-01-28T01:42:58Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - A Structured Approach to Trustworthy Autonomous/Cognitive Systems [4.56877715768796]
信頼を確保するための一般的なアプローチはない。
本稿では,このギャップを正確に埋める枠組みを提案する。
現在の安全基準に基づく構造的アプローチとして,参照ライフサイクルを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。