論文の概要: FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems
- arxiv url: http://arxiv.org/abs/2209.03805v1
- Date: Thu, 8 Sep 2022 13:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:50:33.259278
- Title: FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems
- Title(参考訳): FAT Forensics:予測システムにおける公正性、アカウンタビリティ、透明性アルゴリズムの実装とデプロイのためのPythonツールボックス
- Authors: Kacper Sokol and Alexander Hepburn and Rafael Poyiadzi and Matthew
Clifford and Raul Santos-Rodriguez and Peter Flach
- Abstract要約: FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
- 参考スコア(独自算出の注目度): 69.24490096929709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive systems, in particular machine learning algorithms, can take
important, and sometimes legally binding, decisions about our everyday life. In
most cases, however, these systems and decisions are neither regulated nor
certified. Given the potential harm that these algorithms can cause, their
qualities such as fairness, accountability and transparency (FAT) are of
paramount importance. To ensure high-quality, fair, transparent and reliable
predictive systems, we developed an open source Python package called FAT
Forensics. It can inspect important fairness, accountability and transparency
aspects of predictive algorithms to automatically and objectively report them
back to engineers and users of such systems. Our toolbox can evaluate all
elements of a predictive pipeline: data (and their features), models and
predictions. Published under the BSD 3-Clause open source licence, FAT
Forensics is opened up for personal and commercial usage.
- Abstract(参考訳): 予測システム、特に機械学習アルゴリズムは、日々の生活に関する決定を重要かつ法的に拘束することができる。
しかし、ほとんどの場合、これらのシステムと決定は規制も認定もされない。
これらのアルゴリズムが引き起こす潜在的な害を考えると、公平性、説明責任、透明性(FAT)などの品質が最重要である。
高品質で公平で透明で信頼性の高い予測システムを実現するため、FAT Forensicsと呼ばれるオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明責任、透明性の側面を検査することで、そのようなシステムのエンジニアやユーザに自動的かつ客観的に報告することができる。
私たちのツールボックスは、データ(とその機能)、モデル、予測といった予測パイプラインのすべての要素を評価することができます。
BSD 3-Clauseオープンソースライセンスで公開されているFAT Forensicsは、個人用および商用用として公開されている。
関連論文リスト
- Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems [0.4297070083645048]
本稿では,データ駆動型AIシステムの公平性を測定するための新しいフェアネススコアを提案する。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
論文 参考訳(メタデータ) (2022-01-10T15:45:12Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems [1.0152838128195467]
トレーサビリティには、システムの動作方法だけでなく、その生成方法や目的の確立が必要です。
トレーサビリティは、システムがどのように構築され、システムが機械的に何をしたかの記録を、より広範なガバナンスの目標に結びつけます。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイする方法、時期、理由を示す。
論文 参考訳(メタデータ) (2021-01-23T00:13:20Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Automatic Open-World Reliability Assessment [11.380522815465985]
オープンワールドにおける画像分類は、アウト・オブ・ディストリビューション(OOD)画像を扱う必要がある。
オープンワールド認識信頼性問題を定式化し、複数の自動信頼度評価ポリシーを提案する。
論文 参考訳(メタデータ) (2020-11-11T01:56:23Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Applying Transparency in Artificial Intelligence based Personalization
Systems [5.671950073691286]
透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
我々は、技術倫理とコンピュータ科学からの洞察を組み合わせて、機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成します。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上したいと考える設計者が使用するチェックリストを開発した。
論文 参考訳(メタデータ) (2020-04-02T11:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。