論文の概要: Measuring algorithmic interpretability: A human-learning-based framework
and the corresponding cognitive complexity score
- arxiv url: http://arxiv.org/abs/2205.10207v1
- Date: Fri, 20 May 2022 14:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 19:51:51.670302
- Title: Measuring algorithmic interpretability: A human-learning-based framework
and the corresponding cognitive complexity score
- Title(参考訳): アルゴリズム解釈可能性の測定:人間学習に基づくフレームワークとそれに対応する認知複雑性スコア
- Authors: John P. Lalor, Hong Guo
- Abstract要約: 信頼の構築、公正性の確保、説明責任の追跡には、アルゴリズムによる解釈可能性が必要である。
アルゴリズムの解釈可能性に関する公式な測定方法はない。
我々は,プログラム言語理論と認知的負荷理論に基づいて,アルゴリズムの解釈可能性を測定するためのフレームワークを開発する。
- 参考スコア(独自算出の注目度): 4.707290877865484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic interpretability is necessary to build trust, ensure fairness,
and track accountability. However, there is no existing formal measurement
method for algorithmic interpretability. In this work, we build upon
programming language theory and cognitive load theory to develop a framework
for measuring algorithmic interpretability. The proposed measurement framework
reflects the process of a human learning an algorithm. We show that the
measurement framework and the resulting cognitive complexity score have the
following desirable properties - universality, computability, uniqueness, and
monotonicity. We illustrate the measurement framework through a toy example,
describe the framework and its conceptual underpinnings, and demonstrate the
benefits of the framework, in particular for managers considering tradeoffs
when selecting algorithms.
- Abstract(参考訳): 信頼の構築、公平性の確保、説明責任の追跡にはアルゴリズムによる解釈が不可欠である。
しかし、アルゴリズムによる解釈可能性の形式的測定方法は存在しない。
本研究では,プログラミング言語理論と認知負荷理論に基づいて,アルゴリズムの解釈可能性を測定する枠組みを構築する。
提案手法は,人間がアルゴリズムを学習する過程を反映している。
測定フレームワークと結果の認知的複雑性スコアは,普遍性,計算可能性,一意性,単調性といった望ましい特性を有することを示す。
計測フレームワークをトイ例で説明し,フレームワークとその概念基盤を説明し,特にアルゴリズム選択時のトレードオフを考慮したマネージャに対して,フレームワークのメリットを示す。
関連論文リスト
- Towards a Unified Framework for Evaluating Explanations [0.6138671548064356]
我々は、モデルと利害関係者の間の仲介者として、本質的に解釈可能なモデルであれ、不透明なブラックボックスモデルであれ、説明が役立ちます。
本稿では,学習者の行動を予測するための解釈可能なニューラルネットワークの例を用いて,これらの基準と具体的な評価手法について述べる。
論文 参考訳(メタデータ) (2024-05-22T21:49:28Z) - Mechanistic Interpretability for AI Safety -- A Review [28.427951836334188]
本稿では,機械的解釈可能性について概説する。
機械的解釈性は、AIシステムがより強力で精査されるにつれて、破滅的な結果を防ぐのに役立つ。
論文 参考訳(メタデータ) (2024-04-22T11:01:51Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - Multi-Dimensional Ability Diagnosis for Machine Learning Algorithms [88.93372675846123]
本稿では,機械学習アルゴリズム評価のためのタスク非依存評価フレームワークCamillaを提案する。
認識診断の仮定とニューラルネットワークを用いて、各サンプルのアルゴリズム、サンプル、スキル間の複雑な相互作用を学習する。
我々の実験では、カミラはメートル法信頼性、ランクの整合性、ランクの安定性で最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-14T03:15:56Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Online Deterministic Annealing for Classification and Clustering [0.0]
本稿では,クラスタリングと分類のためのオンラインプロトタイプベースの学習アルゴリズムを提案する。
本稿では,提案アルゴリズムが競合学習ニューラルネットワークを構成することを示し,その学習規則をオンライン近似アルゴリズムとして定式化する。
論文 参考訳(メタデータ) (2021-02-11T04:04:21Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。