論文の概要: Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty
- arxiv url: http://arxiv.org/abs/2011.07586v3
- Date: Tue, 4 May 2021 10:33:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 07:47:53.343152
- Title: Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty
- Title(参考訳): 透明性の一形態としての不確実性:不確実性の測定・通信・利用
- Authors: Umang Bhatt, Javier Antor\'an, Yunfeng Zhang, Q. Vera Liao, Prasanna
Sattigeri, Riccardo Fogliato, Gabrielle Gauthier Melan\c{c}on, Ranganath
Krishnan, Jason Stanley, Omesh Tickoo, Lama Nachman, Rumi Chunara, Madhulika
Srikumar, Adrian Weller, Alice Xiang
- Abstract要約: 我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
- 参考スコア(独自算出の注目度): 66.17147341354577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic transparency entails exposing system properties to various
stakeholders for purposes that include understanding, improving, and contesting
predictions. Until now, most research into algorithmic transparency has
predominantly focused on explainability. Explainability attempts to provide
reasons for a machine learning model's behavior to stakeholders. However,
understanding a model's specific behavior alone might not be enough for
stakeholders to gauge whether the model is wrong or lacks sufficient knowledge
to solve the task at hand. In this paper, we argue for considering a
complementary form of transparency by estimating and communicating the
uncertainty associated with model predictions. First, we discuss methods for
assessing uncertainty. Then, we characterize how uncertainty can be used to
mitigate model unfairness, augment decision-making, and build trustworthy
systems. Finally, we outline methods for displaying uncertainty to stakeholders
and recommend how to collect information required for incorporating uncertainty
into existing ML pipelines. This work constitutes an interdisciplinary review
drawn from literature spanning machine learning, visualization/HCI, design,
decision-making, and fairness. We aim to encourage researchers and
practitioners to measure, communicate, and use uncertainty as a form of
transparency.
- Abstract(参考訳): アルゴリズムの透明性は、システムの特性を様々な利害関係者に公開することを伴う。
これまで、アルゴリズムの透明性に関するほとんどの研究は、説明可能性に重点を置いてきた。
説明責任は、機械学習モデルの振る舞いの理由を利害関係者に提供することを試みる。
しかし、モデル固有の振る舞いだけを理解するだけでは、モデルが間違っているか、あるいは手元にあるタスクを解くのに十分な知識が不足しているかをステークホルダーが判断するのに十分ではないかもしれない。
本稿では,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考察する。
まず,不確実性を評価する方法について述べる。
次に,不確実性がモデルの不公平さの軽減,意思決定の強化,信頼性の高いシステムの構築にどのように役立つかを特徴付ける。
最後に、ステークホルダに不確実性を表示する方法を概説し、既存のMLパイプラインに不確実性を導入するために必要な情報を収集する方法を推奨する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性の文学から引き出された学際的レビューを構成する。
我々は研究者や実践者が透明性の形で不確実性を測定し、コミュニケーションし、利用することを奨励することを目指している。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Explainability through uncertainty: Trustworthy decision-making with neural networks [1.104960878651584]
不確実性は、あらゆる機械学習モデルの主要な特徴である。
ニューラルネットワークでは特に重要であり、過信されがちである。
XAIとしての不確実性は、下流の意思決定タスクにおけるモデルの信頼性を改善する。
論文 参考訳(メタデータ) (2024-03-15T10:22:48Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Accountable and Explainable Methods for Complex Reasoning over Text [5.571369922847262]
機械学習モデルのアカウンタビリティと透明性は、政策、法学、哲学、計算機科学の研究によって決定的なデシダータとして位置づけられている。
この論文は、テキストによる複雑な推論タスクのために開発されたMLモデルの説明責任と透明性に関する知識を拡大する。
論文 参考訳(メタデータ) (2022-11-09T15:14:52Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Show or Suppress? Managing Input Uncertainty in Machine Learning Model
Explanations [5.695163312473304]
特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。
入力の不確実性の認識が説明の信頼にどのように影響するかは不明です。
モデル説明において不確実性の認識を管理するための2つのアプローチを提案します。
論文 参考訳(メタデータ) (2021-01-23T13:10:48Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。