論文の概要: Rethinking Explainability as a Dialogue: A Practitioner's Perspective
- arxiv url: http://arxiv.org/abs/2202.01875v1
- Date: Thu, 3 Feb 2022 22:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 02:08:02.169758
- Title: Rethinking Explainability as a Dialogue: A Practitioner's Perspective
- Title(参考訳): 対話としての説明可能性再考--実践者の視点から
- Authors: Himabindu Lakkaraju, Dylan Slack, Yuxin Chen, Chenhao Tan, Sameer
Singh
- Abstract要約: 医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
- 参考スコア(独自算出の注目度): 57.87089539718344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As practitioners increasingly deploy machine learning models in critical
domains such as health care, finance, and policy, it becomes vital to ensure
that domain experts function effectively alongside these models. Explainability
is one way to bridge the gap between human decision-makers and machine learning
models. However, most of the existing work on explainability focuses on
one-off, static explanations like feature importances or rule lists. These
sorts of explanations may not be sufficient for many use cases that require
dynamic, continuous discovery from stakeholders. In the literature, few works
ask decision-makers about the utility of existing explanations and other
desiderata they would like to see in an explanation going forward. In this
work, we address this gap and carry out a study where we interview doctors,
healthcare professionals, and policymakers about their needs and desires for
explanations. Our study indicates that decision-makers would strongly prefer
interactive explanations in the form of natural language dialogues. Domain
experts wish to treat machine learning models as "another colleague", i.e., one
who can be held accountable by asking why they made a particular decision
through expressive and accessible natural language interactions. Considering
these needs, we outline a set of five principles researchers should follow when
designing interactive explanations as a starting place for future work.
Further, we show why natural language dialogues satisfy these principles and
are a desirable way to build interactive explanations. Next, we provide a
design of a dialogue system for explainability and discuss the risks,
trade-offs, and research opportunities of building these systems. Overall, we
hope our work serves as a starting place for researchers and engineers to
design interactive explainability systems.
- Abstract(参考訳): 実践者が医療、金融、政策といった重要な領域で機械学習モデルをますます展開するにつれて、ドメインの専門家がこれらのモデルと共に効果的に機能することが不可欠になる。
説明可能性とは、人間の意思決定者と機械学習モデルの間のギャップを埋める方法のひとつだ。
しかし、既存の説明可能性に関する作業のほとんどは、機能の重要さやルールリストのような静的な説明に焦点を当てている。
このような説明は、利害関係者から動的で継続的な発見を必要とする多くのユースケースでは不十分かもしれない。
文献では、既存の説明や今後の説明で見たいと思うデシダータの有用性について意思決定者に尋ねる作品はほとんどない。
本研究では, このギャップに対処し, 医師, 医療専門家, 政策立案者に対して, 説明を求めるニーズと欲求についてインタビューを行う。
本研究は,意思決定者が自然言語対話の形で対話的な説明を強く好むことを示す。
ドメインの専門家は、機械学習モデルを「別の同僚」として扱うことを望んでいる。
これらのニーズを考慮して,インタラクティブな説明を将来の作業の出発点として設計する際に,研究者が従うべき5つの原則を概説する。
さらに,自然言語対話がこれらの原則を満たし,対話的説明を構築する上で望ましい方法であることを示す。
次に,システム構築のリスク,トレードオフ,研究機会について説明し,議論するための対話システムの設計を提案する。
全体として、我々の研究が、研究者やエンジニアがインタラクティブな説明可能性システムを設計するための出発点になることを願っています。
関連論文リスト
- From Feature Importance to Natural Language Explanations Using LLMs with RAG [4.204990010424084]
大規模言語モデル(LLM)の応答に外部知識リポジトリを活用して,トレーサブルな質問応答を導入する。
この知識リポジトリは、高レベルの特徴、特徴の重要性、代替確率を含む、モデルの出力に関するコンテキストの詳細を含む。
社会的・因果的・選択的・コントラスト的な4つの重要な特徴を、人間の説明に関する社会科学研究から一発のプロンプトへと統合し、応答生成過程を導く。
論文 参考訳(メタデータ) (2024-07-30T17:27:20Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
対話モデリングの観点から,従来の手法を検討した。
対話理解タスクで広く使用されている対話モデリングの3つの典型的なパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-04T15:50:17Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - The Grammar of Interactive Explanatory Model Analysis [7.812073412066698]
本稿では,異なる説明モデル解析(EMA)手法が相互にどのように補完するかを示す。
我々はIEMAの文法を形式化し、潜在的な人間モデル対話を記述する。
IEMAは、広く使われている人中心のオープンソースソフトウェアフレームワークで実装されている。
論文 参考訳(メタデータ) (2020-05-01T17:12:22Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。