論文の概要、ライセンス

# (参考訳) 感性ai:感覚形成理論を用いた解釈可能性と説明可能性の再認識 [全文訳有]

Sensible AI: Re-imagining Interpretability and Explainability using Sensemaking Theory ( http://arxiv.org/abs/2205.05057v1 )

ライセンス: CC BY 4.0
Harmanpreet Kaur, Eytan Adar, Eric Gilbert, Cliff Lampe(参考訳) MLモデルがどのように動作するかを理解することは、MLベースのシステムを責任を持って設計、デプロイ、使用するための前提条件である。 解釈可能性のアプローチにより、MLは人間の理解に役立つアウトプットの説明を提供することができる。 Though these approaches rely on guidelines for how humans explain things to each other, they ultimately solve for improving the artifact -- an explanation. In this paper, we propose an alternate framework for interpretability grounded in Weick's sensemaking theory, which focuses on who the explanation is intended for. Recent work has advocated for the importance of understanding stakeholders' needs -- we build on this by providing concrete properties (e.g., identity, social context, environmental cues, etc.) that shape human understanding. 我々は、人間の認知のニュアンスに影響を及ぼすAIであるSensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用している。

Understanding how ML models work is a prerequisite for responsibly designing, deploying, and using ML-based systems. With interpretability approaches, ML can now offer explanations for its outputs to aid human understanding. Though these approaches rely on guidelines for how humans explain things to each other, they ultimately solve for improving the artifact -- an explanation. In this paper, we propose an alternate framework for interpretability grounded in Weick's sensemaking theory, which focuses on who the explanation is intended for. Recent work has advocated for the importance of understanding stakeholders' needs -- we build on this by providing concrete properties (e.g., identity, social context, environmental cues, etc.) that shape human understanding. We use an application of sensemaking in organizations as a template for discussing design guidelines for Sensible AI, AI that factors in the nuances of human cognition when trying to explain itself.
公開日: Tue, 10 May 2022 17:20:44 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] C H . ] c h である。 0.47
s c [ 1 v 7 5 0 5 0 sc [ 1 v 7 5 0 5 0 0.34
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Sensible AI: Re-imagining Interpretability and Explainability using Sensemaking Theory 感性ai:感覚形成理論を用いた解釈可能性と説明可能性の再認識 0.49
HARMANPREET KAUR, University of Michigan, USA EYTAN ADAR, University of Michigan, USA ERIC GILBERT, University of Michigan, USA CLIFF LAMPE, University of Michigan, USA Understanding how ML models work is a prerequisite for responsibly designing, deploying, and using ML-based systems. HARMANPREET KAUR, ミシガン大学、USA EYTAN ADAR, ミシガン大学、USA ERIC GILBERT, ミシガン大学、USA CLIFF LAMPE, ミシガン大学、アメリカ MLモデルがどのように機能するかを理解することは、MLベースのシステムの設計、デプロイ、使用を責任付けるための前提条件である。
訳抜け防止モード: HARMANPREET KAUR, University of Michigan, USA EYTAN ADAR, University of Michigan USA ERIC GILBERT, University of Michigan, USA CLIFF LAMPE 米国ミシガン大学 MLモデルの動作方法を理解する 前提条件です 責任を持ってMLベースのシステムを設計、デプロイ、使用します。
0.86
With interpretability approaches, ML can now offer explanations for its outputs to aid human understanding. 解釈可能性のアプローチにより、MLは人間の理解に役立つアウトプットの説明を提供することができる。 0.62
Though these approaches rely on guidelines for how humans explain things to each other, they ultimately solve for improving the artifact—an explanation. これらのアプローチは、人間がお互いに物事を説明する方法のガイドラインに依存していますが、最終的にはアーティファクトを改善するために解決します。 0.51
In this paper, we propose an alternate framework for interpretability grounded in Weick’s sensemaking theory, which focuses on who the explanation is intended for. 本稿では,ワイクのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
訳抜け防止モード: 本稿では,ワイクのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。 これは 説明が誰を意図しているかに焦点が当てられている。
0.59
Recent work has advocated for the importance of understanding stakeholders’ needs—we build on this by providing concrete properties (e g , identity, social context, environmental cues, etc.) that shape human understanding. 最近の研究は、利害関係者のニーズを理解することの重要性を主張しており、人間の理解を形作る具体的な特性(アイデンティティ、社会的文脈、環境の手がかりなど)を提供することによって、これを基盤にしています。 0.50
We use an application of sensemaking in organizations as a template for discussing design guidelines for sensible AI, AI that factors in the nuances of human cognition when trying to explain itself. 我々は、組織におけるセンスメイキングの応用を、人間認知のニュアンスに影響を及ぼす意味のあるAI、AIの設計ガイドラインを議論するためのテンプレートとして使用します。 0.68
CCS Concepts: • Human-centered computing → HCI theory, concepts and models; • Computing methodologies → Artificial intelligence; Machine learning. CCS概念: • 人中心コンピューティング → HCI理論、概念、モデル; • 計算方法論 → 人工知能; 機械学習。 0.84
Additional Key Words and Phrases: interpretability, explainability, sensemaking, organizations 追加のキーワードとフレーズ:解釈可能性、説明可能性、センスメイキング、組織 0.64
ACM Reference Format: Harmanpreet Kaur, Eytan Adar, Eric Gilbert, and Cliff Lampe. ACM参照フォーマット: Harmanpreet Kaur、Eytan Adar、Eric Gilbert、Cliff Lampe。 0.69
2022. Sensible AI: Re-imagining Interpretability and Explainability using Sensemaking Theory. 2022. 意味のあるAI: センスメイキング理論を用いた解釈可能性と説明可能性の再認識。 0.44
In 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22), June 21–24, 2022, Seoul, Republic of Korea. 2022年6月21-24日、大韓民国ソウルの公正、説明責任、透明性に関するACM会議(FAccT'22)。 0.73
ACM, New York, NY, USA, 20 pages. ACM, New York, NY, USA, 20ページ。 0.79
https://doi.org/10.1 145/3531146.3533135 https://doi.org/10.1 145/3531146.3533135 0.15
1 INTRODUCTION With ML-based systems being deployed in the wild, it’s imperative that all stakeholders of these systems have some understanding of how the underlying ML model works. MLベースのシステムが野放しに展開されているため、これらのシステムのすべての利害関係者が、基盤となるMLモデルがどのように機能するかをある程度理解することが不可欠です。 0.58
From the experts who develop algorithms to practitioners who design and deploy ML-based systems, and end-users who ultimately interact with these systems—stakeholders require varying levels of understanding of ML to ensure that these systems are used responsibly. アルゴリズムを開発する専門家から、MLベースのシステムを設計しデプロイする実践者、そして最終的にこれらのシステムと対話するエンドユーザに至るまで、ステークホルダーは、これらのシステムが責任を持って使用されることを保証するために、MLのさまざまなレベルの理解を必要とします。 0.51
Approaches like interpretability and explainability have been proposed as a way to bridge the gap between ML models and human understanding. MLモデルと人間の理解のギャップを埋める手段として、解釈可能性や説明可能性といったアプローチが提案されている。 0.61
These include models that are inherently interpretable (e g , decision trees [89], simple point systems [50, 124] or generalized additive models [18, 37]) and post-hoc explanations for the predictions made by complex models (e g , LIME [92], SHAP [69]). これらは本質的に解釈可能なモデル(例えば、決定木 [89]、単純点系 [50, 124] または一般化加法モデル [18, 37])と複素モデル(例えば、lime [92] 、shap [69])による予測に対するポストホックな説明を含む。
訳抜け防止モード: これらは本質的に解釈可能なモデル(例えば、決定木 [ 89 ])を含んでいる。 単純点系 [50, 124 ] または一般化加法モデル [18, 37 ] そして、複雑なモデル(例えば、)による予測のホックな説明 LIME [ 92 ] , SHAP [ 69 ] ) .
0.88
Tools that implement interpretability and explainability approaches have also been made available for public use. 解釈可能性と説明可能性のアプローチを実装するツールも公開されている。 0.57
In light of this, recent work in HCI has evaluated the efficacy of these tools in helping people understand ML models. これを踏まえて、HCIにおける最近の研究は、MLモデルの理解を支援する上で、これらのツールの有効性を評価してきた。 0.48
These findings suggest that ML practitioners [52] and end-users [10, 54] are not always able to make accurate これらの結果は, ml実践者 [52] とエンドユーザ [10, 54] が常に正確であるとは限らないことを示唆する。 0.65
Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.82
Copyrights for components of this work owned by others than the author(s) must be honored. 本作品の著作権は,著作者以外の著作物の著作権を尊重しなければならない。 0.63
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
© 2022 Copyright held by the owner/author(s). 第2022条 所有者/著者が保持する著作権。 0.60
Publication rights licensed to ACM. ACMにライセンスされた出版権。 0.69
Manuscript submitted to ACM ACMに提出された写本 0.63
1 1 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
judgments about the model, even with the help of explanations. モデルについての判断は 説明の助けを借りても 0.72
In fact, having access to these tools often leads to over-trust in the ML models. 実際、これらのツールへのアクセスは、しばしばMLモデルの過信につながる。 0.71
Ultimately, noting that interpretability and explainability are meant for the stakeholders, recent work has proposed design guidelines for explanations based on research in the social sciences about how people explain things to each other [77, 79]. 究極的には、解釈可能性と説明責任はステークホルダーにとっての目的であるとして、最近の研究は、人々がお互いにどのように説明するかに関する社会科学の研究に基づいた説明のための設計ガイドラインを提案している [77, 79]。 0.61
Taking a human-centered or a model-centered approach, this prior work seeks to answer: what are the characteristics of an explanation that can help people understand ML models? 人間中心あるいはモデル中心のアプローチを採用することで、この先行研究は次のように答えようとしている。 mlモデルを理解するのに役立つ説明の特徴は何ですか?
訳抜け防止モード: 人間 – 中心的あるいはモデル – を中心的なアプローチとする。 この前の仕事は MLモデルを理解するのに役立つ説明の特徴は何ですか?
0.85
Let us consider a real-world setting. 実世界の設定を考えてみよう。 0.69
Imagine you are a doctor in a healthcare organization that has decided to use an ML-based decision-support software to help with medical diagnosis. あなたが医療機関の医師で、MLベースの意思決定支援ソフトウェアを使って診断を助けることに決めたことを想像してほしい。
訳抜け防止モード: 医療機関の医者を想像してみてください MLベースの意思決定ソフトウェアを使用して診断を支援することを決定した。
0.77
The system takes as input information about patients’ symptoms, demographics, family history, etc., and returns a predicted diagnosis. このシステムは、患者の症状、人口統計、家族歴などの入力情報を取得し、予測された診断を返す。 0.76
Naturally, you want to be able to overview why the software predicted a certain diagnosis before you suggest treatment based on its prediction. 当然のことながら、ソフトウェアがその予測に基づいて治療を提案する前に、なぜ特定の診断を予測したのかを概観する必要がある。
訳抜け防止モード: 当然のことながら ソフトウェアがその予測に基づいて治療を提案する前に、なぜ特定の診断を予測したのかを概観する。
0.77
Further, you want to be able to explain to the patient why you (did not) trust and follow the predicted diagnosis. さらに、なぜ信頼し、予測された診断に従うのかを患者に説明したいと思っています。 0.71
To aid with this, the software provider gives you access to an explanation system (e g , LIME [92], SHAP [69]) which shows: (1) a local explanation (e g , a bar chart) of the input features that were most important for the diagnosis made for a specific patient, (2) a global explanation for the features that are usually important to the model when making a prediction, and (3) an overview of each feature’s relationship with the output classes. これを支援するために、ソフトウェアプロバイダは、(1)特定の患者にとって診断において最も重要な入力特徴の局所的な説明(eg, bar chart)、(2)予測を行う際にモデルに通常重要となる特徴のグローバルな説明、(3)各特徴と出力クラスとの関係の概要を示す説明システム(eg, LIME [92], SHAP [69])へのアクセスを提供する。 0.72
The explanation system also includes interactive elements so you can ask “what if” questions based on different combinations of input features. 説明システムにはインタラクティブな要素が含まれており、入力機能の異なる組み合わせに基づいて“What if”質問をすることができる。
訳抜け防止モード: 説明システムは対話的要素も含む。 入力機能の異なる組み合わせに基づいて “What if ” 質問をすることができる。
0.83
Is this enough to ensure that the ML-based decision-support software can be reliably used by the doctor? これは、MLベースの意思決定支援ソフトウェアを医師が確実に使用できるようにするのに十分なのだろうか? 0.61
We claim that the answer to this question is no. 私たちはこの質問に対する答えはノーだと主張する。 0.72
This paper makes the argument that current interpretability and explainability solutions will always fall short of helping people reliably use ML-based systems for decision-making because of their focus on designing better explanations—in other words, improving an artifact. この論文は、現在の解釈可能性と説明可能性のソリューションは、よりよい説明を設計すること(つまり、アーティファクトを改善すること)に焦点を当てているため、人々が意思決定にMLベースのシステムを確実に使用するのを助けるには、常に不足している、と論じている。
訳抜け防止モード: 本稿は,現在の解釈可能性と説明可能性のソリューションが,MLベースの意思決定システム – を確実に活用する上で,常に不足する,という議論を提起する。 より優れた説明を設計すること。
0.61
For example, while the explanation shows the symptoms that were important to the model’s prediction (i.e., a local explanation), it does not tell the doctor to be cautious that the patient’s other symptoms are fluctuating, that the patient belongs to a sub-group for which the model has limited training data, or that the nurses have noticed other relevant symptoms in the visiting family. 例えば、この説明はモデルの予測に重要な症状(例えば局所的な説明)を示すが、医師に、患者の他の症状が変動していること、モデルが訓練データに制限されたサブグループに属していること、または看護師が訪問家族の他の関連する症状に気付いていないことを警告するものではない。 0.75
From the patient’s perspective, the explanation does not convey why, for example, their fear of having a particular disease (after an online symptom search or from family history) is unwarranted in this instance. 患者の視点では、この説明は、例えば、特定の病気(オンライン症状検索や家族歴から)を患うことへの恐怖が、このケースで不確実である理由を説明していない。 0.79
These factors, that have little to do with the particular explanation, can alter the stakeholders’ decision-making in significant ways. これらの要因は、特定の説明とほとんど関係ないが、ステークホルダーの意思決定を大きく変えることができる。 0.63
Here, we propose a specific theoretical framework to shift from improving the artifact (e g , an explanation or explanation system) to understanding how humans make sense of complex, and sometimes conflicting, information. 本稿では,人工物の改良(説明システムや説明システムなど)から,人間が複雑で時には矛盾する情報をどのように理解するかを理解するための,特定の理論的枠組みを提案する。 0.77
Recent work supports this shift from what an explanation should look like to who it is intended for. 最近の研究は、説明が意図するものから意図するものへと、このシフトを支持している。 0.67
Properties of the who such as, prior experience with AI and ML [27], attitude towards AI (e g , algorithmic aversion [17, 21]), the socio-organizational context [26], have been observed as being critical to understanding AI and ML outputs. AIとMLの事前経験,AIに対する態度(例えば,アルゴリズム的逆転[17,21]),社会組織的文脈[26]などの性質は,AIとMLのアウトプットを理解する上で極めて重要である。
訳抜け防止モード: AIとMLによる事前経験[27]のような人物の特性 AIに対する態度(例えば、アルゴリズムの逆転[17, 21 ]) 社会的な、組織的な文脈 [26 ] は、AIとMLのアウトプットを理解するのに批判的であると見なされている。
0.73
We extend this work by providing a framework for how to incorporate human-centered principles to interpretability and explainability. 私たちは、人間中心の原則を解釈可能性と説明可能性に組み込むためのフレームワークを提供することで、この作業を拡張します。
訳抜け防止モード: 私たちはこの仕事を延ばします 人間中心の原則を解釈可能性と説明可能性に組み込むためのフレームワークを提供する。
0.61
In this paper, we present Weick’s sensemaking as a framework for envisioning the needs of people in the humanmachine context. 本稿では,人間機械のコンテキストにおける人のニーズを想定する枠組みとして,Weickのセンスメイキングを紹介した。 0.73
Weick describes sensemaking as, quite literally, “the making of sense,” or “a developing set of ideas with explanatory possibilities” [118]. Weick氏はセンスメイキングについて,文字通り“意味の創造”あるいは“説明可能性を持ったアイデアの展開”[118]と説明している。 0.76
Although Weick’s definition is similar to that of prior work in HCI and information retrieval, the two deviate in their goals; the latter defines sensemaking as finding representations that enable information foraging and question-answering [85, 96]. Weickの定義は、HCIにおける以前の研究や情報検索と似ているが、両者は目標を逸脱しており、後者は、情報収集と質問回答を可能にする表現を見つけるものとして、センスメイキングを定義している[85, 96]。
訳抜け防止モード: Weick の定義は、HCI や情報検索における以前の作業と似ているが。 2つは目標を逸脱し、後者はセンスメイキングを定義します 情報収集と質問を可能にする表現を見つける [85, 96 ]
0.75
Weick’s sensemaking is more procedural: “placement of items into frameworks, comprehending, redressing surprise, constructing meaning, interacting in pursuit of mutual understanding, and patterning” [118, p.6]. フレームワークへのアイテムの配置、理解、驚きの回帰、意味の構築、相互理解の追求と相互作用、パターン化 [118, p.6]。
訳抜け防止モード: weickのセンスメイキングは手続き的だ: “アイテムをフレームワークに配置する” 理解し、驚きを装い、意味を構築し、相互理解を追求して相互作用する。 そしてパターニング”[118 , p.6 ]。
0.65
These processes are influenced by one’s identity, environment, social, and organizational context—Weick expands these into the seven properties of sensemaking (Figure 1, Right). これらのプロセスは、個人のアイデンティティ、環境、社会的、組織的コンテキストに影響され、weickはこれらをセンスメイキングの7つの特性に拡張します(第1図)。 0.60
For example, for the doctor trying to diagnose a patient with the help of an ML-based system (with explanations), their understanding of the predicted diagnosis can be influenced by questions such as, have they recently diagnosed another patient with 例えば、MLベースのシステムの助けを借りて患者を診断しようとする医師の場合(説明付き)、予測された診断に対する理解は、最近別の患者を診断した際の質問に影響される可能性がある。 0.77
2 2 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Fig. 1. Left: DARPA’s conceptualization of Explainable AI, adapted from [35]. 図1。 左:DARPAが[35]から適応した説明可能なAIの概念化。 0.54
Right: Weick’s sensemaking properties (1–7) categorized using the high-level Enactment-Selection- Retention organizational model, adapted from [49]. 右: weick のセンスメイキング特性 (1-7) [49] から適合したハイレベルなenactment-selection- retention 組織モデルを用いて分類した。 0.67
Enactment includes properties about perceiving and acting on environmental changes; Selection, properties related to interpreting what the changes mean; and Retention, properties that describe storing and using prior experiences [56]. 実施内容には、環境変化の知覚と行動に関する特性、選択、変化の意味を解釈する特性、事前の経験の保存と使用を記述した保持に関する特性などが含まれる。 0.78
Our Sensible AI framework extends the existing definition of interpretability and explainability to include Weick’s sensemaking properties. 私たちのSensible AIフレームワークは、解釈可能性と説明可能性の定義を拡張して、Weickのセンスメイキングプロパティを含めます。 0.57
similar symptoms; is the patient’s care team in agreement on a diagnosis; is the predicted diagnosis plausible; and, which symptoms are more visible and does the explanation present these as important to the prediction. 同様の症状;患者が診断に同意するケアチーム;予測される診断が妥当である;どの症状がより見えやすく、これらの説明が予測に重要であるかを説明する。 0.80
The seven properties of sensemaking are a framework for identifying and understanding these contextual factors. センスメイキングの7つの特性は、これらの文脈要因を識別し理解するための枠組みである。 0.56
What does this knowledge of sensemaking offer to interpretability and explainability researchers and tool designers? このセンスメイキングの知識は、解釈可能性と説明可能性の研究者とツールデザイナーに何をもたらすのか? 0.59
A sensemaking perspective tells us how things beyond the individual (i.e., the environmental, social, and organizational contexts) shape individual cognition. 感覚作りの視点は、個人を超えたもの(環境、社会的、組織的な文脈)が個人の認知をどのように形成するかを教えてくれる。
訳抜け防止モード: センスメイキングの視点は 個人を超えたもの(すなわち、環境、社会的、組織的文脈)は、個人の認知を形成する。
0.60
It gives us a path forward. それは私たちを前進させる。 0.56
Prior work in organizational studies has used sensemaking to identify ways in which teams and organizations can be made more reliable. 組織研究における以前の作業は、チームや組織がより信頼できるものにする方法を見つけるために、センスメイキングを使用してきた。
訳抜け防止モード: 組織研究における先行研究は センスメイキングを チームや組織をより信頼できるものにする方法を見つけること。
0.67
These high-reliability organizations (HROs) can serve as a template for designing Sensible AI, AI that accounts for the nuances of human cognition when explaining itself to people. これらの信頼性の高い組織(HROs)は、人間に説明する際に人間の認知のニュアンスを考慮に入れた、Sensible AIを設計するためのテンプレートとして機能する。 0.66
We extend the principles that make HROs reliable (e g , a preoccupation with failure, a sensitivity to low-level operations, a reluctance to simplify anomalous situations) as guidelines for designing Sensible AI. 私たちは、hrosを信頼できるものにする原則(例えば、失敗の先入観、低レベルの操作に対する感受性、異常な状況の単純化への抵抗)を、センシブルなaiを設計するためのガイドラインとして拡張します。 0.48
Within our healthcare example, Sensible AI might take the form of a system that highlights the most significant ways in which a change in input features would change the predicted diagnosis; shows cases with similar input features but different diagnosis; presents input features that were considered less important by the model; asks all members of the patient care team to review the diagnosis individually first, allowing for a diversity of opinions and discussion opportunities; and asks for further explanation for cases in which the predicted diagnosis was disregarded, to inform future test cases. Within our healthcare example, Sensible AI might take the form of a system that highlights the most significant ways in which a change in input features would change the predicted diagnosis; shows cases with similar input features but different diagnosis; presents input features that were considered less important by the model; asks all members of the patient care team to review the diagnosis individually first, allowing for a diversity of opinions and discussion opportunities; and asks for further explanation for cases in which the predicted diagnosis was disregarded, to inform future test cases.
訳抜け防止モード: 私たちの医療の例では、Sensible AIは、最も重要な方法を強調するシステムの形を取るかもしれません。 入力の特徴の変化は 予測された診断を変えるでしょう 類似した入力特徴を持つ症例を示すが, 異なる診断, モデルにより重要視されていないと思われる入力特徴を示す; 個別に診断をレビューするよう患者チームに依頼する。 様々な意見や議論の機会を 及び、予測された診断が無視された場合について、さらに説明を求める。 将来の検査ケースを 知らせるためです
0.79
Our hope is that researchers and designers can translate our Sensible AI design guidelines as technical and social checks and balances in their tools, to better support human cognition as described by sensemaking. 研究者やデザイナーは、私たちのSensible AIデザインガイドラインを、彼らのツールの技術的および社会的チェックとバランスとして翻訳し、人間の認知をより良く支援できることを期待しています。 0.65
2 INTERPRETABILITY AND EXPLAINABILITY 2.1 What are interpretability and explainability? 2 解釈可能性と説明可能性 2.1 解釈可能性と説明可能性 0.55
Interpretability is defined from a model’s perspective as the “ability to explain or to present in understandable terms to a human” [24, p.2]. 解釈可能性とは、モデルの観点から、"理解可能な用語を人間に説明または提示する能力" [24, p.2] と定義される。 0.81
It serves as a proxy for other desiderata for ML-based systems such as reliability, robustness, transferability, informativeness, etc. 信頼性、ロバスト性、転送性、情報性など、mlベースのシステムの他のデシデラタのプロキシとして機能する。 0.55
These properties in turn promote trustworthiness, accountability, and fair and ethical decision-making [24, 65]. これらの特性は、信頼性、説明責任、公正かつ倫理的な意思決定を促進する[24, 65]。 0.67
At a high-level, interpretability approaches can be categorized into glassbox models (e g , [18, 37, 50, 58, 89, 124]) or post-hoc explanations for blackbox models (e g , [6, 69, 92, 99, 102]). 高いレベルでは、解釈可能性アプローチはガラスボックスモデル(例: [18, 37, 50, 58, 89, 124])またはブラックボックスモデル(例: [6, 69, 92, 99, 102])のポストホックな説明に分類することができる。 0.77
Instantiating these approaches into user-facing tools, static explanations output by mathematical representations of interpretability now includes interactive visuals output by explainable AI. これらのアプローチをユーザ対応ツールに具体化し、解釈可能性の数学的表現によって出力される静的説明には、説明可能なAIによって出力されるインタラクティブな視覚が含まれている。 0.49
Although similarly defined, this idea of explainability is more human-centered and is “associated with the notion of an explanation as an interface between humans and a decision maker that is, at the same time, both an accurate proxy of the decision maker and comprehensible to human” [9, 同じように定義されているが、この説明可能性の概念はより人間中心であり、「人間と意思決定者の間のインターフェイスとしての説明の概念と、同時に意思決定者の正確な代理人であり、人間に理解できる」。 0.76
3 3 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
p.85] (Figure 1, Left). p.85] (第1 図) 0.63
Scholars have incorporated prior work from philosophy (e g , [34, 39, 64, 84, 86, 111]), the social sciences (e g , [40, 60, 66–68, 72, 77, 79, 81, 103]), and HCI (e g , [12, 25, 32, 82, 83, 121, 126]) with the motivation that by translating ideas from how people explain things to each other, we can design better solutions for how ML models can be explained to people. 哲学(例えば [34, 39, 64, 84, 86, 111])、社会科学(e g , [40, 60, 66–68, 72, 77, 79, 81, 103])、HCI(e g , [12, 25 32, 82, 83, 121, 126])の先行研究を、人々が物事を説明する方法からアイデアを翻訳することで、MLモデルを人々にどのように説明できるかのより良いソリューションを設計することができる。 0.70
As a result, increasingly, interpretability and explainability tools include characteristics such as interactivity [7, 41], counterfactual “what-if” outputs [78, 115], and modular and sequential explanations [75]. その結果,対話性 [7, 41] や反ファクト的 “What-if” 出力 [78, 115] ,モジュール型およびシーケンシャルな説明 [75] など,解釈可能性や説明可能性の向上が期待できる。 0.81
Several comprehensive reviews (e g , [3, 9, 63, 116, 125]) synthesize and describe design considerations for the field. いくつかの包括的なレビュー([3, 9, 63, 116, 125])は、この分野の設計上の考慮事項を合成し、記述している。
訳抜け防止モード: いくつかの包括的なレビュー([3, 9]) 63, 116, 125 ] ) はフィールドの設計上の考慮事項を合成し記述する。
0.83
Based on a review of 289 core papers and 12412 citing papers, Adbul et al highlight the trends as (1) a move from early AI work (e g , in Expert Systems [19, 109]) to FAccT-centric ways of providing explanations; and (2) addressing macroscopic societal accountability in addition to helping individual users understand ML outputs [3]. 289のコア論文と12412の論文を引用したレビューに基づいて、Adbulらは、(1)初期のAI作業(例:Expert Systems [19, 109])から、説明を提供するFAccT中心の方法への移行、(2)個々のユーザがML出力を理解するのを助けることに加えて、マクロな社会的説明責任に対処する、というトレンドを強調している。 0.63
Arrieta et al taxonomize 409 papers to clarify terminology (e g , interpretability, understandability, comprehensibility, etc.); describe interpretability approaches for shallow and deep learning models; and highlight the challenges for responsible AI [9]. arrietaらは409の論文を分類し、用語(解釈可能性、理解可能性、理解可能性など)を明確にし、浅層および深層学習モデルの解釈可能性アプローチを記述し、責任あるaiの課題を強調する [9]。 0.70
2.2 Understanding the “who” in interpretability and explainability Scholars in ML, HCI, and social science communities have advocated for the importance of understanding who the explanations are intended for. 2.2 ML, HCI, 社会科学コミュニティにおける「解釈可能性」と「説明可能性」の理解は, 説明が意図されているかを理解することの重要性を主張している。 0.70
Their work identifies principles about stakeholders that are relevant in the human-machine context. 彼らの作業は、ヒューマンマシンのコンテキストに関連する利害関係者に関する原則を特定します。 0.48
Cognitive factors (e g , mental models, type of reasoning) have been shown to be important. 認知的要因(例えば、精神モデル、推論の種類)が重要であることが示されている。 0.76
For example, accurate mental models and deliberative reasoning can help avoid ML practitioners’ misuse of, and over-reliance on, interpretability outputs [52]. 例えば、正確なメンタルモデルと熟考的推論は、ML実践者の解釈可能性出力の誤用や過度な信頼を避けるのに役立ちます [52]。 0.69
This also applies to end-users without ML expertise [16], otherwise explanations increase the likelihood that an end-user will accept an AI’s output, regardless of its correctness [10]. これは、MLの専門知識のないエンドユーザにも適用されます [16]。
訳抜け防止モード: これはエンドツーエンドにも当てはまります - mlの専門知識のないユーザ [16]。 そうでない説明は、エンドユーザがaiのアウトプットを受け入れる可能性を高める。 その正しさ[10]にかかわらず.
0.58
For end-users, completeness (rather than soundness) of explanations helps people form accurate mental models [57]. エンドユーザにとって、説明の完全性(健全性ではなく)は、正確なメンタルモデルを形成するのに役立つ [57]。 0.61
Accuracy and example-based explanations can similarly shape people’s mental models and expectations, albeit in different ways [54]. 正確さと例に基づく説明は、人々のメンタルモデルと期待を、異なる方法で形作ることができます [54]。 0.73
Prior experience and background in ML is also important. MLの事前経験やバックグラウンドも重要だ。 0.58
Variance in these can result in preset expectations, which can lead to over- or under-use of explanations [27]. これらのばらつきは、事前設定された期待を生じさせ、説明の過剰または過度な使用につながる[27]。 0.61
Job- and task-dependent information needs also shape how (much) people internalize explanations. 業務やタスクに依存した情報も、説明を(非常に)内部化する形を形作る必要があります。 0.49
Explanation interfaces that are interactive and collaborative can improve overall accuracy [108]. インタラクティブでコラボレーティブな説明インターフェースは、全体的な精度を向上させる [108]。 0.75
Additionally, explanations from glassbox models with fewer number of features are easier for end-users to understand [88]. さらに、機能が少ないガラス箱モデルからの説明は、エンドユーザーが[88]を理解するのが簡単です。 0.70
For ML practitioners, specific types of visuals of explanations (e g , local vs. global, sequential vs. collective) differ in how much they help them understand and debug models, and explain them to customers [41, 75]. ml実践者にとって、説明の特定のタイプのビジュアル(ローカル、グローバル、シーケンシャル、コレクティブなど)は、モデルを理解しデバッグするのにどの程度役立つかによって異なり、顧客 [41,75] に説明します。
訳抜け防止モード: ML実践者にとって、説明の視覚の特定の種類(例) ローカル対グローバル、シーケンシャル対集合 ) モデルを理解しデバッグするのにどれだけ役立つかは、異なる。 顧客に説明します [41 , 75 ]
0.80
Finally, social, organizational, and socio-organizational context is important. 最後に、社会的、組織的、社会組織的文脈が重要である。 0.55
For example, [42, 45, 70, 113, 126] all highlight the challenges of operating within an organization that either develops or employs an AI-based system. 例えば [42, 45, 70, 113, 126] はすべて,AIベースのシステムを開発するか,あるいは採用する組織内で運用する上での課題を強調しています。 0.75
Stakeholders within and outside the organization can have conflicting needs from the system—technical interpretability and explainability approaches are unable to account for these. 組織内外のステークホルダは、システムからの要求に矛盾する可能性がある — 技術的解釈可能性と説明可能性のアプローチは、これらを説明できない。 0.50
These studies from the ML, HCI, and social science communities have all highlighted relevant factors about the “who” in interpretability and explainability. ML、HCI、社会科学コミュニティのこれらの研究はすべて、解釈可能性と説明可能性の「誰」に関する関連する要因を強調している。 0.57
Our proposed framework complements these evaluations: it unifies them based on sensemaking theory translated from organizational studies. 提案手法は,これらの評価を補完するものであり,組織研究から翻訳された感覚形成理論に基づいて統一する。
訳抜け防止モード: 提案フレームワークはこれらの評価を補完する -組織研究から翻訳された感覚形成理論に基づいて統一する。
0.68
We explain how individual, social, and organizational factors can affect the human-machine context, and provide a path forward that accounts for these who-centered factors. 個人的、社会的、組織的要因が人間と機械の文脈にどのように影響するかを説明し、これらの要因を考慮に入れた経路を提供する。 0.56
3 SENSEMAKING Sensemaking describes a framework for the factors that influence human understanding; “the sensemaking perspective is a frame of mind about frames of mind” [118, p.xii]. 3 SENSEMAKING Sensemakingは、人間の理解に影響を及ぼす要因の枠組みを記述している; 「センスメイキングの視点は心のフレームについての心のフレームである」 [118, p.xii]。
訳抜け防止モード: 3 SENSEMAKING Sensemakingは、人間の理解に影響を与える要因の枠組みを記述している The sensemaking perspective is a frame of minds of mind ] [118, p.xii ]。
0.85
It is most prominent in discrepant or surprising events. はっきりしない出来事や驚くべき出来事で有名である。 0.52
People try to put stimuli into frameworks, particularly when predictions or expectations break down. 人々は特に予測や期待が崩れたとき、フレームワークに刺激を加えようとします。 0.67
That is, when people come つまり人々が来るとき 0.58
4 4 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Property Identity Construction Social 財産の同一性 建築 社会 0.59
Retrospective Enactive Ongoing 振り返る 活動 継続 0.48
Focused on Extracted Cues 焦点をあてて 抽出キュウリ 0.47
Plausibility over Accuracy Human-Human Context 可能性 正確さ 人間の文脈 0.61
Sensemaking is a question about who I am as indicated by the discovery of how and what I think. センスメイキング(sensemaking)とは、自分が誰であるか、どのように考え、どのように考えるかによって示される質問である。
訳抜け防止モード: センスメイキングは 私が誰であるかという問いです 私がどう考えるかの発見によって示されます
0.55
What I say and single out and conclude are determined by who socialized me and how I was socialized, and by the audience I anticipate will audit the conclusions I reach. 発言と結論は、誰が私を社交化し、どのように社会化されたかによって決定され、聴衆によって、私が到達した結論を監査することを期待しています。 0.57
To learn what I think, I look back over what I said earlier. 何を考えているかを学ぶために、私はさっき言ったことを振り返る。 0.68
I create the object to be seen and inspected when I say or do something. 私は何か言ったりした時に見たり検査したりするオブジェクトを作成します。 0.73
Understanding is spread across time and competes for attention with other ongoing projects, by which time my interests may already have changed. 理解は時間にまたがって広がり、他の進行中のプロジェクトと競合します。
訳抜け防止モード: 理解は時間にまたがって広がり、他の進行中のプロジェクトと競合する。 その時までに 興味が変わったかもしれない。
0.67
The ‘what’ that I single out and embellish is only a small portion of the original utterance, that becomes salient because of context and personal dispositions. は、本来の発話のごく一部に過ぎず、文脈や個人的配置が原因で健全になる。
訳抜け防止モード: 私が選び出した‘what ’は、オリジナルの発話のほんの一部にすぎない。 コンテキストや個人の態度によって、それは順調になります。
0.56
I need to know enough about what I think to get on with my projects, but no more, which means sufficiency and plausibility take precedence over accuracy. プロジェクトについて何を考えているのかを十分に知る必要がありますが、もうありません。つまり、不十分さと妥当性が正確さよりも優先されるのです。
訳抜け防止モード: 私のプロジェクトで何が進むか、十分な知識が必要です。 それだけじゃなく 正当性と妥当性が 正確さよりも優先されます
0.76
Human-Machine Context ヒューマンマシンコンテキスト 0.63
Given multiple explanations, people will internalize the one(s) that support their identity in positive ways. 複数の説明が与えられたら、人々は自分のアイデンティティを肯定的にサポートするものを内部化する。 0.64
Differences in micro- and macro-social contexts affect the effectiveness of explanations. ミクロとマクロの文脈の違いは、説明の有効性に影響を及ぼす。 0.59
Providing explanations before people can reflect on the model and its predictions negatively affects sensemaking. モデルとその予測がセンスメイキングに悪影響を及ぼす前に説明を提供する。 0.73
The order in which explanations are seen affects how people understand a model and its predictions. 説明が現れる順序は、人々がモデルとその予測をどのように理解するかに影響する。 0.77
The valence and magnitude of emotion caused by an interruption during the process of understanding explanations from interpretability tools change what is understood. 解釈ツールから説明を理解する過程における中断によって引き起こされる感情の価と大きさは、理解されるものを変える。 0.69
Highlighting different parts of explanations can lead to varying understanding of the underlying data and model. 説明のさまざまな部分のハイライトは、基礎となるデータやモデルに対する理解の変化につながる可能性がある。
訳抜け防止モード: 解説のハイライト 基盤となるデータとモデルに対する様々な理解につながる可能性がある。
0.76
Given plausible explanations for a prediction, people are not inclined to search for the accurate one amongst these. 予測の妥当な説明を考えると、人々はそれらの中の正確なものを探す傾向がない。 0.74
Table 1. An overview of the seven properties of sensemaking, their description in the human-human context, and our proposed claims for the human-machine context grounded in each property. 表1。 感作の7つの特性の概要,人間・人間の文脈における記述,および各特性に根ざした人間・機械的文脈の主張について概説した。 0.68
across new or unexpected information, they like to add structure to this unknown. 新たな情報や予期せぬ情報を通じて 未知の構造を加えたいと思います 0.70
The process by which they do this, why they do it, and how it affects them and their understanding of the world are all central to sensemaking. 彼らが行うプロセス、なぜそれを行うのか、そしてそれが彼らにどのように影響するか、そして世界に対する理解は、すべてセンスメイキングの中心である。 0.68
Sensemaking subsumes interpretability1. センスメイキングは解釈可能性1を仮定する。 0.25
They share the same goal: understanding an outcome or experience. 彼らは同じ目標 – 成果や経験を理解すること – を共有しています。 0.55
If an ML-based system could explain itself, we can verify if the reasoning is sound based on auxiliary criteria (e g , safety, nondiscrimination), and determine whether the system meets other desiderata such as fairness, reliability, causality, and trust [24, 65]. MLベースのシステムが自身を説明することができれば、補助的基準(例えば、安全性、非差別)に基づいて推論が健全かどうかを検証し、公正性、信頼性、因果性、信頼[24,65]といった他のデシダータに適合するかどうかを判断することができる。 0.63
Sensemaking includes all of this and more. センスメイキングは、これらすべてを含む。 0.48
Sensemaking not only considers the information being presented to the person doing the meaning-making, but also additional contextual nuances that affect whether and how this information is internalized. センスメイキングは、意味作りを行う人に提示される情報だけでなく、この情報が内部化されるかどうかに影響を及ぼす文脈的ニュアンスも考慮する。 0.61
This includes factors such as, the enacted environment, the individual’s identity, their social and organizational networks, and prior experiences with similar information. これには、制定された環境、個人のアイデンティティ、社会的および組織的ネットワーク、同様の情報を使った事前経験などが含まれる。 0.73
In the subsections that follow, we describe Weick’s seven properties of sensemaking in the human-human context and translate them for the human-machine context (see Table 1 for an overview). 以下の節では、Weickの人間と人間のコンテキストにおけるセンスメイキングの7つの特性を説明し、それらを人間と機械のコンテキストに翻訳する(概要は表1参照)。 0.68
To concretize how these properties might affect stakeholders of ML-based systems, we present an example user vignette for each property. これらのプロパティがMLベースのシステムの利害関係者にどのように影響するかを明らかにするために、各プロパティのユーザビゲットの例を示す。 0.53
Prior work has applied similar methodology when translating theory [4, 76]. 先行研究は翻訳理論 [4, 76] において同様の手法を適用した。 0.73
While the examples are crafted based on popular press articles and research papers, they are not intended as being representative of these cases. 代表的な新聞記事や研究論文を参考に作られたものであるが、これらの事例を代表するものではない。 0.68
We use them to highlight a sensemaking property, but we do not claim that the property has a causal relationship with the example, i.e., there could be other reasons for why the ML-based systems functioned the way that they are described in these articles. 感性特性を強調するために使用するが、この特性が例と因果関係にあると主張するわけではない、すなわち、MLベースのシステムがこれらの論文で記述されているように機能する他の理由があるかもしれない。 0.74
3.1 Grounded in Identity Construction Identity is critical for AI/ML sensemaking because people only understand these systems in ways that they are congruent with their existing beliefs or update their beliefs while shedding a positive light on them. 3.1 アイデンティティ構築の基盤となるアイデンティティは、AI/MLのセンスメイキングにおいて重要である。なぜなら、人々はこれらのシステムを、既存の信念と矛盾する方法でのみ理解し、ポジティブな光を遮りながら信念を更新するからである。 0.54
For interpretability, this suggests that, given multiple explanations, people will internalize the one(s) that support their identity in positive ways. 解釈可能性については、複数の説明が与えられた場合、肯定的な方法でアイデンティティをサポートするものを内部化することが示唆される。 0.55
1Although interpretability is defined as model-centric and explainability as human-centric, there is not yet consensus on how these terms are different from an implementation point of view. 1 解釈可能性は、モデル中心であり、人間中心である説明可能性として定義されるが、これらの用語が実装の観点からどのように異なるかについてのコンセンサスはまだ存在しない。
訳抜け防止モード: 1 解釈可能性とは、モデル - 中心的かつ説明的 - 中心的 - として定義される。 どのようにして これらの用語は実装の観点から異なる。
0.54
Since “interpretability” is commonly used in describing tools that output explanations, we use this term for the rest of the paper. 解釈可能性” は説明を出力するツールの記述に一般的に用いられるので,この用語を論文の残りに用いている。 0.76
We follow similar terminology choices with ML- (rather than AI-) based systems since interpretability is attributed to ML models. 解釈容易性はMLモデルに起因するため,MLベースのシステムでは同様の用語を選択する。 0.66
5 5 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
Identity Construction in the Human-Human Context. 人間と人間のコンテキストにおけるアイデンティティ構築。 0.57
Sensemaking begins with the sensemaker. センスメイキングはセンスメイカーから始まります。 0.45
In this way, 3.1.1 sensemaking is innately human-centered: “how can I know what I think until I see what I say?” [118, p.18]. このようにして、3.1.1のセンスメイキングは、本質的に人間中心である:「私が何を言っているかを見るまで、私はどう思うかを知っているか」 [118, p.18]。
訳抜け防止モード: こうして3.1.1のセンスメイキングは本質的に人間中心である 今までどう思うか、どうやってわかるのか? 私の言うことは? [118, p.18 ]
0.65
It is grounded in the individual’s need to have a clear sense of identity. それは、個人が明確なアイデンティティの感覚を持つことの必要性に根ざしている。 0.64
People make sense of something to either support their existing beliefs or update them when applying their beliefs leads to a breakdown in their understanding. 人々は、既存の信念を支持したり、信念を適用したときに更新したりする何かを理解している。 0.67
Weick notes five things of importance for identity and sensemaking [118, pp.23-24]: (1) controlled, intentional sensemaking is triggered by a failure to confirm one’s self; (2) sensemaking is grounded in the desire to maintain a consistent, positive self-conception; (3) people learn about their identities by projecting them into an environment—which includes their social, organizational, and cultural contexts—and observing the consequences; (4) sensemaking via identity construction is a mix of proaction and reaction; and (5) sensemaking is self-referential in that the self is what ultimately needs interpreting—what a given situation means is defined by the identity that an individual relies on while understanding it. Weick notes five things of importance for identity and sensemaking [118, pp.23-24]: (1) controlled, intentional sensemaking is triggered by a failure to confirm one’s self; (2) sensemaking is grounded in the desire to maintain a consistent, positive self-conception; (3) people learn about their identities by projecting them into an environment—which includes their social, organizational, and cultural contexts—and observing the consequences; (4) sensemaking via identity construction is a mix of proaction and reaction; and (5) sensemaking is self-referential in that the self is what ultimately needs interpreting—what a given situation means is defined by the identity that an individual relies on while understanding it.
訳抜け防止モード: Weick氏はアイデンティティとセンスメイキングの重要性を5つ挙げている [118, pp.23 - 24 ] : ( 1 ) Control, 意図的なセンスメイキングは、自己確認の失敗によって引き起こされる; (2) 感覚メイキングは欲求に根ざしている 一貫性のある肯定的な自己観念を維持すること (3) 環境に投影することで、自分のアイデンティティについて学ぶこと。 社会的、組織的、文化的な文脈や 結果 ; (4 ) アイデンティティ構築によるセンスメイキングは 行動と反応の混合です そして、(5)センスメイキングは自己(自己)であり、自己は究極的には解釈を必要とするものである ― 与えられた状況とは、個人が理解しながら依存するアイデンティティによって定義される。
0.62
The relationship between identity and sensemaking is not limited to the individual sensemaker. アイデンティティとセンスメイキングの関係は、個々のセンスメーカに限らない。 0.51
The influence of social context can be seen in how identity is constructed. 社会的文脈の影響はアイデンティティの構築方法に見ることができる。 0.67
Weick describes this influence using three definitions of identity. weick氏はこの影響を3つのアイデンティティ定義を使って説明している。 0.49
First, Mead’s claim that the mind and self are developed based on the communicative processes among people (i.e., social behaviorism). 第一に、ミードの主張は、心と自己は、人々のコミュニケーションプロセス(すなわち、社会的行動主義)に基づいて発達する。 0.70
Individuals are comprised of “a parliament of selves” which reflect their various social contexts [74]. 個人は様々な社会的文脈を反映した「自己の議会」で構成されている[74]。 0.77
Second, Knorr-Cetina’s inclusion of social contexts based on the larger tapestry of social, organizational, and cultural norms, i.e., the macro-social [53]. 第二に、Knorr-Cetinaは、社会的、組織的、文化的規範のより大きなタペストリー、すなわちマクロ社会の[53]に基づいて、社会的文脈を取り入れた。
訳抜け防止モード: 第2に、Knorr - セティナが社会的、組織的、文化的規範のより大きなタペストリーに基づいて社会的文脈を取り入れたこと。 i.e., the macro - social [ 53 ] .
0.67
Finally, Erez and Earley’s three self-derived needs that shape identity, which include intrapersonal and interpersonal dynamics: (1) the need for self-enhancement, seeking and maintaining a positive cognitive and affective state about the self; (2) the self-efficacy motive, desire to perceive oneself as competent and efficacious; and (3) the need for self consistency, desire to sense and experience coherence and continuity [28]. 最後に、エレスとイヤーリーの3つの自己由来の要求は、個人内および個人間のダイナミクスを含む形状同一性である:(1)自己に対する肯定的な認知的および感情的状態の追求と維持、(2)自己効力の動機、自己を能力的かつ効果的と認識したいという願望、(3)自己の一貫性、感覚と経験の一貫性、[28]。 0.70
Sensemaking is made challenging by identity because the more identities that an individual has, the more ways they can assign meaning to something. 個人が持つアイデンティティが多ければ多いほど、意味を何かに割り当てる方法が増えるため、センスメイキングはアイデンティティによって挑戦される。 0.61
Given the fluidity of identity construction, people have to grapple with several, sometimes contradicting, ways of understanding. アイデンティティ構築の流動性を考えると、人々はいくつかの、時には矛盾する、理解の方法に逆らわなければならない。
訳抜け防止モード: アイデンティティ構築の流動性を考えると いくつかの、時には矛盾する、理解の方法を持つ。
0.57
Sometimes, this flexibility and adaptability in one’s identity can be good. 時として、この柔軟性とアイデンティティの適応性がよい場合もあるのです。 0.68
However, in most cases, this identity-based equivocality can lead to confusion, cognitive burden, and, in turn, lead people towards heuristics-based understanding [90]. しかし、ほとんどの場合、このアイデンティティに基づく等価性は混乱や認知的負担を招き、結果としてヒューリスティックスに基づく理解へと人々を導く [90]。 0.70
Identity Construction in the Human-Machine Context. ヒューマンマシンコンテキストにおけるアイデンティティ構築。 0.69
Consider Platform X, a popular social media site which 3.1.2 uses an ML model for content moderation, with two stakeholders in mind. 3.1.2はコンテンツモデレーションにMLモデルを使用し、2つの利害関係者を念頭に置いている。 0.60
First, Sharon, a 42 year old conservative in the U.S. who is against vaccination for COVID-19. まず、米国で42歳の保守派シャロン氏は、新型コロナウイルス(covid-19)の予防接種に反対している。 0.48
Her recent posts include graphic descriptions and images of, what she claims, are the potential side-effects of getting vaccinated. 彼女の最近の投稿には、彼女の主張するグラフィックの説明と画像が、ワクチン接種の潜在的な副作用である。 0.61
Second, Avery, a 37 year old doctor who believes it is their responsibility to share unfiltered information about the COVID-19 pandemic. 第二に、37歳の医師Averyは、新型コロナウイルス(COVID-19)のパンデミックに関する不正な情報を共有する責任があると信じている。 0.50
Several of their posts highlight the positives of getting vaccinated, and some of them present the rare potential side-effects that have been noted by medical professionals. 彼らの投稿のいくつかはワクチン接種の陽性を示しており、そのうちのいくつかは医療専門家によって指摘されている稀な副作用を示している。 0.50
For both Sharon and Avery, some posts have been removed by Platform X’s content moderation model. SharonとAveryでは、いくつかの投稿がPlatform Xのコンテンツモデレーションモデルによって削除されている。 0.78
Social media platforms usually offer an explanation for post removal to maintain their user base and help people share content in line with their policies. ソーシャルメディアプラットフォームは通常、ユーザーベースを維持するためにポスト削除の説明を提供し、人々がポリシーに従ってコンテンツを共有するのを手助けする。 0.74
With interpretability tools, these platforms can support richer explanations. 解釈ツールを使えば、これらのプラットフォームはよりリッチな説明をサポートすることができる。 0.45
Based on the local explanation from an interpretability tool, Sharon is told that her post was removed due to its content type, the number of her previously flagged posts, her predicted political affiliation based on her posting history, and the topic being COVID-19. 解釈ツールからの地元の説明に基づき、シャロンは自身の投稿がコンテンツタイプ、以前掲揚された投稿の数、彼女の投稿履歴に基づく予測された政治的提携、およびcovid-19に関する話題のために削除されたと伝えられている。 0.66
She might immediately latch on to the predicted political affiliation as the explanation, and not try to understand the removal any further (i.e., sensemaking is not triggered because her identity remains intact). 彼女はすぐに、その説明として予測された政治的提携に固執し、削除をこれ以上理解しようとはしないかもしれない(すなわち、彼女のアイデンティティがそのまま残っているため、センスメイキングはトリガーではない)。 0.57
For Avery, who simply wants to share all relevant information given their identity as a doctor, the post removal might attack their needs for self-enhancement, self-efficacy, and self-consistency. Averyは、医師としてのアイデンティティから得られるすべての関連情報をただ共有したいだけだが、ポスト削除は自己啓発、自己効力、自己整合性に対するニーズを脅かすかもしれない。 0.57
As such, they might assume that the content そのため、内容は想定されるかもしれない。 0.63
6 6 0.43
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
type being graphic is the main reason for post removal—this would support their positive self-conception, and not require them to understand the model’s reasoning any further. タイプ・オブ・グラフィックは、ポスト削除の主要な理由です。これは、肯定的な自己概念をサポートし、モデルの推論をさらに理解する必要がなくなるでしょう。 0.69
Interpretability tools are designed to present information in a context-free, unbiased way. 解釈ツールは、文脈のない、偏りのない方法で情報を表示するように設計されている。 0.48
But, people rarely internalize information in this static way. しかし、人々はこの静的な方法で情報を内部化することは滅多にない。 0.52
Weick argues that whether or how people internalize an explanation is dependent on their identity as an individual and as a part of their varying social contexts. weick氏は、人々が説明を内部化するかどうかは、個人としてのアイデンティティと、様々な社会的文脈の一部に依存すると論じている。 0.58
Claim: Given multiple explanations, people will internalize the one(s) that support their identity in positive ways. Claim: 複数の説明があると、ポジティブな方法でアイデンティティをサポートするものを内部化します。 0.62
3.2 Social AI/ML sensemaking is modified by social context because it represents the audience-oriented external factors that influence people as they try to understand the outputs of these systems. 3.2 ソーシャルAI/MLのセンスメイキングは、これらのシステムのアウトプットを理解しようとする人々に影響を与える観客志向の外部要因を表すため、社会的文脈によって変更される。 0.64
For interpretability, this suggests that explanations are internalized differently by people with different micro- and macro-social contexts. 解釈可能性に関しては、説明はミクロやマクロな文脈の異なる人々によって異なる内部化されていることが示唆される。
訳抜け防止モード: 解釈可能性からすると 説明は、マイクロとマクロの異なる社会的コンテキストを持つ人々によって、異なる内部化される。
0.53
Social Elements of Sensemaking in the Human-Human Context. 人間と人間のコンテキストにおける感覚形成の社会的要素 0.62
Sensemaking describes human cognition. 感覚は人間の認知を記述する。 0.53
This 3.2.1 might give it the appearance of being about the individual, but it is not. この3.2.1は、個人についているように見えるかもしれないが、そうではない。 0.67
Weick notes the work on socially shared cognition (e g , [62, 91]) which shows that human cognition and social functioning are essential to each other. Weick氏は、社会的に共有された認知(例えば、[62, 91])に関する研究について、人間の認知と社会的機能が互いに不可欠であることを示す。 0.58
Specifically, an individual’s conduct is dependent on their audience, whether this is an imagined, implied, or a physically present one [5, 15]. 具体的には、個人の行動は、想像された、暗示された、または物理的に現われるもの[5, 15]であろうと、聴衆に依存します。 0.69
Regarding the lack of a need for a physically present audience, recall Weick’s reference to Mead’s work on the individual being “a parliament of selves” [74] (see Section 3.1 for details on socially-grounded identity construction). 物理的に提示された聴衆の必要性の欠如について、ウェイクはミードの「自己の議会」 [74] に関する業績について言及している(社会的に接地されたアイデンティティ構築の詳細は3.1節を参照)。 0.69
A focus on social aspects of sensemaking naturally implies that modes of communication (e g , speech, discourse) and tools that support these also get attention, since these represent the ways in which social contact is mediated. センスメイキングの社会的側面に焦点が当てられていることは、社会的接触が媒介される方法を表すため、コミュニケーションのモード(例えば、スピーチ、談話)やそれらをサポートするツールも注目されることを意味する。 0.66
Weick describes their importance on three levels, which exist beyond the individual: (1) inter-subjective, the conversations with others that can lead to alignment; (2) generic subjective, the socially-established norms when alignment has been achieved; and (3) extra-subjective, the culturally-establish ed norms that do not necessarily require communication anymore. ワイクは、個人を超えて存在する3つのレベルにおける重要性を説明している:(1)目的間、他者との会話がアライメントにつながること、(2)主観的、調整が達成されたときに社会的に確立された規範、(3)超目的的、もはやコミュニケーションを必要としない文化的に確立された規範。 0.59
As we go from inter- to extra-subjective, the role of the implied and invisible audience becomes increasingly prominent. インターオブジェクトからエクストラオブジェクトへと進むにつれ、暗黙的かつ目に見えないオーディエンスの役割がますます顕著になる。 0.40
This, in turn, shapes the modes and tools of communication necessary for sensemaking. これにより、感覚形成に必要なコミュニケーションのモードとツールが形成される。 0.82
Social Elements of Sensemaking in the Human-Machine Context. 人間-機械の文脈における感覚形成の社会的要素 0.61
Consider the model developed for predicting 3.2.2 diabetic retinopathy (DR) based on healthcare data (predominantly eye fundus photos) collected in the U.S. [11]. 米国で収集された医療データ(前眼底写真)に基づいて3.2.2糖尿病網膜症(DR)を予測するために開発されたモデルを考える [11]。 0.74
The U.S. healthcare system is consistent across organizations—there is low variability in how eye fundus photos are captured, how the medical records are stored, and who (a generalist or specialist doctor) makes a diagnosis. 医療システムは、眼底の写真の撮影方法、医療記録の保存方法、一般医や専門医の診断方法など、組織間で一貫しています。
訳抜け防止モード: 米国の医療システムは組織間で一貫している 眼底の写真の撮影方法にはばらつきが低い。 医療記録の保存方法と(一般論者または専門医) 診断します
0.74
However, when the same model was applied to a different social and cultural context—in Thailand, where healthcare is dependent on individual providers and patient needs in different regions—it failed in unanticipated ways. しかし、同じモデルが異なる社会的・文化的文脈(タイでは、医療が個々の提供者と異なる地域の患者のニーズに依存している)に適用されたとき、予想外の方法で失敗した。 0.64
First, there is the issue with the data itself. まず、データそのものに問題がある。 0.62
Several countries in Southeast Asia, including Thailand, do not have dedicated rooms for capturing fundus photos, making the photos inconsistent in opacity and leading to potentially inaccurate predictions. タイを含む東南アジアのいくつかの国には、ファンドの写真の撮影のための専用部屋がなく、不透明さに一貫性がなく、不正確な予測につながる可能性がある。 0.58
Second, there are established norms around the results of a DR screening test. 第2に, drスクリーニング試験の結果に関する基準が確立されている。 0.69
While it is often expected to receive results immediately in the U.S. healthcare system, this is less common in Thailand, with fewer technicians, doctors, and specialists. 米国の医療システムではすぐに結果を受け取ることがしばしば期待されているが、タイでは技術者、医師、専門家が少なく、あまり一般的ではない。 0.70
Patients living in smaller towns have to travel to larger cities for appointments with specialists. 小さな町に住む患者は、専門医の予約のために大都市に旅行しなければならない。
訳抜け防止モード: 小さな町に住む患者は 専門医との約束のために 大都市へ旅します
0.73
A patient who is anticipating their DR result 4-5 weeks later might not have budgeted enough time for travel, based on a referral on the same day as the DR screening test visit. 4~5週間後にDR検査の結果を予想している患者は, DR検診の当日と同じ基準で, 旅行に十分な時間を割けなかった可能性がある。 0.74
While interpretability tools may offer an explanation, these explanations are limited to the model and the training dataset. 解釈可能性ツールは説明を提供するが、これらの説明はモデルとトレーニングデータセットに限られる。 0.75
Weick’s perspective suggests that it might not be enough to explain the prediction, due to the variability in Weick氏の見解は、この予測を説明するには不十分かもしれないことを示唆している。 0.66
7 7 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
people’s social contexts when using predictions in real-world settings; recent work on domain and distributional shifts in ML datasets supports this perspective [55]. 実世界の環境で予測を使用する場合の人々の社会的コンテキスト MLデータセットにおけるドメインと分散シフトに関する最近の研究は、この視点をサポートします [55]。 0.68
Claim: Differences in micro- and macro-social contexts affect the effectiveness of explanations. Claim: マイクロコンテキストとマクロコンテキストの違いは、説明の有効性に影響を与えます。 0.61
3.3 Retrospective Retrospection or reflective thinking influences AI/ML sensemaking by engaging people in deliberately thinking about the diverse interpretations of outputs when trying to understand these systems, instead of following the more automated, heuristics-based, reasoning pathways. 3.3 振り返りのふりかえり(Retrospective Retrospection)又は反射的思考(respective Thinking)は、AI/MLのセンスメイキングに影響を及ぼし、より自動化されたヒューリスティックな推論経路に従うのではなく、これらのシステムを理解しようとするときのアウトプットの多様な解釈を意図的に考える。 0.55
For interpretability, this suggests that providing explanations before people can reflect on the model and its predictions negatively affects sensemaking. 解釈可能性については、モデルとその予測がセンスメイキングに悪影響を及ぼすことを示唆する。 0.63
3.3.1 Retrospective Sensemaking in the Human-Human Context. 3.3.1 人間の文脈における反省的感覚形成 0.54
Sensemaking is retrospective because the object of sensemaking is a lived experience. センスメイキングの目的が生きた経験であるため、センスメイキングはふりかえりです。 0.39
Weick describes the retrospective nature of sensemaking as the most important, but perhaps the least noticeable, property. weick氏はセンスメイキングのふりかえり的な性質を、最も重要な、しかしおそらく最も目立たない性質として説明している。 0.49
The reason it so frequently goes unnoticed is because of how embedded retrospection is in the sensemaking process. あまり気づかない理由は、組み込まれた振り返りがセンスメイキングプロセスにどのように組み込まれているかが原因である。 0.48
Retrospective sensemaking is derived from the work of Schutz, who believes that meaning is “merely an operation of intentionality, which...only becomes visible to the reflective glance” [97, 98]. 振り返りのセンスメイキングは、schutz氏の仕事に由来している。彼は、意味は“単なる意図性の操作であり、反射視でのみ見える”と信じている [97, 98]。 0.73
The lived timeframe being considered for reflection can be the short- or long-term past, ranging from minutes, days, and years to “as I begin the latter portion of a long word, my utterance of the first part is already in the past” [36, p.44]. リフレクションのために検討されている生きた時間枠は、数分、日、年数から「長い単語の後半から、最初の部分の私の発話はすでに過去にある」まで、短期的または長期の過去である可能性がある [36, p.44]。 0.75
The retrospective process starts with an individual’s present circumstances, and those shape the past experiences selected for sensemaking. 振り返りのプロセスは、個人の現在の状況と、センスメイキングのために選択された過去の経験を形作ることから始まります。
訳抜け防止モード: レトロスペクティブのプロセスは、個々の状況から始まります。 感覚形成のために選択された過去の経験を形作るのです
0.75
Reflection happens in the form of a cone of light that starts with the present and spreads backwards. 反射は、現在の状態から始まり、後方に広がる光の円錐形で起こる。 0.68
In this way, the cues of the past lived experience that are paid attention to for sensemaking depend on how the present is shaped. このように、感覚形成に注目する過去の生活体験の手がかりは、現在がどのように形成されているかによって異なる。 0.68
The challenge lies in which present to consider. 課題は、現在考慮すべきものである。 0.52
People typically have several things on their mind at the same time, be it multiple projects at work or personal goals. 一般的に人々は、仕事の複数のプロジェクトや個人的な目標など、複数のことを同時に考えています。 0.79
With these, they have a multitude of lenses that they could apply for the reflective sensemaking process—the object of their sensemaking thus becomes equivocal. そのために、反射型センスメイキングのプロセスに応用できるレンズは多種多様で、その感覚メイキングの目的は等しくなります。 0.67
When dealing with equivocality, people are already overwhelmed with information and providing more details is often not helpful. 均等性を扱う場合、人々は情報に圧倒され、より多くの情報を提供することは、しばしば役に立たない。 0.60
“Instead, they need values, priorities, and clarity about preferences to help them be clear about which projects matter” [118, p.28]. 代わりに、どのプロジェクトが重要かを明確にするために、優先順位に関する価値、優先順位、明確さが必要です。
訳抜け防止モード: 代わりに、彼らは好みに対する価値、優先順位、明快さが必要です。 どのプロジェクトが重要かを明確にするために、”[118, p.28 ]。
0.64
In looking for clarity on which meaning to select, people are prone to a hindsight bias [107]. 選択する意味を明確にするために、人々は後ろ向きのバイアス[107]を受けやすいのです。 0.76
They select the most plausible story of causality for the outcome that they are trying to explain (Section 3.7 describes this property of sensemaking: being driven by plausibility over accuracy). 彼らは説明しようとする結果に対して最も妥当な因果関係の物語を選択する(第3.7条では、感覚形成のこの特性について記述している:正確性よりも正確性によって駆動される)。 0.54
3.3.2 Retrospective Sensemaking in the Human-Machine Context. 3.3.2 ヒューマンマシンコンテキストにおける振り返りのセンスメイキング 0.52
For ML-based systems, the model and its predictions are the “lived experiences.” MLベースのシステムでは、モデルとその予測は“生きた経験”である。 0.79
Consider a radiologist tasked with reading chest radiographs to determine if a patient has COVID-19. 患者が新型コロナウイルスに感染しているかどうかを判断するために胸部X線写真を読むことを担当する放射線科医を考えてみよう。
訳抜け防止モード: 胸部x線撮影を専門とする放射線科医を考える 患者がcovid-19かどうかを判断する。
0.52
The hospital has purchased an ML-based image classification system. 病院はMLベースの画像分類システムを購入した。 0.75
To help determine if the predictions makes sense, the software also provides saliency maps (an interpretability approach). 予測が理にかなっているかどうかを判断するために、ソフトウェアはサリエンシーマップ(解釈可能性アプローチ)も提供する。 0.64
By immediately providing an explanation, the interpretability tool effectively disengages the retrospective process that helps with sensemaking. 説明を即座に提供することにより、解釈ツールは、感覚形成に役立つレトロスペクティブプロセスを効果的に分離する。 0.62
Figure 2 shows example explanations provided to the radiologist. 図2は、放射線技師に提供される例を示す。 0.57
As described in the accompanying research paper [20], these explanations show that the ML model sometimes relies on laterality markers to make the prediction. 関連研究論文[20]で述べられているように、これらの説明は、MLモデルが予測を行うために、時としてラテラルマーカーに依存していることを示している。
訳抜け防止モード: 随伴研究論文[20]に記載されているように これらの説明は MLモデルは、予測を行うためにラテラルマーカーに依存することがある。
0.68
For example, in Figure 2, the saliency maps highlight not only the relevant regions in the lungs as being predictive, but also some areas (see pointers) that differ based on how the radiograph was taken. 例えば、図2の塩分マップは、肺の関連領域を予測しているだけでなく、放射線画像の撮影方法によって異なる領域(ポインタを参照)も強調しています。 0.72
These, coincidentally, are also predictive of COVID-19 positive vs. negative results, leading to a spurious correlation. これらの結果は、偶然にも、新型コロナウイルスの陽性と陰性の相関関係を予測している。 0.49
Ideally, the radiologist evaluating the saliency map would be able to reach the same conclusion regarding these spurious correlations. 理想的には、サリエンシマップを評価する放射線学者はこれらの素早い相関について同じ結論に達することができるだろう。
訳抜け防止モード: 好ましくは 放射線科医が 塩分マップを評価して これらのスプリアス相関についても同じ結論に達する。
0.66
However, the retrospective property would suggest that by providing this explanation without asking the radiologist to first think about what the explanation could be, the interpretability tool disengages their しかし, 振り返り特性から, 放射線技師にまずその説明がどのようなものかを考えることなく, この説明を提供することによって, 解釈可能性ツールがそれらを解き放つことが示唆される。 0.61
8 8 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Fig. 2. Saliency maps for chest radiographs, adapted from [20]. 図2。 20] から適応した胸部x線撮影用サリエンシーマップ 0.59
retrospective sensemaking process. 振り返り感覚のプロセスです 0.71
This makes it easier for the radiologist to craft a plausible narrative that agrees with the model’s prediction instead of analyzing the radiograph in detail and accurately understanding the model. これにより、ラジオグラフィを詳細に分析し、モデルを正確に理解するのではなく、モデル予測に合致する説得力のある物語を作るのが容易になります。 0.71
When they immediately have the explanation, there is no cognitive need for the radiologist to understand the intricacies of the model, which increases the likelihood of them missing the issues with the model. それらが直ちに説明を下すと、そのモデルの複雑さを理解するための放射線技師の認知的必要はなく、モデルに問題がある可能性が高まる。 0.64
Prior work on stakeholders’ use of interpretability tools corroborates this perspective: people expect far more from interpretability tools than their actual capabilities and, in doing so, often end up over-trusting and misusing them [10, 52]. ステークホルダーの解釈可能性ツールの使用に関する以前の作業は、この視点を裏付けている。人々は、実際の能力よりも解釈可能性ツールからはるかに多くを期待し、そうすることで、しばしば過度に信頼し、それらを誤用する[10,52]。
訳抜け防止モード: ステークホルダーによる事前作業 解釈ツールの使用は、この視点を裏付ける 人々は実際の能力よりも、解釈可能性ツールからはるかに多くを期待しています そして、そうすることで、しばしば終止符を打つ。 信頼と誤用[10, 52].
0.67
Claim: Providing explanations before people can reflect on the model and its predictions negatively affects sensemaking. 主張: モデルとその予測がセンスメイキングに悪影響を及ぼす前に説明を提供する。 0.74
3.4 Enactive of Sensible Environments Enactment is critical for AI/ML sensemaking because it represents how (much) people understand these systems—it reflects the parts of these systems that people understand, and then build on, over time. 3.4 知覚的環境の活発化 実行は、AI/MLのセンスメイキングにとって重要である。なぜなら、人々がこれらのシステムをどのように理解しているかを(大きく)表すからである。 0.70
For interpretability, this suggests that the order in which explanations are seen affects how people understand a model and its predictions. 解釈可能性については、説明の順序がモデルとその予測をどのように理解するかに影響することを示唆する。 0.72
3.4.1 Enactment in the Human-Human Context. 3.4.1 人間・人間の文脈における実践 0.52
When we are tasked with making sense of something, it might appear to belong to an external environment that we must observe and understand. 何かを理解することに取り組むとき、それは観察し理解しなければならない外部環境に属するように見えるかもしれません。 0.74
Weick argues that this is not the case, that sensemaking works such that “people often produce part of the environment they face” [118, p.30]. ワイックは、「人々が直面する環境の一部をしばしば作り出す」ようなセンスメイキングは、そうではないと主張している[118, p.30]。 0.66
It is not just the person, rather, the person and their enacted environment that is the unit of analysis for sensemaking [87]. センスメイキングの分析単位である人だけでなく、その人とその制定された環境である[87]。 0.58
This environment that provides the necessary context for sensemaking is not a monolithic, fixed environment that exists external to people. センスメイキングに必要なコンテキストを提供するこの環境は、人間以外のモノリシックで固定された環境ではない。 0.68
Rather, people act, and their actions shape the environmental context needed for sensemaking: “they act, and in doing so create the materials that become the constraints and opportunities they face.” [118, p.31]. むしろ、人々は行動し、その行動は感覚形成に必要な環境の文脈を形作る:「行動し、それによって直面する制約や機会となる材料を作り出す」 [118, p.31]。 0.74
Here, Weick is influenced by Follett, who claims that there is no subject or object in meaning-making. ここで、ヴァイクはフォレットの影響を受けており、彼は意味づけには主題や対象がないと主張している。 0.41
There is no meaning that one understands as the “result of the process;” there is just a “moment in process” [30, p.60]. プロセスの結果”として理解する意味はありません。 [30, p.60] プロセス中のモーメント(moment in process)” があるだけです。 0.82
As such, this meaning is inherently contextual in that it is shaped by the cycle of action-enaction between the human and their environment. この意味は本来、人間と環境の間の行動反応のサイクルによって形成されるという文脈的意味である。 0.77
Weick cautions against two things with the enactive nature of sensemaking. ワイクは、センスメイキングの活発な性質を持つ2つのことに注意する。 0.37
First, to not restrict our definition of action in shaping our environment. まず、環境を形作る行為の定義を制限しないことです。 0.65
Action here could mean creating, reflecting, or interpreting: “the idea that action can be inhibited, abandoned, checked, or redirected, as well as expressed, suggests that there are many ways in which action can affect meaning other than by producing visible consequences in the world” ([14], described by Weick [118, p.37]). ここでの行動は「行動が抑制される、放棄される、チェックされる、またはリダイレクトされる、あるいは表現されるという考え方は、アクションが世界の目に見える結果を生み出すこと以外の意味に影響を及ぼす多くの方法が存在することを示唆している」(Weick [118, p.37] に記述された[14])。 0.81
Second, the enacted environments do not need to embody existing ones. 第二に、制定された環境は既存の環境を具現化する必要はない。 0.56
People want to believe that the world is defined using pre-given features, i.e., knowledge and meaning exist, we just need to find them. 人々が信じたいのは、世界は既成の機能、すなわち知識と意味を使って定義されている、ということです。 0.69
This is called Cartesian anxiety: “a dilemma: either we have a fixed and stable foundation for knowledge, a point where knowledge starts, is grounded, and rests, or we cannot escape some sort of darkness, chaos, and confusion” [112, p.140]. これはカルテシアン不安(Cartesian anxiety)と呼ばれる:「ジレンマ(dilemma): 知識の固定的で安定した基盤を持ち、知識が始まり、基盤となり、休息する点を持つか、ある種の闇、混乱、混乱から逃れることができない」[112, p.140]。 0.65
When faced with equivocal meanings, people want to select ones that reduce Cartesian anxiety. 等価な意味に直面するとき、人々はデカルト的不安を減らすものを選びたがる。 0.56
But, in doing so, they also enable existing, socially constructed meanings to shape their sensemaking. しかし、そうすることで、既存の社会的に構築された意味が感覚を形作ることができるのです。
訳抜け防止モード: しかし、そうすることで 感覚を形作るための 社会的に構築された意味があります
0.72
This can be helpful in providing the clarity of values needed when faced with equivocality, or it can privilege some meanings over others, depending on agency and power [94]. これは、平等に直面するときに必要となる価値の明確さを提供するのに役立ちますし、機関や権力によっては、他よりもいくつかの意味を特権化できます [94]。
訳抜け防止モード: これは、平等に直面するときに必要となる値の明確さを提供するのに役立つ。 あるいは 機関や権力によって 他者よりも 何らかの意味を特権化できます [94]
0.65
9 9 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
3.4.2 Enactment in the Human-Machine Context. 3.4.2 ヒューマンマシンコンテキストの制定。 0.65
Enactment is most apparent when ML-based systems are used in urgent or reactive situations, such as predictive policing. MLベースのシステムが、予測ポーリングのような緊急または反応性の状況で使用される場合に最も顕著である。 0.61
Consider PredPol, which uses location-based ML models that rely on connections between places and their historical crime rates to identify hot spots for police patrol [1]. PredPolは位置ベースのMLモデルで、場所間の接続と過去の犯罪率に依存して、警察パトロールのホットスポットを特定する。
訳抜け防止モード: PredPolを考える - 場所と歴史的犯罪率の関連性に依存する位置ベースMLモデル 警察パトロールのホットスポットを 特定するためです [1]
0.77
Say a police officer is monitoring PredPol to allocate patrol units to various neighborhoods. 警察官がプレドポルを監視して パトロール部隊を各地区に配置していると 0.65
The model’s predictions influence both the officer monitoring the software as well as those patrolling. このモデルの予測は、ソフトウェアを監視する役員とパトロール担当者の両方に影響を与える。 0.74
Both will update their “environment” to be focused on certain neighborhoods. をアップデートし、特定の地区に焦点を当てる。 0.26
That is, they are primed to look for criminal activity in these neighborhoods. つまり、これらの地区で犯罪行為を捜査するようになる。 0.64
Additionally, when arrests are made using model predictions, they provide further evidence to the model that the patterns it has identified are accurate. さらに、モデル予測を使用して逮捕を行う場合、特定したパターンが正確であることをモデルにさらなる証拠を提供する。 0.81
In this way, the feedback loop causes the model to become increasingly biased [38]. このようにして、フィードバックループがモデルに偏りを増す [38]。 0.60
If the police officers were also provided an explanation for the model’s predictions, the type of explanation and the order in which they are seen (e g , global vs. local explanation first) changes the enacted environment for the officers. 警察官がモデルの予測についての説明を提供した場合、その説明のタイプと、彼らが目にする順序(例えば、グローバル対ローカルな説明)は、警察官のために制定された環境を変える。 0.75
The sensemaking perspective offers several properties for how the environment could be shaped (e g , people’s identity, social network). センスメイキングの視点は、環境をどのように形作るか(人のアイデンティティ、ソーシャルネットワークなど)に関するいくつかの特性を提供する。 0.66
Interpretability tools offer different types of information (e g , feature importances, partial dependency plots, data distributions), but do not impose an order on how this information is explored. 解釈ツールは、異なる種類の情報(機能の重要性、部分依存プロット、データ分布など)を提供するが、どのように情報を探索するかを命令しない。 0.73
End-users can take different paths to reaching conclusions about the model. エンドユーザは、モデルに関する結論に達するために異なるパスを取ることができる。 0.52
Because sensemaking is sensitive to enacted environments, it is important to remember that any information or explanation about the model is not treated by people as static or isolated. センスメイキングは、制定された環境に敏感であるため、モデルに関する情報や説明が静的あるいは孤立したものとして扱われていないことを覚えておくことが重要である。 0.55
Claim: The order in which explanations are seen affects how people understand a model and its predictions. Claim: 説明される順序は、モデルとその予測を理解する方法に影響を与えます。 0.84
3.5 Ongoing The ongoing nature of AI/ML sensemaking highlights how interruptions and emotions can influence what is understood about these systems. 3.5 AI/MLのセンスメイキングの継続的な性質は、割り込みと感情がこれらのシステムについて理解されていることにどのように影響するかを強調している。
訳抜け防止モード: 3.5 進行中のAI/MLセンスメイキングの継続的な性質 割り込みや感情が システムに影響を与えます
0.75
For interpretability, this suggests that, if interrupted when viewing an explanation, the valence and magnitude of the resulting emotion can change what people understand about the model and its predictions. 解釈可能性については、説明を見る際に中断した場合、結果の感情の価と大きさが、モデルとその予測について人々が理解しているものを変える可能性があることを示唆している。 0.54
Sensemaking as an Ongoing Activity in the Human-Human Context. 人間と人間のコンテキストにおける継続的な活動としてのセンスメイキング。 0.45
Sensemaking never starts or stops; people 3.5.1 are always in the middle of something. センスメイキングは決して始まりも止まらず、3.5.1は常に何かの真ん中にいる。 0.52
To think otherwise would suggest that people are able to chop meaningful moments from the flow of time, but that would be counter-intuitive because to determine whether something is “meaningful” would require sensemaking in the first place [22, 93]. そうでなければ、人々は時間の流れから意味のある瞬間を切り取ることができると示唆するが、それは直観に反するだろう。なぜなら何かが「意味のある」ものであるかどうかを判断するには、そもそも[22, 93]でセンスメイキングが必要になるからだ。
訳抜け防止モード: そうでなければ、人々は時間の流れから意味のある瞬間を切り取ることができるだろう。 何かが“意味のある”かどうかを判断するには,そもそも[22,93]のセンスメイキングが必要になるからだ。
0.74
Sensemaking is akin to being in situations of thrownness. センスメイキングは投げ捨ての状況に似ています。 0.42
Winograd and Flores describe these situations as having the following properties: (1) you cannot avoid acting; (2) you cannot step back and reflect on your actions, i.e., you have to rely on your intuitions; (3) the effects of action cannot be predicted; (4) you do not have a stable representation of the situation; (5) every representation is an interpretation, i.e., no objective analysis can be performed in the moment; and (6) language is action, i.e., people enact the situation via their descriptions of their environment, making it impossible to stay detached from it [123]. Winograd and Flores describe these situations as having the following properties: (1) you cannot avoid acting; (2) you cannot step back and reflect on your actions, i.e., you have to rely on your intuitions; (3) the effects of action cannot be predicted; (4) you do not have a stable representation of the situation; (5) every representation is an interpretation, i.e., no objective analysis can be performed in the moment; and (6) language is action, i.e., people enact the situation via their descriptions of their environment, making it impossible to stay detached from it [123].
訳抜け防止モード: ウィノグラードとフローレスはこれらの状況を次のように説明している 以下の特性を持つさま : (1 ) アクションを避けることはできない; (2 ) 後退してアクションを反映することはできない。 つまり、直感に頼らなければならない; (3 ) 行動の効果は予測できない; (4 ) 状況の安定した表現がない; (5) 全ての表現は解釈、すなわち解釈である 今のところ 客観的な分析はできません 6)言語はアクションです。 つまり 環境の説明を通じて 事態を再現するのです 離れることが 不可能です [123 ]
0.75
Emotion is embedded in sensemaking via the following process. 感情は以下のプロセスで感覚形成に埋め込まれる。 0.80
Interruptions trigger arousal, i.e., a discharge in the autonomic nervous system, which convinces the individual that something in the environment has changed, that they must understand it and take appropriate action to get back to a state of flow [13, 73]. 割り込みは覚醒、すなわち自律神経系の放電を誘発し、環境内の何かが変わったことを個人に説得し、それを理解し、フロー状態に戻るのに適切なアクションを講じなければならない [13,73]。 0.69
The higher the arousal postinterruption, the stronger the emotional response and, in turn, the stronger the affect of emotion on sensemaking. 覚醒後中断の度合いが高いほど、感情反応が強くなり、感情が感覚形成に与える影響が強くなる。
訳抜け防止モード: インタルーション後の覚醒度が高いほど 感情的な反応は強くなります そして、感情が感覚形成に与える影響が強くなる。
0.71
Why does it matter if there is an emotional response during an ongoing sensemaking process? 進行中の感覚形成プロセス中に感情的な反応がある場合、なぜ重要なのか? 0.70
Emotions affect sensemaking in that recall and retrospect are dependent on one’s mood [105]. 感情は、リコールや振り返りが人の気分に依存するという感覚に影響を与えます [105]。 0.68
Specifically, people recall events that are congruent with their current emotional valence. 特に、人々は現在の感情的原子価と一致した出来事を思い出す。 0.62
Of all the past events that might be relevant to sensemaking in a current situation, the ones we recall are not those that look the same, but those that feel the same. 現在の状況におけるセンスメイキングに関連する過去の出来事の中で、私たちが思い出したことは、同じように見えるものではなく、同じ感じるものなのです。 0.77
10 10 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Sensemaking as an Ongoing Activity in the Human-Machine Context. 人間・機械的文脈における活動としてのセンスメイキング 0.55
Consider the PredPol example again. PredPolの例をもう一度考えてみましょう。 0.56
Let’s 3.5.2 assume the arrest record shows that the likelihood of a legitimate arrest in an area predicted as a hot spot by the model is 40%. 3.5.2を仮定すると、モデルによってホットスポットと予測される領域における合法的な逮捕の可能性は40%である。 0.79
The officer monitoring the model outputs is made aware of this number every time they log into the system. モデル出力を監視する役員は、システムにログインするたびにこの番号を認識します。 0.76
Imagine this happens one day: the patrol officers allocated to one of the hot spots make a legitimate arrest. ある日、ホットスポットの1つに割り当てられたパトロール警官が、合法的な逮捕を行う。 0.62
The monitoring officer is commended for their role in anticipating the situation. 監視官は、状況を予見する役割を称賛されています。 0.68
This happens several times during the day. 日中は何度か行われる。 0.38
Thus, the monitoring officer associates positive feedback with arrests based on the model’s predictions. したがって、監視官はモデルの予測に基づいて肯定的なフィードバックと逮捕を関連付ける。 0.68
When writing their report about the incidents, they use the explanations provided by the software to further justify their choices. インシデントに関するレポートを書く際には、ソフトウェアが提供する説明を使って選択をさらに正当化する。 0.67
Next day, the patrol officers make another arrest in the same predicted hot spot. 翌日、警察官は同じホットスポットで別の逮捕をしました。 0.65
The monitoring officer is once again asked to record an explanation for selecting that area for patrol. 監視官は再び、パトロールのためにそのエリアを選択するための説明の記録を依頼される。 0.67
Before they do so, they happen to look at social media and notice several posts showing outrage with regards to that arrest. その前にソーシャルメディアを見て、その逮捕に関して怒りを示す記事がいくつかあることに気づいた。 0.75
This is an interruption, as described by the ongoing property of sensemaking. これは中断であり、センスメイキングの現在の特性で説明されている。 0.53
This time, when the monitoring officer is writing up their explanation, it could be that they mention that the model’s predictions are not always right and highlight some other failure cases. 今回は、監視担当者が説明を書いているとき、モデルの予測が常に正しくないということに言及し、他の障害ケースを強調します。 0.66
As we have noted before, information presented in explanations is rarely used in context-free settings. 前述したように、説明書で提示される情報は文脈自由な設定ではほとんど使われない。 0.58
Despite being shown the same explanation, the monitoring officer could notice different aspects of it depending on whether they were interrupted, whether the interruption led to positive or negative emotional states, and the magnitude of those emotions. 同じ説明が示されているにもかかわらず、監視担当者は、中断されたかどうか、中断がポジティブな感情状態かネガティブな感情状態か、そしてそれらの感情の大きさによって、それの異なる側面に気付くことができた。 0.56
Claim: The valence and magnitude of the emotion caused by an interruption during the process of understanding クレーム:理解の過程における中断によって引き起こされる感情の原子価と大きさ 0.80
explanations from interpretability tools change what is understood. 解釈可能性ツールの説明は 理解するものを変えます 0.69
3.6 Focused on and by Extracted Cues Extracted cues modify AI/ML sensemaking because they represent the (incomplete) bits of information that people rely on when trying to understand these systems. 3.6 Extracted Cues Extracted cues(抽出キュー)は、AI/MLのセンスメイキングを変更する。
訳抜け防止モード: 3.6 AI/MLのセンスメイキングに焦点をあてて これらは、人々がこれらのシステムを理解しようとするときに、(不完全な)情報のビットを表します。
0.65
For interpretability, this suggests that highlighting different parts of explanations can lead to varying understanding of the underlying data and model. 解釈可能性については、説明の異なる部分を強調することで、基礎となるデータやモデルに対する理解が変化する可能性があることを示唆する。
訳抜け防止モード: 解釈可能性からすると 説明の異なる部分を強調することは、基礎となるデータとモデルの理解を異にする可能性がある。
0.60
3.6.1 Extracting Cues in the Human-Human Context. 3.6.1 ヒューマン・ヒューマン・コンテキストにおける手がかり抽出 0.50
Weick describes extracted cues as “simple, familiar structures that are seeds from which people develop a larger sense of what may be occurring” [118, p.50]. weick氏は抽出したヒントを、“人々が発生しているかもしれないもののより深い感覚を育む種である、シンプルで親しみやすい構造”と説明している [118, p.50]。 0.58
These extracted cues are important for sensemaking because they are taken as “equivalent to the entire datum from which they come” and in being taken as such, they “suggest a certain consequence more obviously than it was suggested by the total datum as it originally came” [48, p.340]. これらの抽出された手がかりは、「彼らが来たダトゥム全体と同等」と捉えられ、「元のダトゥム全体(48, p.340)が示唆したよりも明らかな結果をもたらす」ため、センスメイキングにおいて重要である。
訳抜け防止モード: これらの抽出された手がかりは「そこから来るダタム全体と同等」と評価されるため、センスメイキングにとって重要である。 そのような状況下では、彼らは「ある結果が明らかにより大きいことを示唆する」 最初は "48, p. 340 ]
0.73
Sensemaking uses extracted cues like a partially completed sentence. センスメイキングは、部分的に完成した文のように抽出された手がかりを使用する。 0.28
The completed first half of the sentence constrains what the incomplete second half could be [101]. 文の完了した前半は、不完全な後半が [101] である可能性を制限する。 0.64
Extracting cues involves two processes—noticing and bracketing—which are both affected by context. 手がかりの抽出には2つのプロセス — 通知とブラケット — が関係する。 0.49
First, context affects which cues are extracted based on what is noticed by the sensemaker. まず、コンテキストは、センスメーカが気付くものに基づいて、どの手がかりが抽出されるかに影響する。
訳抜け防止モード: まず、文脈がどの手がかりに影響を及ぼすか センスメーカが気付くものに基づいて抽出される。
0.56
Noticing is an informal, even involuntary, observation of the environment that begins the process of sensemaking [106]. 注意は、感覚形成のプロセスを開始する環境の非公式で、たとえ不随意でも観察である[106]。 0.75
Cues that are noticed are either novel, unusual, or unexpected, or those that we are situationally or personally primed to focus on (e g , recently or frequently encountered cues) [110]. 注目される手がかりは、新しいもの、珍しいもの、予期せぬもの、あるいは状況的に、または個人的に焦点を合わせているもの(最近、または頻繁に遭遇した手がかり)[110]である。 0.66
Second, context affects how the extracted (noticed) cues are interpreted. 第二に、文脈は抽出された(注目された)手がかりがどのように解釈されるかに影響する。 0.45
Without context, any cues that are extracted lead to equivocal meanings [61]. 文脈がなければ、抽出されたすべての手がかりは余分な意味 [61] につながる。 0.58
These situations of equivocality need a clarity of values instead of more information for sensemaking (Section 3.3). これらの等価性の状況は、センスメイキングのより多くの情報ではなく、価値の明確さを必要とする(第3節3)。 0.42
Context can provide this clarity in the form of, for example, the social and cultural norms of the setting where sensemaking in happening. コンテキストは、例えば、感覚形成が起こっている環境の社会的および文化的規範という形で、この明確さを提供することができます。 0.69
During the process of extracting cues, people are trying to form a cognitive reference map that presumes that there is a connection between the situation/outcome and the cue. 手がかりを抽出する過程において、人々は状況/アウトカムとキューの間に関係があると仮定した認知参照マップを作ろうとしている。 0.65
However, important cues can be missed when people do not have any prior experience with the situation. しかし、事前の経験がない場合、重要な手がかりが見逃されることがある。 0.59
3.6.2 Extracting Cues in the Human-Machine Context. 3.6.2 ヒューマンマシンコンテキストにおける手がかり抽出 0.63
Consider the example where a company provides ML-based software to organizations to help them with hiring decisions. 企業がMLベースのソフトウェアを組織に提供して、雇用決定を支援する例を考えてください。 0.63
A marketing company uses this software to shortlist マーケティング会社はこのソフトウェアを使って 0.68
11 11 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
candidates by sending some questions in advance. 候補者は前もっていくつかの質問を送ります。 0.47
The candidates answer these questions in a video format, and the ML-based software analyzes these videos and provides a hiring score along with an explanation. 候補者はビデオ形式でこれらの質問に答え、MLベースのソフトウェアはこれらのビデオを分析し、説明とともに採用スコアを提供する。 0.71
The kind of input data used by the model includes demographic information; prior experience from the candidate’s resume; and tone of voice, perceived enthusiasm, and other emotion data coded by the software after analyzing the recorded video [51]. モデルが使用する入力データには、人口統計情報、候補履歴書からの先行経験、音声のトーン、知覚的熱意、および記録されたビデオの解析後にソフトウェアによって符号化されたその他の感情データが含まれる [51]。 0.78
Let’s say that the marketing company is using this software to shortlist candidates for the position of a sales representative. マーケティング会社がこのソフトウェアを使って、セールス担当者の候補をショートリストアップしているとしよう。 0.60
The software shows that A is a better candidate than B and explains its ratings (based on local explanations from interpretability tools). このソフトウェアは、AがBより優れた候補であることを示し、その評価(解釈可能性ツールのローカルな説明に基づく)を説明する。 0.70
The HR folks see that A’s rating is based on their facial expressions during the interview (they were smiling, not visibly nervous, and seemed enthusiastic). hrの人たちは、aのレーティングがインタビュー中の表情に基づいていると見ている(彼らは笑顔で、目立たず、熱心に見えた)。
訳抜け防止モード: HRの人たちはそれを見ます 面接中の顔の表情に基づく評価 (笑顔で、目立たしい緊張感はなく、熱狂的に見えた)。
0.78
They consider these to be good attributes for a sales representative and hire A even though B is more qualified. 彼らはこれをセールス担当者にとって良い属性と考え、bの方が適格であるにもかかわらずaを雇う。 0.57
Additional information about A’s and B’s qualifications is also noted in the local explanations but might not be the cues that are extracted or focused on in this instance. AとBの資格に関する追加情報は、地元の説明でも言及されているが、このケースで抽出または焦点を絞った手がかりではないかもしれない。 0.68
Current interpretability tools present all types of information and let the user decide how to explore. 現在の解釈可能性ツールはあらゆる種類の情報を提示し、利用者に探索の仕方を決める。 0.68
Weick cautions against this unstructured exploration because it leads to equivocal alternatives for understanding an ML-based system. weick氏は、mlベースのシステムを理解するための明確な代替手段につながるため、この非構造化探索に対して警告している。
訳抜け防止モード: ウィックはこの非構造探査に注意を払っている これはMLベースのシステムを理解するための等価な代替手段につながります。
0.55
Which one of these alternatives is ultimately selected can be a reasonable, reflective process or entirely arbitrary. いずれの選択肢が最終的に選択されるかは、合理的、反射的、あるいは完全に任意のプロセスである。 0.63
Claim: Highlighting different parts of explanations can lead to varying understanding of the underlying data and model. Claim: 説明のさまざまな部分のハイライトは、基礎となるデータやモデルのさまざまな理解につながる可能性があります。 0.62
3.7 Driven by Plausibility rather than Accuracy Recognizing that people are driven by plausibility rather than accuracy is critical for AI/ML sensemaking because we must account for people’s inclination to only have a “good enough” understanding of these systems. 3.7 正確さよりも可視性によって駆動される 正確さよりも可視性によって駆動されていることは、AI/MLのセンスメイキングにとって重要である。
訳抜け防止モード: 3.7 精度よりも可視性により駆動される。 AI / ML のセンスメイキングには これらのシステムについて、“十分な”理解しか持たないという、人々の傾向を考慮しなければなりません。
0.69
For interpretability, this suggests that, given plausible explanations, people are not inclined to search for the accurate one amongst these. これは解釈可能性のために、妥当な説明をすれば、人々はそれらの中の正確なものを探す傾向がないことを示唆している。 0.54
3.7.1 Plausibility over Accuracy in the Human-Human Context. 3.7.1 人間の文脈における正確性に対する可視性 0.53
Weick argues that accuracy is nice but not necessary for sensemaking. weick氏は、精度は良いがセンス作りには必要ないと主張している。 0.52
Even when it is necessary, people rarely achieve it. 必要な時でも、人々はほとんど達成しない。 0.75
Instead, people rely on plausible reasoning which is: (1) not necessarily correct but fits the facts, and (2) based on incomplete information [47]. 代わりに、(1)必ずしも正しくないが事実に合致する、(2)不完全な情報に基づいて[47]という、妥当な推論に頼る。 0.70
When sensemaking, people can be influenced by what is “interesting, attractive, emotionally appealing, and goal relevant” [29]. センスメイキングでは,“興味深く,魅力的で,感情的にアピールし,目標に関係のある”ものの影響を受けます [29]。 0.71
Weick notes eight reasons for why accuracy is secondary to sensemaking. Weick氏は、精度がセンスメイキングに二次的な理由を8つ挙げている。 0.47
Most important among these, first, it is impossible to internalize the overwhelming amount of information available for sensemaking. これらの中で最も重要なのは、まず、感覚形成に利用可能な膨大な量の情報を内包することは不可能である。 0.57
To cope with this, people apply relevance filters to the information [31, 104]. これに対処するために,情報[31,104]に関連性フィルタを適用する。 0.76
Second, when people filter what they notice, this biased noticing can be good for action, though not for deliberation. 第二に、人々が認識したものをフィルターすると、この偏りのある通知は行動に適するが、審議には適さない。 0.63
But, deliberation is not the goal, it is “futile in a changing world where perceptions, by definition, can never be accurate” [118, p.60]. しかし、審議は目標ではなく、”定義上、知覚が決して正確ではない変化する世界において不利である”、[118, p.60]。 0.72
Third, at the time of sensemaking, it is impossible to tell if the sensemaker’s perceptions will be accurate. 第三に、センスメイキングの時点では、センスメイカーの知覚が正確かどうかを判断することは不可能である。
訳抜け防止モード: 第三に、センスメイキングのとき、それは不可能です。 センサーの認識が正確かどうかを判断する。
0.70
It is only in retrospect—after the sensemaker has taken action based on their understanding—that they evaluate their perceptions for accuracy. sensemakerが理解に基づいて行動を起こした後、その知覚を正確さのために評価するのは振り返りのみです。 0.71
With accuracy not being necessary for sensemaking, it is only natural to ask: what is? センスメイキングに正確さは必要ありませんが、質問するのは自然なことです。 0.62
Weick claims that what is necessary for sensemaking is a good story, “something that preserves plausibility and coherence, something that is reasonable and memorable, something that embodies past experiences and expectations, something that resonates with other people, something that can be constructed retrospectively but also can be used prospectively, something that captures both feeling and thought, something that allows for embellishment to fit current oddities, something that is fun to construct” [118, pp.60-61]. Weick claims that what is necessary for sensemaking is a good story, “something that preserves plausibility and coherence, something that is reasonable and memorable, something that embodies past experiences and expectations, something that resonates with other people, something that can be constructed retrospectively but also can be used prospectively, something that captures both feeling and thought, something that allows for embellishment to fit current oddities, something that is fun to construct” [118, pp.60-61].
訳抜け防止モード: weick氏は、センスメイキングに必要なことは良い話だと主張する。 「可能性と一貫性を保ち、合理的で記憶に残るもの。」 過去の経験や期待を具現化するもの、他の人と共鳴するもの、ふりかえりに構築できるもの 予見的に使うこともできます 感覚と思考の両方を捉え 装飾を現在の奇数に合わせることができる。 構成が楽しいもの”[118, pp.60 - 61 ]。
0.63
Stories help with sensemaking because they are templates from previous attempts at making sense of similar situations. ストーリーは、類似した状況を理解するための以前の試みのテンプレートであるため、センスメイキングに役立つ。
訳抜け防止モード: ストーリーはセンスメイキングに役立つ 類似した状況を理解しようとする 以前の試みのテンプレートです
0.75
Overall, this property is often amplified by the others in that the plausible narratives could depend on people’s identity, implied or actual audience, extracted cues, emotional state, etc. 全体としては、もっともらしい物語は、人々のアイデンティティ、インプリートや実際の聴衆、抽出された手がかり、感情状態などに依存することがしばしばある。 0.55
3.7.2 Plausibility over Accuracy in the Human-Machine Context. 3.7.2 ヒューマンマシンコンテキストにおける正確性よりも可能性。 0.51
Interpretability outputs, such as text or visual explanations, inherently present a story. テキストや視覚的な説明のような解釈可能性の出力は、本質的にストーリーを提示する。 0.50
As long as this explanation / story is plausible, there is no reason for an この説明/物語が妥当である限り、理由がない。 0.58
12 12 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
individual to evaluate it for accuracy. 正確さで評価することです 0.58
Consider the example with the radiologist again, where they are tasked with deciding whether a chest radiograph shows that the patient has COVID-19. 胸部x線写真が患者がcovid-19であることを示すかどうかを判断する、放射線科医の例をもう一度考えてみましょう。 0.58
Their decision-making is supported by an ML-based software that has been trained on publicly available chest radiograph datasets. 彼らの意思決定は、公開されている胸部X線写真データセットに基づいてトレーニングされたMLベースのソフトウェアによって支援されている。
訳抜け防止モード: 彼らの決定 - 意思決定はMLベースのソフトウェアによって支持される 公開の胸部X線写真データセットで 訓練されています
0.51
To help them understand the model’s reasoning for a prediction, the radiologist has access to saliency maps as interpretable outputs (Figure 2). 予測に対するモデルの推論を理解するために、放射線学者は、解釈可能な出力として唾液マップにアクセスすることができる(第2図)。 0.62
According to Weick, when using the saliency map to determine whether the model’s prediction makes sense, the radiologist is essentially searching for a plausible story that explains the prediction. weick氏によると、サリエンシーマップを使ってモデルの予測が理にかなっているかどうかを判断する時、放射線科医は基本的に予測を説明する説得力のあるストーリーを探しているという。
訳抜け防止モード: Weickによると、いつ モデルの予測が意味を持つかどうかを決定するために、サリエンシマップを使用する。 放射線科医は 予測を説明する もっともらしい話を探してる
0.68
The explanations in Figure 2 show some areas inside the lungs as relevant, a plausible reason for predicting COVID-19. 図2にある説明は、肺の中のいくつかの領域が関連していることを示している。 0.57
The radiologist could believe this plausible explanation and choose to follow it. 放射線学者はこのもっともらしい説明を信じ、それに従うことを選択できる。 0.48
Human evaluations of interpretability tools show that this confirmatory use of explanations is often the case, even when explanations reveal issues with the underlying model [10, 16, 52]. 解釈可能性ツールの人間による評価は、基礎となるモデル [10, 16, 52] の問題点が明らかになっても、この説明の確認的使用がしばしば行われていることを示している。 0.61
Let’s say that the radiologist was not immediately convinced that the prediction was accurate after seeing the saliency maps. 放射線科医は、サリエンシーマップを見た後、予測が正確だとすぐには確信していなかったとしよう。 0.66
Maybe they looked at one of them (e g , Figure 2-Middle) and noticed that the radiograph’s edges (by the person’s shoulders and diaphragm) were also salient for the prediction. そのうちの1つ(図2の中間など)を見て、ラジオグラフの端(人の肩と横隔膜による)も予測に役立っていることに気づいたのかもしれません。 0.67
Even with this observation, the radiologist is looking for a plausible story. この観察にもかかわらず、放射線科医は妥当な話を探しています。 0.55
Perhaps the patient was coughing and could not stay still when the radiograph was being captured? おそらく、患者はしゃがんでいて、X線写真が撮られた時、じっとしていられませんでしたか? 0.49
That could explain the lateral markers for a COVID-19 positive patient. これにより、新型コロナウイルス陽性患者の側方マーカーが説明できるかもしれない。 0.41
The model is relying on spurious correlations, but, with the role of plausibility in sensemaking, the radiologist might not try to accurately interpret the saliency map. このモデルは散発的な相関に依存するが、感覚形成における可能性の役割により、放射線科医は塩分マップを正確に解釈しようとはしないかもしれない。 0.58
Claim: Given plausible explanations for a prediction, people are not inclined to search for the accurate one amongst these. Claim: 予測の妥当な説明をすれば、これらの中の正確なものを探す傾向はありません。 0.73
3.8 Summary When designing solutions for promoting human understanding of ML models, we must consider the nuances of human cognition in addition to the technical solutions which explain ML models. 3.8概要 MLモデルの人間の理解を促進するためのソリューションを設計する際には、MLモデルを説明する技術的なソリューションに加えて、人間の認知のニュアンスを考慮する必要がある。 0.70
Sensemaking provides a set of properties that describe these nuances—each of these can be seen as a self-contained set of research questions and hypotheses that relates to the other six. センスメイキングはこれらのニュアンスを記述する性質のセットを提供し、それぞれが他の6つに関連する自己完結した研究質問と仮説のセットと見なすことができる。 0.67
As the human-machine examples show, sensemaking properties could explain external factors that shape the information that is ultimately internalized by people when they use interpretability tools. ヒューマンマシンの例が示すように、センスメイキングの特性は、解釈ツールを使用するときに最終的に内部化される情報を形成する外部要因を説明できる。 0.65
4 DISCUSSION We propose a framework for Sensible AI to account for the properties of human cognition described by sensemaking. 4 考察では,感覚形成によって記述される人間認知の特性を考慮した感性aiの枠組みを提案する。 0.62
This has the potential to refine the explanations from interpretability tools for human consumption and to better support the human-centered desiderata of ML-based systems. これは、人間の消費のための解釈可能性ツールからの説明を洗練し、MLベースのシステムの人間中心のデシラタをより良く支援する可能性がある。 0.46
How do we do this? どうやってやるのか? 0.67
Once again, Weick (along with his colleagues) proposes a solution: to explicitly promote or amplify sensemaking, we can follow the model of mindful organizing [119]. 再び、Weick氏(同僚たちと一緒に)はソリューションを提案している: センスメイキングを明示的に促進または増幅するために、マインドフルな組織[119]のモデルに従うことができる。 0.63
Sensemaking and organizing are inextricably intertwined. センスメイキングと組織化は複雑に絡み合っている。 0.40
While sensemaking describes the meaning-making process of understanding, organizing describes the final outcome (e g , a map or frame of reference) that represents the understanding. 意味形成は理解のプロセスを記述するが、組織化は理解を表す最終結果(例えば、地図や参照のフレーム)を記述する。 0.74
They belong to the same mutually interdependent, cyclical, recursive process—sensemaking is the process by which organizing is achieved [8, 120]. これらは相互に相互依存的、循環的、再帰的プロセスに属しており、センスメイキングは組織化が達成されるプロセスである [8, 120]。 0.66
Mindfulness is expressed by actively refining the existing categories that we use to assign meaning, and creating new categories as needed for events that have not been seen before [59, 114, 119]. マインドフルネスは、意味を割り当てるために使用する既存のカテゴリを積極的に洗練し、[59,114,119]以前に見たことのないイベントに必要な新しいカテゴリを作成することで表現されます。 0.66
Mindful organizing was proposed after observing high-reliability organizations (HROs). 信頼性の高い組織(HRO)を観察した後、マインドフル・オーガナイゼーションが提案された。 0.40
HROs are organizations that have successfully avoided catastrophes despite operating in high-risk environments [95, 117]. HROは、リスクの高い環境[95, 117]で運用されているにも関わらず、大災害をうまく回避した組織です。
訳抜け防止モード: hrosは 95, 117 ] 高いリスク環境下での運用にもかかわらず, 災害回避に成功している。
0.59
Examples of these include healthcare organizations, air traffic control systems, naval aircraft carriers, and nuclear power plants. 例としては、医療機関、航空管制システム、海軍航空母艦、原子力発電所などがある。 0.67
Mindful organizing embodies five principles consistently observed in HROs: (1) preoccupation with failure, anticipating potential risks by always being on the lookout for failures, being sensitive to even the smallest ones; (2) reluctance to simplify, wherein each failure is treated as unique because routines, labels, and cliches can stop us from looking into details of an event; (3) sensitivity to operations, a heightened awareness of the state of relevant systems and マインドフル・オーガナイズメント・エボディーズ(マインドフル・オーガナイズメント・エボディーズ)は,(1)失敗への前向きな取り組み,障害の監視に常に参加して潜在的なリスクを予見する,(2)最小限のシステムにも敏感である,2)障害の簡略化を拒否する,(2)ルーチンやラベル,シックがイベントの詳細を見るのを阻止する,(3)運用への敏感さ,関連するシステム状態に対する意識の高揚,といった5つの原則を一貫して実施している。 0.78
13 13 0.85
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
Table 2. Principles of high-reliability organizations (columns) that inspired our design ideas (rows) for Sensible AI. 表2。 高信頼性組織(columns)の原則は、賢明なaiのための設計アイデア(rows)に影響を与えました。 0.62
processes because systems are not static or linear, and expecting uncertainty in anticipating how different systems will interact in the event of a crisis; (4) commitment to resilience, prioritizing training for emergency situations by incorporating diverse testing pathways and team structures, and when a failure occurs, trying to absorb strain and preserve function; and (5) deference to expertise, assuming that people who are in the weeds—often lower-ranking individuals—have more knowledge about the situation, and valuing their opinions. processes because systems are not static or linear, and expecting uncertainty in anticipating how different systems will interact in the event of a crisis; (4) commitment to resilience, prioritizing training for emergency situations by incorporating diverse testing pathways and team structures, and when a failure occurs, trying to absorb strain and preserve function; and (5) deference to expertise, assuming that people who are in the weeds—often lower-ranking individuals—have more knowledge about the situation, and valuing their opinions.
訳抜け防止モード: なぜならシステムは静的でも線形でもないし、不確実性も期待しているからです 危機時に異なるシステムがどう相互作用するかを さまざまなテストパスとチーム構造を統合することで、緊急時のトレーニングの優先順位付けを行う。 障害が発生すると 緊張を吸収し 機能を維持する そして(5) 雑草の中にいる人々(しばしば低いランクの個人)が、状況についてより多くの知識を持っていることを前提として、専門性への言及。 彼らの意見を評価します
0.59
Our proposal for Sensible AI encompasses designing, deploying, and maintaining systems that are reliable by learning from properties of HROs. 本提案は,hrosの特性から学ぶことで信頼性の高いシステムの設計,デプロイ,保守を包含する。 0.60
Table 2 presents the corresponding principles of HROs that serve as inspiration for each idea. 表2は、各アイデアのインスピレーションとなるHROの原則を示します。 0.61
4.1 Seamful Design We can help people understand AI and ML by giving them the agency to do so. 4.1 Seamful Design AIとMLを理解するのに役立ちます。
訳抜け防止モード: 4.1 Seamful Design支援 人々はAIとMLを理解し、それを行うエージェンシーを与えます。
0.74
Often, ML-based systems and interpretability tools are designed with seamless interaction and effortless usability in mind. MLベースのシステムや解釈容易性ツールは、シームレスなインタラクションと、無駄なユーザビリティを念頭に設計されることが多い。 0.46
However, this can engage people’s automatic reasoning mode, leading them to use ML outputs without adequate deliberation [10, 16, 52]. しかし、これは人々の自動推論モードに関わり、適切な熟考[10, 16, 52]なしでML出力を使用することになる。 0.68
Highlighting complex details of ML outputs and processes—seamful design [46]—can promote the reluctance to simplify that has helped HROs. MLのアウトプットとプロセスの高明快な詳細 - セムフルデザイン [46] - は、HROの単純化に役立っている。 0.67
It can also add a sensitivity to operations when changes to inputs for models can be clearly seen in the outputs. また、モデルの入力に対する変更が出力にはっきりと見える場合に、操作に感度を加えることもできる。 0.80
Enhancing reconfigurability of ML models and training people to understand their complexity can reduce automatic, superficial evaluations. mlモデルの再構成可能性の向上と、その複雑さを理解するためのトレーニングは、表面的自動評価を減らすことができる。
訳抜け防止モード: MLモデルの再構成可能性の向上と複雑さを理解するためのトレーニング 自動的な 表面的な評価を減らせます
0.68
Increasing user control in the form of seamful design has the added benefit of introducing opportunities for informational interruptions, which are helpful for the commitment to resilience seen in HROs. シームフルデザインの形でユーザコントロールを増やすことで、情報中断の機会を導入するというメリットが追加され、HROに見られるレジリエンスへのコミットメントに役立ちます。 0.64
While current interpretability tools have interactive features that provide additional information as needed, contextualizing this information using narratives can help people maintain overall situational awareness and avoid dysfunctional momentum when using ML-based systems. 現在の解釈可能性ツールは、必要に応じて追加情報を提供するインタラクティブな機能を備えているが、物語を使ってこの情報をコンテキスト化することで、状況認識全体の維持とMLベースのシステムの使用時の機能不全を回避することができる。 0.54
For example, when a doctor is viewing a predicted diagnosis, a Sensible AI system could prompt them to view cases with similar inputs but different diagnoses. 例えば、医師が予測された診断を見ているとき、Sensible AIシステムは、類似した入力で異なる診断を行うように促すことができる。 0.74
Next, we discuss ways to design these systems without overloading the end-user with features, interactivity, and information. 次に、エンドユーザに機能、対話性、情報をオーバーロードすることなく、これらのシステムを設計する方法について議論する。 0.56
4.2 Inducing Skepticism One way to reduce over-reliance on generalizations and known information—both common outcomes of sensemaking— is to create situations in which people would ask questions. 4.2 懐疑を誘発する 一般化と既知の情報の過度な信頼を減らす方法(どちらもセンスメイキングの結果である)は、人々が質問する状況を作ることである。
訳抜け防止モード: 4.2 懐疑論の導入 過度化の一方法-一般化と既知の情報に依存する センスメイキングの一般的な成果は 人々が質問する状況を作り出します
0.73
We call this inducing skepticism, an idea suggested in prior work as a strategy for promoting reflective design [100]. これは、反射的設計を促進するための戦略として、以前の仕事で提案された考え方です。
訳抜け防止モード: これを懐疑論と呼ぶ。 反射設計を促進する戦略として、事前の作業で提案されたアイデア [100 ]。
0.75
Inducing skepticism can foster a preoccupation with failure, an HRO principle that encourages cultivating a doubt mindset in employees. 懐疑主義の導入は、従業員の疑わしいマインドセットの育成を促進するHRO原則である、失敗による偏見を育む可能性がある。 0.49
HRO employees are always on the lookout for anomalies, they interpret any new cues from their systems in failure-centric ways, and collectively promote wariness. HROの従業員は常に異常のチェックアウトをしており、システムから新たな手がかりを障害中心の方法で解釈し、全体として警告を促進する。
訳抜け防止モード: HROの従業員はいつも異常に気を配っている。 彼らはシステムから 新たな手がかりを解釈する 中心的な方法で
0.65
This can be incorporated in ML-based systems, for example, by suggesting that end-users ask about how a particular prediction is unique or similar to other data points, questioning outputs of interpretability tools sometimes (e g , “does this feature importance value make sense?”), presenting bottom-n feature importances in an explanation instead of top-n, highlighting cases for which the model is unsure of its predictions, etc. 例えば、mlベースのシステムでは、エンドユーザが特定の予測が他のデータポイントとどのようにユニークか、あるいは類似しているかを問う、解釈ツールのアウトプットに疑問を呈する(例えば、“この機能の重要性は意味があるのか?
訳抜け防止モード: これは、例えばMLベースのシステムに組み込むことができる。 終わりを示唆することで -利用者がどう思うか 特定の予測は他のデータポイントと一意または類似している 解釈可能性ツールのアウトプットを疑問視する (例: “この機能の重要性は意味があるのか? ボトム - n の特徴は、トップ - n, モデルが予測に不確実である場合のハイライト。
0.71
Inducing skepticism can also 懐疑論を呼び起こすこともできる 0.49
14 14 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
be accomplished in social ways, by promoting diversity in teams, both in terms of skillsets and experience. スキルセットと経験の両面で、チームの多様性を促進することによって、社会的方法で達成される。
訳抜け防止モード: 社会的な方法で達成される スキルセットと経験の両面で、チームの多様性を促進すること。
0.70
For example, novices can prompt experts to view an AI output in more detail when they ask questions about it. 例えば、初心者は専門家に、AIのアウトプットをより詳細に見るように促すことができる。 0.64
This diversity is a common way in which HROs maintain their commitment to resilience. この多様性は、HROがレジリエンスへのコミットメントを維持する一般的な方法です。 0.55
These technical and social ways of inducing skepticism have a common goal, a reluctance to simplify by adding complexity and diversity to a situation. 懐疑主義を誘発する技術的、社会的方法には共通の目標があり、状況に複雑さと多様性を加えることで単純化を怠る。 0.55
4.3 Adversarial Design No one person can successfully anticipate all failures, even when the system induces skepticism. 4.3 敵設計 システムが懐疑的になっても、すべての障害を予測できる人はいない。 0.64
Adversarial design suggests relying on social and organizational networks for this task. 敵対的設計は、このタスクのために社会的および組織的ネットワークに頼ることを提案している。 0.45
Adversarial design is a form of political design rooted in the theory of agonism: promoting productive contestation and dissensus [23, 80, 122]. 敵対的デザイン(adversarial design)は、アゴニズム理論に根ざした政治デザインの1つであり、生産的競争と不満を促進する(23, 80, 122]。 0.62
By designing Sensible AI systems with dissensus-centric features, we can increase the likelihood that someone raises a red flag given early signals of a failure situation. センサブルなAIシステムを違和感中心の機能で設計することで、障害の早期の兆候から誰かが赤い旗を掲げる可能性を高めることができる。 0.57
Prior work has implemented adversarial design in the form of red teaming in technical and social ways (e g , adversarial attacks for testing and promoting cybersecurity [2], and forming teams with collective diversity and supporting deliberation [33, 43, 44], respectively). 以前の作業では、技術的および社会的方法でレッドチーム化(サイバーセキュリティのテストと促進に対する敵意攻撃[2]、集団的多様性と審議(33、43、44])をサポートするチームの形成など)という形で、敵意デザインを実装してきた。 0.68
Here, HRO principles of reluctance to simplify, commitment to resilience, and deference to expertise can be observed in practice. ここでは、単純化に対する寛大さの原則、レジリエンスへのコミットメント、専門性への言及を実際に観察することができる。 0.45
We propose technical redundancies and social diversity to reduce unanticipated failures in understanding AI outputs, as one way of operationalizing adversarial design. 本稿では,AIのアウトプット理解における予期せぬ失敗を減らすために,技術的冗長性と社会的多様性を提案する。 0.67
Technical redundancies can be implemented as system features wherein multiple people view the same output in different contexts, giving the team a better chance of finding potential issues. 技術的冗長性は、複数の人が異なるコンテキストで同じアウトプットを見ることができるシステム機能として実装できるため、潜在的な問題を見つけるチャンスがチームに与えられる。
訳抜け防止モード: 技術的冗長性はシステム機能として実装できる 複数の人が異なる文脈で同じ出力を見るのです 潜在的な問題を見つけるチャンスをチームに与えます
0.83
Social or organizational diversity can be expanded by including people with different roles, skillsets, and opinions. 社会的または組織の多様性は、異なる役割、スキルセット、意見を持つ人々を含めることで拡大することができる。 0.61
The more diversity in people viewing the outputs, the higher the likelihood that they collectively discover an issue, as long as deliberation is made easy [43]. アウトプットを見る人々の多様性が増すほど、熟考が簡単である限り、集合的に問題を発見する可能性が高くなる[43]。 0.68
4.4 Continuous Monitoring and Feedback When ML-based systems are deployed in real-world settings, changes in data collection and distributional drifts are a given [55]. 4.4 継続的監視とフィードバック MLベースのシステムが実環境にデプロイされる場合、データ収集と分散ドリフトの変化は、[55]に与えられる。 0.77
To manage these, researchers and practitioners have proposed MLOps—an extension of DevOps practices from software to ML-based settings—to include continuous testing, integration, monitoring, and feedback loops in maintaining the operation of ML-based systems in the wild [71]. これらを管理するため、研究者や実践者たちは、ソフトウェアからMLベースの設定へのDevOpsプラクティスの拡張であるMLOpsを提案し、[71]でMLベースのシステムの運用を維持するための継続的テスト、統合、監視、フィードバックループを含むようにした。
訳抜け防止モード: これらを管理するには 研究者や実践者たちは、継続的テストを含むためのMLOps(ソフトウェアからMLへのDevOpsプラクティスの拡張)を提案している。 MLベースのシステムの運用を維持するための統合、監視、フィードバックループ。
0.67
We propose incorporating social features in this pipeline by designing for HRO principles such as preoccupation with failure, sensitivity to operations, and deference to expertise. 本稿では,このパイプラインにソーシャルな特徴を取り入れることを提案し,障害に対する偏見,運用への敏感さ,専門知識への配慮といったHROの原則を設計する。 0.65
For example, include (1) continuous failure monitoring, effectively serving as distributed fire alarms that can be engaged by people at varying levels in an organization, and (2) model maintenance, by relying on people on the ground for detailed understanding of failure cases, as seen in organizations that perform failure panels, audits, etc. 例えば、(1)連続的な障害監視、組織内のさまざまなレベルで人々が関与できる分散型火災アラームとして効果的に機能する、(2)障害パネルや監査を行う組織に見られるような、障害事例の詳細な理解のために地上の人々を頼りに、モデルのメンテナンス、などです。 0.69
5 CONCLUSION Interpretability and explainability approaches are designed to help stakeholders adequately understand the predictions and reasoning of an ML-based system. 5 ConCLUSION Interpretabilityと説明可能性アプローチは、ステークホルダーがMLベースのシステムの予測と推論を適切に理解できるように設計されている。
訳抜け防止モード: 5 ConCLUSION Interpretability and explainability approach is designed 利害関係者がMLベースのシステムの予測と推論を適切に理解するのを助ける。
0.84
Although these approaches represent complex models in simpler formats, they do not account for the contextual factors that affect whether and how people internalize information. これらのアプローチは複雑なモデルをより単純なフォーマットで表現するが、情報の内部化の有無や方法に影響を与える文脈的要因は考慮しない。 0.66
We have presented an alternate framework for helping people understand ML models grounded in Weick’s sensemaking theory from organizational studies. Weick氏のセンスメイキング理論に根ざしたMLモデルを組織研究から理解するための代替フレームワークを紹介した。 0.74
Via its seven properties, sensemaking describes the individual, environmental, social, and organizational context that affects human understanding. その7つの特性から、センスメイキングは人間の理解に影響を与える個人、環境、社会的、組織的な文脈を記述する。 0.54
We translated these for the human-machine context and presented a research agenda based on each property. 我々はこれらを人間と機械のコンテキストに翻訳し,それぞれの特性に基づく研究課題を提示した。 0.59
We also proposed a new framework—Sensible AI—that accounts for these nuances of human cognition and presented initial design ideas as a concrete path forward. 私たちはまた、人間の認知のニュアンスを説明する新しいフレームワーク、sensible aiを提案し、最初の設計アイデアを具体的な道筋として提示しました。 0.51
We hope that by accounting for these nuances, Sensible AI can support the desiderata (e g , reliability, robustness, trustworthiness, accountability, fair and ethical decision-making, etc.) that interpretability and explainability are intended for. これらのニュアンスを考慮すれば、賢明なaiは、解釈可能性と説明可能性が意図するデシデラータ(信頼性、堅牢性、信頼性、説明責任、公平かつ倫理的な意思決定など)をサポートすることができると期待する。 0.54
15 15 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
ACKNOWLEDGMENTS We thank our reviewers for their helpful comments. ACKNOWLEDGMENTS 参考コメントに感謝します。 0.41
We are also grateful to Mitchell Gordon, Stevie Chancellor, and Michael Madaio for their feedback and support. また、Mitchell Gordon、Stevie Chancellor、Michael Madaioのフィードバックとサポートにも感謝しています。 0.67
Harmanpreet Kaur was supported by the Google PhD fellowship. Harmanpreet KaurはGoogleのPhDフェローシップに支えられた。 0.75
REFERENCES [1] 2020. 参考 [1] 2020. 0.45
Law enforcement: Predpol Law Enforcement Intelligence led Policing Software: Predpol Law Enforcement Intelligence led Policing Software. 法執行: 警察法執行インテリジェンス 警察ソフトウェア: 警察法執行インテリジェンス 警察ソフトウェア。 0.54
https://www.predpol. com/law-enforcement/ https://www.predpol. com/law-enforcement/ 0.16
[2] Hussein Abbass, Axel Bender, Svetoslav Gaidow, and Paul Whitbread. [2] Hussein Abbass、Axel Bender、Svetoslav Gaidow、Paul Whitbread。 0.34
2011. Computational Red Teaming: Past, Present and Future. 2011. 計算的レッドチーム:過去、現在、未来。 0.52
IEEE Computational Intelligence Magazine 6, 1 (2011), 30–42. IEEE Computational Intelligence Magazine 6, 1 (2011), 30–42。 0.43
https://doi.org/10.1 109/MCI.2010.939578 https://doi.org/10.1 109/MCI.2010.939578 0.13
[3] Ashraf Abdul, Jo Vermeulen, Danding Wang, Brian Y. Lim, and Mohan Kankanhalli. [3]Ashraf Abdul、Jo Vermeulen、Danding Wang、Brian Y. Lim、Mohan Kankanhalli。 0.35
2018. Trends and Trajectories for Explainable, Accountable and Intelligible Systems: An HCI Research Agenda (CHI ’18). 2018. 説明可能な,説明可能な,説明可能な,知的なシステムのためのトレンドと軌道:HCI Research Agenda (CHI'18) 0.54
Association for Computing Machinery, New York, NY, USA, 1–18. Association for Computing Machinery, New York, NY, USA, 1–18。 0.92
https://doi.org/10. https://doi.org/10。 0.26
1145/3173574.3174156 1145/3173574.3174156 0.20
[4] Ali Alkhatib. アリ・アルハティブ(Ali Alkhatib)。 0.50
2021. To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes. 2021. アルゴリズムシステムはなぜ異常な成果を生み出すのか? 0.42
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (Yokohama, Japan) (CHI ’21). 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.34
Association for Computing Machinery, New York, NY, USA, Article 95, 9 pages. association for computing machinery, new york, ny, usa, article 95, 9 pages を参照。 0.41
https://doi.org/10.1 145/3411764.3445740 https://doi.org/10.1 145/3411764.3445740 0.15
[5] Gordon W Allport. 5] ゴードン・w・オールポート 0.58
1985. The historical background of social psychology (Vol. 1). 1985. 社会心理学の歴史的背景(第1巻) 0.55
The handbook of social psychology (1985). the handbook of social psychology (1985)を参照。 0.90
[6] David Alvarez-Melis and Tommi Jaakkola. 6]David Alvarez-MelisとTommi Jaakkola。 0.41
2017. A causal framework for explaining the predictions of black-box sequence-to-sequence models. 2017. ブラックボックス列列列モデルの予測を記述するための因果的枠組み 0.56
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. 自然言語処理における経験的手法に関する2017年会議のまとめ 0.78
Association for Computational Linguistics, Copenhagen, Denmark, 412–421. デンマークのコペンハーゲンの計算言語学会、412-421。 0.55
https://doi.org/10.1 8653/v1/D17-1042 https://doi.org/10.1 8653/v1/D17-1042 0.12
[7] Saleema Amershi, Maya Cakmak, William Bradley Knox, and Todd Kulesza. 7] セーレマ・アメルシ、マヤ・カクマク、ウィリアム・ブラッドリー・ノックス、トッド・クレスザ 0.50
2014. Power to the people: The role of humans in interactive machine 2014. 人々への力:対話型機械における人間の役割 0.63
learning. AI Magazine 35, 4 (2014), 105–120. 学ぶこと。 AIマガジン35, 4 (2014), 105–120。 0.73
https://doi.org/10.1 609/aimag.v35i4.2513 https://doi.org/10.1 609/aimag.v35i4.2513 0.11
[8] Mary Ann Glynn and Lee Watkiss. 8] メアリー・アン・グリンとリー・ワツキス 0.66
2020. Of Organizing and Sensemaking: From Action to Meaning and Back Again in a Half-Century of Weick’s 2020. 組織化とセンスメイキング:「行動」から「意味」へ、そして「再び」へ 0.52
Theorizing. Journal of Management Studies 57, 7 (2020), 1331–1354. 理論だ Journal of Management Studies 57, 7 (2020), 1331–1354。 0.34
https://doi.org/10.1 111/joms.12613 https://doi.org/10.1 111/joms.12613 0.15
[9] Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador Garcia, Sergio GilLopez, Daniel Molina, Richard Benjamins, Raja Chatila, and Francisco Herrera. Alejandro Barredo Arrieta氏、Natalia Díaz-Rodríguez氏、Javier Del Ser氏、Adrien Bennetot氏、Siham Tabik氏、Alberto Barbado氏、Salvador Garcia氏、Sergio GilLopez氏、Daniel Molina氏、Richard Benjamins氏、Raja Chatila氏、Francisco Herrera氏。
訳抜け防止モード: Alejandro Barredo Arrieta, Natalia Díaz - Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado Salvador Garcia, Sergio GilLopez, Daniel Molina, Richard Benjamins ラジャ・チャティラ(Raja Chatila)とフランシスコ・ヘレラ(Francisco Herrera)。
0.90
2020. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. 2020. 説明可能な人工知能(XAI): 責任あるAIに対する概念、分類、機会、課題。 0.60
Information Fusion 58 (6 2020), 82–115. 情報融合58(2020年6月)、82-115。 0.34
https://doi.org/10.1 016/J.INFFUS.2019.12 .012 https://doi.org/10.1 016/J.INFFUS.2019.12 .012 0.11
[10] Gagan Bansal, Tongshuang Wu, Joyce Zhou, Raymond Fok, Besmira Nushi, Ece Kamar, Marco Tulio Ribeiro, and Daniel Weld. [10]Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro、Daniel Weld。 0.60
2021. Does the Whole Exceed Its Parts? 2021. 全体はパーツを上回っていますか? 0.52
The Effect of AI Explanations on Complementary Team Performance. AI説明が相補的チームパフォーマンスに及ぼす影響 0.73
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (Yokohama, Japan) (CHI ’21). 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.34
Association for Computing Machinery, New York, NY, USA, Article 81, 16 pages. association for computing machinery, new york, ny, usa, article 81, 16 pages (英語) 0.40
https://doi.org/10.1 145/3411764.3445717 https://doi.org/10.1 145/3411764.3445717 0.15
[11] Emma Beede, Elizabeth Baylor, Fred Hersch, Anna Iurchenko, Lauren Wilcox, Paisan Ruamviboonsuk, and Laura M. Vardoulakis. Emma Beede氏、Elizabeth Baylor氏、Fred Hersch氏、Anna Iurchenko氏、Lauren Wilcox氏、Paisan Ruamviboonsuk氏、Laura M. Vardoulakis氏。
訳抜け防止モード: エマ・ビーデ エリザベス・ベイラー フレッド・ハーシュ アンナ・iurchenko、lauren wilcox、paisan ruamviboonsuk、laura m. vardoulakis。
0.47
2020. A Human-Centered Evaluation of a Deep Learning System Deployed in Clinics for the Detection of Diabetic Retinopathy. 2020. 糖尿病網膜症診断のための臨床に展開した深層学習システムの人間中心的評価 0.62
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
Association for Computing Machinery, New York, NY, USA, 1–12. Association for Computing Machinery, New York, NY, USA, 1-12。 0.87
https: //doi.org/10.1145/33 13831.3376718 https: //doi.org/10.1145/33 13831.3376718 0.15
[12] Victoria Bellotti and Keith Edwards. 12] ビクトリア・ベロッティと キース・エドワーズ 0.60
2001. Intelligibility and Accountability: Human Considerations in Context-Aware Systems. 2001. 知性と説明責任:文脈認識システムにおける人間的考察。 0.50
Human–Computer ヒューマンコンピュータ 0.60
Interaction 16, 2-4 (2001), 193–212. 相互作用16、2-4(2001)、193-212。 0.58
https://doi.org/10.1 207/S15327051HCI1623 4_05 https://doi.org/10.1 207/S15327051HCI1623 4_05 0.12
[13] Ellen Berscheid. Ellen Berscheid (複数形 Ellen Berscheids) 0.36
1983. Emotion. 1983. 感情。 0.38
In Close Relationships, H.H. Kelley, E. Berscheid, A. Christensen, J. Harvey, T. Huston, G. Levinger, E. McClintock, H.H.Kelley, E. Berscheid, A. Christensen, J. Harvey, T. Huston, G. Levinger, E. McClintock。
訳抜け防止モード: 密接な関係において、H・H・ケリー、E・ベルシェイド、A・クリスティンセン。 J. Harvey, T. Huston, G. Levinger, E. McClintock
0.69
A. Peplau, and D.R. Peterson (Eds.). A.ペプラウとD.R.ピーターソン(Eds.)。 0.76
WH Freeman, 110–168. フリーマン、110-168。 0.63
[14] Herbert Blumer. ハーバート・ブルーマー(Herbert Blumer)。 0.54
1969. Symbolic interactionism. 1969. 象徴的相互作用主義。 0.49
Vol. 50. vol.1。 50. 0.41
Englewood Cliffs, NJ: Prentice-Hall. Englewood Cliffs, NJ: Prentice-Hall 0.45
[15] T Bruns and GM Stalker. 15]tブランズとgmストーカー 0.34
1961. The management of innovation. 1961. イノベーションのマネジメント。 0.46
Tavistock, London (1961), 120–122. タビストック(1961年)、120-122。 0.51
[16] Zana Buçinca, Maja Barbara Malaya, and Krzysztof Z. Gajos. 16]Zana Buçinca, Maja Barbara Malaya, Krzysztof Z. Gajos。 0.33
2021. To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-Assisted Decision-Making. 2021. 信頼するか、考えるか:認知強制関数はAI支援意思決定におけるAIへの過度な依存を減らすことができる。 0.48
Proc. ACM Hum. Proc ACMヒューム所属。 0.48
-Comput. Interact. -計算。 相互作用する。 0.38
5, CSCW1, Article 188 (Apr 2021), 21 pages. 5 CSCW1, 第188条(2021年4月)21頁。 0.75
https://doi.org/10.1 145/3449287 [17] Jason W Burton, Mari-Klara Stein, and Tina Blegind Jensen. Jason W Burton氏、Mari-Klara Stein氏、Tina Blegind Jensen氏。 0.32
2020. A systematic review of algorithm aversion in augmented decision making. 2020. 拡張意思決定におけるアルゴリズム回避の体系的レビュー 0.55
Journal of Behavioral Decision Making 33, 2 (2020), 220–239. Journal of Behavioral Decision Making 33, 2 (2020), 220–239。 0.43
https://doi.org/10.1 002/bdm.2155 https://doi.org/10.1 002/bdm.2155 0.15
[18] Rich Caruana, Yin Lou, Johannes Gehrke, Paul Koch, Marc Sturm, and Noemie Elhadad. [18]Rich Caruana、Yin Lou、Johannes Gehrke、Paul Koch、Marc Sturm、Noemie Elhadad。 0.35
2015. Intelligible Models for HealthCare: Predicting Pneumonia Risk and Hospital 30-day Readmission. 2015. 医療のための知性モデル:肺炎のリスクと30日間の入院の予知。 0.53
In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (Sydney, NSW, Australia) (KDD ’15). 21th acm sigkdd international conference on knowledge discovery and data mining (sydney, nsw, australia, kdd ’15) で開催。
訳抜け防止モード: 第21回ACM SIGKDD国際知識発見会議に参加して そして、データマイニング(シドニー、NSW、オーストラリア) (KDD ’ 15 )。
0.71
ACM, New York, NY, USA, 1721–1730. ACM, New York, NY, USA, 1721–1730。 0.96
https://doi.org/10.1 145/2783258.2788613 https://doi.org/10.1 145/2783258.2788613 0.15
[19] Randall Davis, Bruce Buchanan, and Edward Shortliffe. 19]ランダル・デイヴィス、ブルース・ブキャナン、エドワード・ショートリンフ 0.51
1977. Production rules as a representation for a knowledge-based consultation program. 1977. 知識に基づくコンサルティングプログラムの表現としての生産ルール。 0.61
Artificial intelligence 8, 1 (1977), 15–45. 人工知能 8, 1 (1977), 15–45。 0.70
https://doi.org/10.1 016/0004-3702(77)900 03-0 https://doi.org/10.1 016/0004-3702(77)900 03-0 0.21
[20] Alex J DeGrave, Joseph D Janizek, and Su-In Lee. Alex J DeGrave氏、Joseph D Janizek氏、Su-In Lee氏。 0.36
2021. AI for radiographic COVID-19 detection selects shortcuts over signal. 2021. 新型コロナウイルス検出のためのAIは、信号によるショートカットを選択する。 0.40
Nature Machine Intelligence (2021), 1–10. 自然機械 インテリジェンス(2021年)、1-10。 0.67
https://doi.org/10.1 038/s42256-021-00338 -7 https://doi.org/10.1 038/s42256-021-00338 -7 0.11
[21] Berkeley J Dietvorst, Joseph P Simmons, and Cade Massey. [21]バークレーJ Dietvorst、Joseph P Simmons、Cade Massey。 0.33
2015. Algorithm aversion: People erroneously avoid algorithms after seeing them err. 2015. アルゴリズム回避: errを見た後、人々は誤ってアルゴリズムを避けます。 0.54
Journal of Experimental Psychology: General 144, 1 (2015), 114–126. Journal of Experimental Psychology: General 144, 1 (2015), 114–126。 0.43
https://doi.org/10.1 037/xge0000033 https://doi.org/10.1 037/xge0000033 0.16
[22] Wilhelm Dilthey and Frederic Jameson. 22] ヴィルヘルム・ディルシーと フレデリック・ジェイムソン 0.50
1972. The rise of hermeneutics. 1972. hermeneuticsの台頭。 0.43
New literary history 3, 2 (1972), 229–244. 新文学史3, 2 (1972), 229–244。 0.79
16 16 0.42
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[23] Carl DiSalvo. カール・ディサルボ(Carl DiSalvo)。 0.62
2015. Adversarial design. 2015. 敵対的デザイン。 0.49
Design Thinking, Design Theory. デザイン思考、デザイン理論。 0.73
[24] Finale Doshi-Velez and Been Kim. [24]最終回 同志VelezとBeen Kim 0.64
2017. Towards a rigorous science of interpretable machine learning. 2017. 解釈可能な機械学習の厳密な科学に向けて 0.58
arXiv preprint arXiv:1702.08608 (2017). arXiv preprint arXiv:1702.08608 (2017) 0.42
[25] Paul Dourish. ポール・ドゥーリッシュ(Paul Dourish)。 0.58
2016. Algorithms and their others: Algorithmic culture in context. 2016. アルゴリズムとその他: 文脈におけるアルゴリズム文化。 0.62
Big Data & Society 3, 2 (2016), 1–11. Big Data & Society 3, 2 (2016), 1–11。 0.87
https://doi.org/10.1 177/ https://doi.org/10.1 177/ 0.18
2053951716665128 2053951716665128 0.43
[26] Upol Ehsan, Q Vera Liao, Michael Muller, Mark O Riedl, and Justin D Weisz. [26]Upol Ehsan氏、Q Vera Liao氏、Michael Muller氏、Mark O Riedl氏、Justin D Weisz氏。 0.39
2021. Expanding explainability: Towards social transparency in ai 2021. 説明可能性の拡大:aiにおける社会的透明性に向けて 0.46
systems. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. システム。 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–19. https://doi.org/10.1 145/3411764.3445188 1–19. https://doi.org/10.1 145/3411764.3445188 0.25
[27] Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021. [27]Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021。
訳抜け防止モード: [27 ]ウポル・エサン,サミール・パッシ,Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl 2021年?
0.67
The who in explainable ai: How ai background whoが説明可能なai:aiの背景 0.61
shapes perceptions of ai explanations. AI説明の知覚を形作るのです 0.57
arXiv preprint arXiv:2107.13509 (2021). arxiv プレプリント arxiv:2107.13509 (2021) 0.45
[28] Miriam Erez, P Christopher Earley, et al 1993. 928] Miriam Erez, P Christopher Earley, et al 1993。 0.34
Culture, self-identity, and work. 文化、自己同一性、仕事。 0.74
Oxford University Press on Demand. オックスフォード大学出版局。 0.51
[29] Susan T Fiske. 29] スーザン・t・フィスキー 0.53
1992. Thinking is for doing: portraits of social cognition from daguerreotype to laserphoto. 1992. 思考とは、ダゲレオタイプからレーザー写真まで、社会的認知の肖像画です。 0.53
Journal of personality and social Journal of Personal and Social (英語) 0.63
psychology 63, 6 (1992), 877–889. 心理学63, 6 (1992), 877-889。 0.86
https://doi.org/10.1 037/0022-3514.63.6.8 77 https://doi.org/10.1 037/0022-3514.63.877 0.11
[30] Mary Parker Follett. メアリー・パーカー・フォレット(Mary Parker Follett)。 0.54
1924. Creative experience. 1924. 創造的な経験。 0.55
Longmans, Green and company. ロングマンズ、グリーン、会社。 0.78
[31] Gerd Gigerenzer. [31]Gerd Gigerenzer氏。 0.36
1991. How to make cognitive illusions disappear: Beyond “heuristics and biases”. 1991. 認知的錯覚を消失させる方法: “ヒューリスティックとバイアス”を越えて。 0.54
European review of social psychology 2, 1 (1991), ヨーロッパ社会心理学レビュー2, 1 (1991) 0.71
83–115. https://doi.org/10.1 080/1479277914300003 3 83–115. https://doi.org/10.1 080/1479277914300003 3 0.26
[32] Marco Gillies, Rebecca Fiebrink, Atau Tanaka, Jérémie Garcia, Frédéric Bevilacqua, Alexis Heloir, Fabrizio Nunnari, Wendy Mackay, Saleema Amershi, Bongshin Lee, et al 2016. [32]Marco Gillies, Rebecca Fiebrink, Atau Tanaka, Jérémie Garcia, Frédéric Bevilacqua, Alexis Heloir, Fabrizio Nunnari, Wendy Mackay, Saleema Amershi, Bongshin Lee, et al 2016
訳抜け防止モード: [32 ]マルコギリズ、レベッカ・フィーブリンク、アトー・田中 Jérémie Garcia, Frédéric Bevilacqua, Alexis Heloir, Fabrizio Nunnari Wendy Mackay, Saleema Amershi, Bongshin Lee, et al 2016
0.75
Human-centred machine learning. 人間中心の機械学習。 0.67
In Proceedings of the 2016 CHI conference extended abstracts on human factors in computing systems. 2016 chiカンファレンスの議事録では、コンピューティングシステムにおけるヒューマンファクターの抽象化が拡張されている。 0.49
3558–3565. 3558–3565. 0.35
[33] Mitchell L. Gordon, Michelle S. Lam, Joon Sung Park, Kayur Patel, Jeff Hancock, Tatsunori Hashimoto, and Michael S. Bernstein. Michael L. Gordon、Michelle S. Lam、Joon Sung Park、Kayur Patel、Jeff Hancock、Hashimoto Tatsunori、Michael S. Bernstein。
訳抜け防止モード: 【33】ミッチェル・l・ゴードン、ミシェル・s・ラム、ジュンソン・パーク kayur patel氏、jeff hancock氏、hashimotottsunori氏、michael s. bernstein氏。
0.66
2022. Jury Learning: Integrating Dissenting Voices into Machine Learning Models. 2022. ジャリーラーニング: 散発的な声を機械学習モデルに統合する。 0.56
In CHI Conference on Human Factors in Computing Systems (New Orleans, LA, USA) (CHI ’22). chi conference on human factors in computing systems (new orleans, la, usa) (chi ’22) で発表された。 0.73
Association for Computing Machinery, New York, NY, USA, Article 115, 19 pages. association for computing machinery, new york, ny, usa, article 115, 19 pages を参照。 0.41
https://doi.org/10.1 145/3491102.3502004 https://doi.org/10.1 145/3491102.3502004 0.15
[34] Herbert P Grice. ハーバート・P・グリス(Herbert P Grice)。 0.47
1975. Logic and conversation. 1975. 論理と会話。 0.56
In Speech acts. Brill, 41–58. 言論において。 背番号41-58。 0.52
https://doi.org/10.1 163/9789004368811_00 3 [35] David Gunning and David Aha. David Gunning氏とDavid Aha氏は次のように述べている。 0.64
2019. DARPA’s explainable artificial intelligence (XAI) program. 2019. DARPAの説明可能な人工知能(XAI)プログラム。 0.63
AI Magazine 40, 2 (2019), 44–58. AIマガジン40, 2 (2019), 44-58頁。 0.82
https: //doi.org/10.1609/ai mag.v40i2.2850 https: /doi.org/10.1609/aim ag.v40i2.2850 0.24
[36] C. Hartshorne. 36] c・ハートソーン 0.59
1962. Mind as Memory and Creative Love. 1962. 記憶と創造的な愛としての心。 0.49
In Theories of the Mind, Jordan M. Scher (Ed.). 心の理論において、jordan m. scher (ed.)。 0.72
Free Press of Glencoe, 440–463. フリープレス・オブ・グレンコー 440–463。 0.51
[37] T J Hastie and R J Tibshirani. [37] t j hastie と r j tibshirani。 0.64
1990. Generalized Additive Models. 1990. 一般化付加モデル。 0.58
CRC Press. [38] Will Douglas Heaven. CRCプレス [38]ダグラス天国になります。 0.54
2020. Predictive policing algorithms are racist. 2020. 予測警察アルゴリズムは人種差別的です。 0.54
They need to be dismantled. 彼らは解体される必要がある。 0.58
MIT Technology Review 17 (2020), 2020. MIT Technology Review 17 (2020)、2020年。 0.87
[39] Carl G Hempel and Paul Oppenheim. カール・g・ヘンペルとポール・オッペンハイムです 0.47
1948. Studies in the Logic of Explanation. 1948. 説明の論理を研究する。 0.55
Philos. Sci. 15, 2 (1948), 135–175. フィロス Sci 15, 2 (1948), 135–175. 0.38
https://doi.org/10.1 086/286983 [40] Denis J Hilton. https://doi.org/10.1 086/286983[40] Denis J Hilton氏。 0.28
1996. Mental models and causal explanation: Judgements of probable cause and explanatory relevance. 1996. 精神モデルと因果的説明:可能な原因の判断と説明的関連性 0.59
Thinking & Reasoning 2, 4 (1996), 273–308. 思考・推論2・4 (1996), 273–308. 0.57
https://doi.org/10.1 080/135467896394447 https://doi.org/10.1 080/135467896394447 0.17
[41] Fred Hohman, Andrew Head, Rich Caruana, Robert DeLine, and Steven M. Drucker. [41]フレッド・ホーマン、アンドリュー・ヘッド、リッチ・カルアナ、ロバート・デライン、スティーブン・m・ドラッカー。 0.60
2019. Gamut: A Design Probe to Understand How Data Scientists Understand Machine Learning Models. 2019. Gamut: データサイエンティストが機械学習モデルを理解する方法を理解するための設計プローブ。 0.59
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Glasgow, Scotland Uk) (CHI ’19). 2019 chi conference on human factors in computing systems (glasgow, scotland uk) (chi ’19) で発表された。 0.69
ACM, New York, NY, USA, Article 579, 13 pages. ACM, New York, NY, USA, Article 579, 13 pages 0.38
https://doi.org/10.1 145/3290605.3300809 https://doi.org/10.1 145/3290605.3300809 0.15
[42] Kenneth Holstein, Jennifer Wortman Vaughan, Hal Daumé, Miro Dudik, and Hanna Wallach. 42] ケネス・ホルスタイン、ジェニファー・ウォルトマン・ヴォーン、ハル・ダウメ、ミロ・デュディク、ハンナ・ワラッハ 0.57
2019. Improving Fairness in Machine Learning Systems: What Do Industry Practitioners Need? 2019. 機械学習システムの公平性を改善する: 業界の実践者が必要とするものは何か? 0.50
. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Glasgow, Scotland UK) (CHI ’19). . 2019 chi conference on human factors in computing systems (glasgow, scotland uk) (chi ’19) で発表された。 0.57
Association for Computing Machinery, New York, NY, USA, 1–16. アソシエーション・フォー・コンピューティング・マシーンズ (association for computing machinery, new york, ny, usa, 1–16)。 0.51
https://doi.org/10.1 145/3290605.3300830 https://doi.org/10.1 145/3290605.3300830 0.15
[43] Lu Hong and Scott Page. [43] ルホンとスコット・ペイジ 0.52
2020. The Contributions of Diversity, Accuracy, and Group Size on Collective Accuracy. 2020. 多様性、正確性、グループサイズが集団的正確性に寄与する。 0.56
Accuracy, and Group Size on 正確さとグループサイズ 0.65
Collective Accuracy (October 15, 2020) (2020). 総合精度(2020年10月15日)。 0.56
https://doi.org/10.2 139/ssrn.3712299 https://doi.org/10.2 139/ssrn.3712299 0.15
[44] Lu Hong and Scott E Page. [44] ルホンとスコットのeページ 0.57
2004. Groups of diverse problem solvers can outperform groups of high-ability problem solvers. 2004. 多様な問題解決者のグループは、高能率な問題解決者のグループを上回ることができる。 0.47
Proceedings of the National Academy of Sciences 101, 46 (2004), 16385–16389. 議事録 国立科学アカデミー 101, 46 (2004), 16385–16389 0.52
https://doi.org/10.1 073/pnas.0403723101 https://doi.org/10.1 073/pnas.0403723101 0.15
[45] Sungsoo Ray Hong, Jessica Hullman, and Enrico Bertini. 45] ソンソー・レイ・ホン、ジェシカ・ハルマン、エンリコ・ベルティーニ 0.49
2020. Human factors in model interpretability: Industry practices, challenges, and needs. 2020. モデル解釈可能性におけるヒューマンファクター:業界プラクティス、課題、ニーズ。 0.52
Proceedings of the ACM on Human-Computer Interaction 4, CSCW1 (2020), 1–26. ACM on Human-Computer Interaction 4, CSCW1 (2020), 1–26。 0.40
https://doi.org/10.1 145/3392878 https://doi.org/10.1 145/3392878 0.17
[46] Sarah Inman and David Ribes. 46]Sarah Inman氏とDavid Ribes氏。 0.40
2019. "Beautiful Seams": Strategic Revelations and Concealments. 2019. 「美しい海」:戦略的な啓示と隠ぺい。 0.53
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Glasgow, Scotland UK) (CHI ’19). 2019 chi conference on human factors in computing systems (glasgow, scotland uk) (chi ’19) で発表された。 0.72
Association for Computing Machinery, New York, NY, USA, 1–14. Association for Computing Machinery, New York, NY, USA, 1–14。 0.92
https://doi.org/10.1 145/3290605.3300508 https://doi.org/10.1 145/3290605.3300508 0.15
[47] Daniel J Isenberg. ダニエル・J・アイゼンバーグ(Daniel J Isenberg)。 0.55
1986. The structure and process of understanding: Implications for managerial action. 1986. 理解の構造とプロセス: マネージャのアクションに対する意味。 0.61
In The Thinking Organization, H.P. Sims Jr. The Thinking Organization, H.P. Sims Jr. (英語) 0.77
and D.A. Gioia (Eds.). D.A. Gioia (Eds.)。 0.81
Jossey Bass, San Fransisco, 238–262. Jossey Bass, San Fransisco, 238–262。 0.92
[48] William James. ウィリアム・ジェームズ(William James)。 0.72
2007. The principles of psychology. 2007. 心理学の原則。 0.58
Vol. 1. vol.1。 1. 0.41
Cosimo, Inc. Cosimo, Inc. 0.42
[49] P Devereaux Jennings and Royston Greenwood. 49]p・デベロー・ジェニングスと ロイストン・グリーンウッド 0.60
2003. Constructing the iron cage: Institutional theory and enactment. 2003. 鉄製のケージを造る:制度理論と制定。 0.59
Debating organization: [50] Jongbin Jung, Connor Concannon, Ravi Shroff, Sharad Goel, and Daniel G Goldstein. 議論する組織: Jongbin Jung氏、Connor Concannon氏、Ravi Shroff氏、Sharad Goel氏、Daniel G Goldstein氏。 0.70
2017. Simple rules for complex decisions. 2017. 複雑な決定のための単純なルール。 0.51
Available at SSRN SSRNで利用可能。 0.64
point-counterpoint in organization studies 195 (2003). 組織研究におけるポイントカウンタポイント 195 (2003) 0.81
2919024 (2017). 2919024 (2017). 0.42
http://dx.doi.org/10 .2139/ssrn.2919024 http://dx.doi.org/10 .2139/ssrn.2919024 0.13
[51] Jeremy Kahn. ジェレミー・カーン(Jeremy Kahn)。 0.54
2021. HireVue drops facial monitoring amid A.I. algorithm audit. 2021. HireVueがAIアルゴリズム監査中に顔の監視を停止 0.59
Fortune (2021). [52] Harmanpreet Kaur, Harsha Nori, Samuel Jenkins, Rich Caruana, Hanna Wallach, and Jennifer Wortman Vaughan. 2021年)。 Harmanpreet Kaur氏、Harsha Nori氏、Samuel Jenkins氏、Rich Caruana氏、Hanna Wallach氏、Jennifer Wortman Vaughan氏。 0.54
2020. Interpreting Interpretability: Understanding Data Scientists’ Use of Interpretability Tools for Machine Learning. 2020. 解釈可能性: 機械学習におけるデータサイエンティストの解釈ツールの利用を理解する。 0.57
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
Association for Computing Machinery, New York, NY, USA, 1–14. Association for Computing Machinery, New York, NY, USA, 1–14。 0.92
https://doi.org/10.1 145/3313831.3376219 https://doi.org/10.1 145/3313831.3376219 0.15
17 17 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
[53] Karin D. Knorr-Cetina. 53] カリン・d・クノール=セティナ 0.49
1981. The micro-sociological challenge of macro-sociology : towards a reconstruction of social theory and methodology. 1981. マクロ社会学のミクロ社会学的挑戦 : 社会理論と方法論の再構築に向けて 0.59
In Advances in social theory and methodology: toward an integration of micro- and macro-sociologies, K. Knorr-Cetina and A. V. Cicourel (Eds.). 社会理論と方法論の進歩:ミクロ社会とマクロ社会の統合に向けて、K. Knorr-Cetina と A. V. Cicourel (Eds.)。
訳抜け防止モード: 社会理論と方法論の進歩 : ミクロ社会とマクロ社会の統合に向けて K. Knorr - Cetina and A. V. Cicourel (Eds .)
0.85
Routledge & Kegan Paul, Boston, 1–47. ボストンのRoutledge & Kegan Paul, 1-47。 0.63
[54] Rafal Kocielnik, Saleema Amershi, and Paul N Bennett. 54]Rafal Kocielnik、Saleema Amershi、Paul N Bennett。 0.56
2019. Will you accept an imperfect AI? 2019. あなたは不完全なAIを受け入れますか? 0.51
exploring designs for adjusting end-user expectations of ai systems. aiシステムのエンドユーザの期待を調整するための設計を探求する。 0.58
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.72
1–14. https://doi.org/10.1 145/3290605.3300641 [55] Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Michael Xie, Marvin Zhang, Akshay Balsubramani, Weihua Hu, Michihiro Yasunaga, Richard Lanas Phillips, Irena Gao, Tony Lee, Etienne David, Ian Stavness, Wei Guo, Berton Earnshaw, Imran Haque, Sara M Beery, Jure Leskovec, Anshul Kundaje, Emma Pierson, Sergey Levine, Chelsea Finn, and Percy Liang. 1–14. https://doi.org/10.1 145/3290605.3300641 [55] Pang Wei Koh, Shiori Sgawa, Henrik Marklund, Sang Michael Xie, Marvin Zhang, Akshay Balsubramani, Weihua Hu, Michihiro Yasunaga, Richard Lanas Phillips, Irena Gao, Tony Lee, Etienne David, Ian Stavness, Wei Guo, Berton Earnshaw, Imran Haque, Sara M Beery, Jure Leskovec, Anshul Kundaje, Emma Pierson, Sergey Levine, Chelsea Finn, Percy Liang。
訳抜け防止モード: 1–14. https://doi.org/10.1 145/3290605.3300641 [ 55 ] pang wei koh, shiori sagawa, henrik marklund, sang michael xie, marvin zhang, akshay balsubramani, weihua hu,michihiro yasunaga リチャード・ラナス・フィリップス、イレナ・ガオ、トニー・リー、エティエンヌ・デイヴィッド イアン・スタブネス、ウェイ・グオ、バートン・アーンショー、イムラン・ハーク、 sara m beery, jure leskovec, anshul kundaje, emma pierson, sergey levine氏、chelsea finn氏、percy liang氏。
0.50
2021. WILDS: A Benchmark of in-the-Wild Distribution Shifts. 2021. wilds: イン・ザ・ワイルドのディストリビューションシフトのベンチマーク。 0.46
In Proceedings of the 38th International Conference on Machine Learning, Marina Meila and Tong Zhang (Eds.), Vol. 第38回機械学習国際会議の議事録では、marina meilaとtong zhang(eds.)が取り上げられている。 0.65
139. PMLR, 5637–5664. 139. pmlr、5637-5664。 0.45
https://proceedings. mlr.press/v139/koh21 a.html https://proceedings. mlr.press/v139/koh21 a.html 0.12
[56] Ravi S Kudesia. [56]Ravi S Kudesia。 0.35
2017. Organizational sensemaking. 2017. 組織的なセンスメイキング。 0.42
In Oxford research encyclopedia of psychology. オックスフォード大学の心理学百科事典。 0.72
[57] Todd Kulesza, Simone Stumpf, Margaret Burnett, Sherry Yang, Irwin Kwan, and Weng-Keen Wong. Todd Kulesza, Simone Stumpf, Margaret Burnett, Sherry Yang, Irwin Kwan, and Weng-Keen Wong。 0.35
2013. Too much, too little, or just right? 2013. 多すぎる、小さすぎる、あるいは正しかったか? 0.57
Ways explanations impact end users’ mental models. 方法の説明はエンドユーザーのメンタルモデルに影響を与える。 0.57
In 2013 IEEE Symposium on visual languages and human centric computing. 2013年、IEEE Symposium on visual language and human centric computing に参加。 0.79
IEEE, 3–10. IEEE 3-10。 0.43
https://doi.org/10.1 109/VLHCC.2013.66452 35 https://doi.org/10.1 109/VLHCC.2013.66452 35 0.13
[58] Himabindu Lakkaraju, Stephen H Bach, and L Jure. [58]ヒマビンドゥ・ラクカラジュ、ステファン・h・バッハ、ル・ジュール。 0.46
2016. Interpretable Decision Sets: A Joint Framework for Description and Prediction. 2016. 解釈可能な決定セット: 説明と予測のための統合フレームワーク。 0.61
In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 第22回ACM SIGKDD国際知識発見・データマイニング会議に参加して 0.66
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
https://doi.org/10.1 145/2939672.2939874 https://doi.org/10.1 145/2939672.2939874 0.15
[59] Ellen J Langer. エレン・J・ランガー(Ellen J Langer)。 0.56
1989. Minding matters: The consequences of mindlessness–mindfulness. 1989. 思考:マインドレス-マインドフルネスの結果。 0.48
In Advances in experimental social psychology. 実験的な社会心理学の進歩です 0.78
Vol. 22. vol.1。 22. 0.41
Elsevier, 137–173. [60] David B Leake. 137-173頁。 デヴィッド・B・リーク(David B Leake)。 0.53
1991. Goal-based explanation evaluation. 1991. 目標に基づく説明評価。 0.56
Cognitive Science 15, 4 (1991), 509–545. 認知科学15, 4 (1991), 509-545。 0.66
[61] Kenneth Leiter. ケネス・ライター(Kenneth Leiter)。 0.49
1980. A primer on ethnomethodology. 1980. エスノメソドロジーのプライマー。 0.32
Oxford University Press, USA. オックスフォード大学出版局、アメリカ。 0.77
[62] John M Levine, Lauren B Resnick, and E Tory Higgins. 62] ジョン・m・レヴィン、ローレン・b・レズニック、e・トーリー・ヒギンズ 0.55
1993. Social foundations of cognition. 1993. 社会的認知の基礎。 0.58
Annual review of psychology 44, 1 (1993), 585–612. 心理学の年次レビュー 44, 1 (1993), 585–612。 0.83
[63] Q. Vera Liao, Daniel Gruen, and Sarah Miller. Q. Vera Liao氏、Daniel Gruen氏、Sarah Miller氏。 0.31
2020. Questioning the AI: Informing Design Practices for Explainable AI User Experiences. 2020. AIに関する質問: 説明可能なAIユーザエクスペリエンスのためのデザインプラクティスの実践。 0.56
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
Association for Computing Machinery, New York, NY, USA, 1–15. Association for Computing Machinery, New York, NY, USA, 1-15。 0.85
https://doi.org/10.1 145/3313831.3376590 https://doi.org/10.1 145/3313831.3376590 0.15
[64] Peter Lipton. ピーター・リプトン(Peter Lipton)。 0.64
1990. Contrastive explanation. 1990. 対照的な説明。 0.53
Royal Institute of Philosophy Supplements 27 (1990), 247–266. 王立哲学研究所(1990年)、247-266頁。 0.64
[65] Zachary C. Lipton. [65] ザカリー・c・リプトン 0.62
2018. The mythos of model interpretability. 2018. モデル解釈可能性の神話。 0.60
Commun. ACM 61 (9 2018), 36–43. 共産。 ACM61 (2018年9月) 36-43。 0.50
Issue 10. https://doi.org/10.1 145/3233231 [66] Stine Lomborg and Patrick Heiberg Kapsch. 10号。 Stine Lomborg氏とPatrick Heiberg Kapsch氏。 0.40
2020. Decoding algorithms. 2020. アルゴリズムの解読。 0.56
Media, Culture & Society 42, 5 (2020), 745–761. メディア・カルチャー・アンド・ソサエティ42,5 (2020), 745-761。 0.67
https://doi.org/10.1 177/ https://doi.org/10.1 177/ 0.18
0163443719855301 0163443719855301 0.42
[67] Tania Lombrozo. [67]Tania Lombrozo。 0.38
2006. The Structure and Function of Explanations. 2006. 説明の構造と機能。 0.54
Trends in cognitive sciences 10, 10 (2006), 464–470. 認知科学10年10月10日(2006年)、464-470年。 0.48
https://doi.org/10.1 016/j. https://doi.org/10.1 016/j。 0.19
tics.2006.08.004 tics.2006.08.004 0.15
[68] Tania Lombrozo. 68]Tania Lombrozo。 0.63
2012. Explanation and abductive inference. 2012. 説明と推論。 0.45
The Oxford Handbook of Thinking and Reasoning (2012), 260–276. Oxford Handbook of Thinking and Reasoning』(2012年)、260-276頁。 0.77
[69] Scott M Lundberg and Su-In Lee. [69]スコット・m・ランバーグとスーイン・リー。 0.52
2017. A Unified Approach to Interpreting Model Predictions. 2017. モデル予測を統一的に解釈するアプローチ。 0.62
In Advances in Neural Information Processing Systems 30, I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett (Eds.). In Advances in Neural Information Processing Systems 30, I. Guyon, U.V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, R. Garnett (Eds.)。
訳抜け防止モード: ニューラル情報処理システム30の進歩, I. ガイオン U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus S. Vishwanathan と R. Garnett (Eds .)。
0.87
Curran Associates, Inc., 4765–4774. Curran Associates, Inc., 4765-4774。 0.41
http://papers.nips.c c/paper/7062-a-unifi ed-approach-to-inter preting-model-predic tions.pdf http://papers.nips.c c/paper/7062-a-unifi ed-approach-to-inter preting-model-predic tions.pdf 0.08
[70] Michael A. Madaio, Luke Stark, Jennifer Wortman Vaughan, and Hanna Wallach. 70]マイケル・a・マダイオ、ルーク・スターク、ジェニファー・ウォルトマン・ヴォーン、ハンナ・ワラッハ 0.64
2020. Co-Designing Checklists to Understand Organizational Challenges and Opportunities around Fairness in AI. 2020. AIの公正性に関する組織的課題と機会を理解するためのチェックリストの共同設計。 0.50
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
Association for Computing Machinery, New York, NY, USA, 1–14. Association for Computing Machinery, New York, NY, USA, 1–14。 0.92
https://doi.org/10.1 145/3313831.3376445 https://doi.org/10.1 145/3313831.3376445 0.15
[71] Sasu Mäkinen, Henrik Skogström, Eero Laaksonen, and Tommi Mikkonen. [71]Sasu Mäkinen、Henrik Skogström、Eero Laaksonen、Tommi Mikkonen。 0.34
2021. Who Needs MLOps: What Data Scientists Seek to Accomplish 2021. MLOpsが必要な人 - データサイエンティストが受け入れたいもの 0.51
and How Can MLOps Help? MLOpsはどのように役立つのか? 0.65
arXiv preprint arXiv:2103.08942 (2021). arxiv プレプリント arxiv:2103.08942 (2021)。 0.39
[72] Bertram F Malle. 72] バートラム・f・マレ 0.53
2006. How the mind explains behavior: Folk explanations, meaning, and social interaction. 2006. 心がどのように行動を説明するか:民族的説明、意味、社会的相互作用。 0.49
Mit Press. [73] George Mandler. mitプレス。 ジョージ・マンドラー(George Mandler)。 0.63
1984. Mind and body: Psychology of emotion and stress. 1984. 心と体:感情とストレスの心理学。 0.59
WW Norton & Company Incorporated. WWノートン・アンド・カンパニーが設立。 0.51
[74] George Herbert Mead. ジョージ・ハーバート・ミード(George Herbert Mead)。 0.60
1934. Mind, self and society. 1934. 心、自己、社会。 0.36
Vol. 111. vol.1。 111. 0.41
Chicago University of Chicago Press. シカゴ大学シカゴ校教授。 0.61
[75] David Alvarez Melis, Harmanpreet Kaur, Hal Daumé III, Hanna Wallach, and Jennifer Wortman Vaughan. ダビッド・アルヴァレス・メリス、ハーマンプレット・カウール、ハル・ダウメ3世、ハンナ・ワラッハ、ジェニファー・ウォルトマン・ヴォーン。
訳抜け防止モード: He 75 ] David Alvarez Melis, Harmanpreet Kaur, Hal Daumé III ハンナ・ワラッハとジェニファー・ウォルトマン・ヴォーン(Jennifer Wortman Vaughan)。
0.79
2021. From Human Explanation to Model Interpretability: A Framework Based on Weight of Evidence. 2021. 人間の説明からモデル解釈可能性へ:証拠の重みに基づく枠組み。 0.57
In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing, Vol. aaai conference on human computation and crowdsourcing(aaaiの計算とクラウドソーシングに関する会議)の議事録(その2) 0.39
9. 35–47. 9. 35–47. 0.39
[76] Matthew B Miles and A Michael Huberman. マシュー・B・マイルズ(Matthew B Miles)とマイケル・フーバーマン(Michael Huberman)。 0.50
1994. Qualitative data analysis: An expanded sourcebook. 1994. 定性データ分析: 拡張されたソースブック。 0.57
sage. [77] Tim Miller. セージ ティム・ミラー(Tim Miller)。 0.40
2019. Explanation in Artificial Intelligence: Insights from the Social Sciences. 2019. 人工知能の解説:社会科学からの洞察。 0.52
Artificial Intelligence 267 (2019), 1–38. 人工知能267 (2019), 1-38。 0.69
//doi.org/10.1016/j. artint.2018.07.007 //doi.org/10.1016/j. artint.2018.07.007 0.06
https: [78] Tim Miller. https: ティム・ミラー(Tim Miller) 0.49
2021. Contrastive explanation: A structural-model approach. 2021. 対照的な説明: 構造モデルアプローチ。 0.62
The Knowledge Engineering Review 36 (2021). the knowledge engineering review 36 (2021)を参照。 0.79
https://doi.org/10.1 017/ https://doi.org/10.1 017/ 0.18
S0269888921000102 S0269888921000102 0.39
[79] Tim Miller, Piers Howe, and Liz Sonenberg. Tim Miller氏、Piers Howe氏、Liz Sonenberg氏。 0.27
2017. Explainable AI: Beware of inmates running the asylum or: How I learnt to stop worrying and 2017. 説明可能なai: 亡命中の受刑者に注意すること、または、いかに私が心配することをやめるかを学ぶか、
訳抜け防止モード: 2017. 説明可能なAI : 亡命中の受刑者に注目して または、心配をやめることを学び、
0.45
love the social and behavioural sciences. 社会科学と行動科学が大好きです 0.76
In IJCAI 2017 Workshop on Explainable Artificial Intelligence (XAI). IJCAI 2017 Workshop on Explainable Artificial Intelligence (XAI) に参加。 0.86
[80] Chantal Mouffe. 80] シャンタル・ムーフ 0.39
2013. Agonistics: Thinking the world politically. 2013. Agonistics: 世界を政治的に考えること。 0.60
Verso Books. [81] Richard E Nisbett and Timothy D Wilson. ヴェルソ本。 リチャード・E・ニスベットとティモシー・ド・ウィルソン。 0.49
1977. Telling more than we can know: Verbal reports on mental processes. 1977. 知るべき以上のことを語る: 精神過程に関する口頭報告。 0.56
Psychological review 84, 3 心理学レビュー84, 3 0.84
(1977), 231–259. (1977), 231–259. 0.49
https://doi.org/10.1 037/0033-295X.84.3.2 31 https://doi.org/10.1 037/0033-295X.84.3.2 31 0.10
18 18 0.43
英語(論文から抽出)日本語訳スコア
Re-imagining Interpretability and Explainability using Sensemaking Theory 感覚形成理論を用いた再認識と説明可能性 0.54
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[82] Donald A Norman. ドナルド・A・ノーマン(Donald A Norman)。 0.53
2014. Some observations on mental models. 2014. 精神モデルに関するいくつかの観察。 0.51
In Mental models. Psychology Press, 15–22. 精神モデル。 心理学部、15-22頁。 0.51
[83] Samir Passi and Steven J Jackson. 83]サミール・パシとスティーブン・J・ジャクソン。 0.59
2018. Trust in data science: Collaboration, translation, and accountability in corporate data science projects. 2018. データサイエンスへの信頼: 企業データサイエンスプロジェクトにおけるコラボレーション、翻訳、説明責任。 0.58
Proceedings of the ACM on Human-Computer Interaction 2, CSCW (2018), 1–28. ACM on Human-Computer Interaction 2, CSCW (2018), 1-28。 0.37
https://doi.org/10.1 145/3274405 https://doi.org/10.1 145/3274405 0.17
[84] Charles Sanders Peirce. チャールズ・サンダース・パース(Charles Sanders Peirce)。 0.57
1878. Illustrations of the Logic of Science: IV The Probability of Induction. 1878. 科学の論理の例: iv 誘導の確率。 0.49
Popular Science Monthly 12 (Apr 1878), 705–718. Popular Science Monthly 12 (Apr 1878), 705-718。 0.41
[85] Peter Pirolli and Stuart Card. ピーター・ピローリと スチュアート・カード 0.47
2005. The sensemaking process and leverage points for analyst technology as identified through cognitive task 2005. 認知タスクで特定した分析技術における感覚形成過程と活用点 0.63
analysis. In Proceedings of international conference on intelligence analysis, Vol. 分析。 国際情報分析会議 (international conference on intelligence analysis, vol.) の略。 0.49
5. McLean, VA, USA, 2–4. 5. マクリーン, アメリカ, VA, 2-4。 0.53
[86] Joseph C Pitt. ジョゼフ・C・ピット(Joseph C Pitt) 0.57
1988. Theories of explanation. 1988. 説明論。 0.33
Oxford University Press. オックスフォード大学出版局。 0.75
[87] Louis R Pondy and Ian I Mitroff. [87]Louis R PondyとIan I Mitroff。 0.38
1979. Beyond open system models of organization. 1979. 組織のオープンなシステムモデルを超えて。 0.56
Research in organizational behavior 1, 1 (1979), 3–39. 組織行動1, 1 (1979), 3–39。 0.60
[88] Forough Poursabzi-Sangdeh, Daniel G Goldstein, Jake M Hofman, Jennifer Wortman Wortman Vaughan, and Hanna Wallach. Forough Poursabzi-Sangdeh, Daniel G Goldstein, Jake M Hofman, Jennifer Wortman Wortman Vaughan, Hanna Wallach。
訳抜け防止モード: 88 ] forough poursabzi - sangdeh, daniel g goldstein, ジェイク・m・ホフマン、ジェニファー・ウォルトマン・ウォルトマン・ヴォーン、ハンナ・ワラッハ。
0.57
2021. Manipulating and Measuring Model Interpretability. 2021. モデル解釈可能性の操作と測定。 0.49
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (Yokohama, Japan) (CHI ’21). 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.34
Association for Computing Machinery, New York, NY, USA, Article 237, 52 pages. association for computing machinery, new york, ny, usa, article 237, 52 pages (英語) 0.40
https://doi.org/10.1 145/3411764.3445315 https://doi.org/10.1 145/3411764.3445315 0.15
[89] J R Quinlan. 89] j r クインラン 0.42
1986. Induction of Decision Trees. 1986. 決定木の誘導。 0.52
Mach. Learn. (1986). マッハ 学ぶ。 (1986). 0.45
https://doi.org/10.1 023/A:1022643204877 [90] James Reason. https://doi.org/10.1 023/A:1022643204877 [90] James Reason 0.27
1990. Human Error. 1990. ヒューマンエラー。 0.53
Cambridge university press. ケンブリッジ大学の記者。 0.67
[91] Lauren B Resnick, John M Levine, and Stephanie D Teasley. ローレン・B・レスニック、ジョン・M・レヴィン、ステファニー・D・ティーズリー。 0.51
1991. Perspectives on socially shared cognition (1st ed. ed.). 1991. 社会的共有認知 (1st ed. ed.) の視点 0.60
Number Washington, DC :. ワシントンd.c.:。 0.77
American Psychological Association. アメリカ心理学会会員。 0.70
[92] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. [92]マルコ・トゥリオ・リベイロ、サマー・シン、カルロス・ゲストリン 0.50
2016. " Why should I trust you?" 2016. 「なぜ君を信用すべきなのか」 0.53
Explaining the predictions of any classifier. 分類器の予測を説明する。 0.75
In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 第22回知識発見・データマイニング国際会議(acm sigkdd international conference on knowledge discovery and data mining)に出席。 0.58
1135–1144. 1135–1144. 0.35
https://doi.org/10.1 145/2939672.2939778 https://doi.org/10.1 145/2939672.2939778 0.15
[93] Hans Peter Rickman. ハンス・ピーター・リックマン(Hans Peter Rickman)。 0.57
1979. Dilthey selected writings. 1979. ディルシェは文章を選んだ。 0.38
(1979). [94] Peter S Ring and Andrew H Van de Ven. (1979). ピーター・s・リングと アンドリュー・h・ヴァン・デ・ヴェン 0.51
1989. Formal and informal dimensions of transactions. 1989. 取引の形式的および非公式な次元。 0.51
Research on the management of innovation: The イノベーションのマネジメントに関する研究: 0.65
[95] Karlene H Roberts. 95] カーリーン・h・ロバーツ 0.47
1990. Some characteristics of one type of high reliability organization. 1990. 1つのタイプの信頼性の高い組織の特徴。 0.57
Organization Science 1, 2 (1990), 160–176. 組織科学1、2(1990年)、160-176。 0.72
https: Minnesota studies 171 (1989), 192. https: ミネソタ州で171人(1989年)、192人。 0.47
//doi.org/10.1287/or sc.1.2.160 /doi.org/10.1287/ors c.1.2.160 0.06
[96] Daniel M. Russell, Mark J. Stefik, Peter Pirolli, and Stuart K. Card. [96]ダニエル・m・ラッセル、マーク・j・ステフィク、ピーター・ピローリ、スチュアート・k・カード。 0.55
1993. The Cost Structure of Sensemaking. 1993. センスメイキングのコスト構造です 0.46
In Proceedings of the INTERACT ’93 and CHI ’93 Conference on Human Factors in Computing Systems (Amsterdam, The Netherlands) (CHI ’93). interaction ’93 and chi ’93 conference on human factors in computing systems (amsterdam, the netherlands) (chi ’93) で発表された。 0.66
Association for Computing Machinery, New York, NY, USA, 269–276. アソシエーション・フォー・コンピューティング・マシーンズ (association for computing machinery, new york, ny, usa, 269-276)。 0.47
https://doi.org/10.1 145/169059.169209 https://doi.org/10.1 145/169059.169209 0.15
[97] Alfred Schutz. アルフレッド・シューツ(Alfred Schutz)。 0.49
1972. The phenomenology of the social world. 1972. 社会界の現象学。 0.48
Northwestern University Press. ノースウェスタン大学出版局。 0.58
[98] Alfred Schutz and Fred Kersten. アルフレッド・シューツとフレッド・ケルステン。 0.33
1976. Fragments on the Phenomenology of Music. 1976. Fragments on the Phenomenology of Music (英語) 0.60
(1976). [99] Ramprasaath R Selvaraju, Abhishek Das, Ramakrishna Vedantam, Michael Cogswell, Devi Parikh, and Dhruv Batra. (1976). [99]Ramprasaath R Selvaraju, Abhishek Das, Ramakrishna Vedantam, Michael Cogswell, Devi Parikh, Dhruv Batra。 0.40
2017. Grad-cam: Why did you 2017. Grad-cam: なぜあなたは? 0.56
say that? visual explanations from deep networks via gradient-based localization. そう言うの? 勾配に基づく局所化による深層ネットワークからの視覚説明 0.72
In ICCV. [100] Phoebe Sengers, Kirsten Boehner, Shay David, and Joseph ’Jofish’ Kaye. ICCV所属。 Phoebe Sengers氏、Kirsten Boehner氏、Shay David氏、Joseph ’Jofish’ Kaye氏。 0.52
2005. Reflective Design. 2005. 反射デザイン。 0.57
In Proceedings of the 4th Decennial Conference on Critical Computing: Between Sense and Sensibility (Aarhus, Denmark) (CC ’05). 第4回decennial conference on critical computing: between sense and sensibility (aarhus, denmark) (cc ’05) で発表された。 0.71
Association for Computing Machinery, New York, NY, USA, 49–58. Association for Computing Machinery, New York, NY, USA, 49-58。 0.88
https://doi.org/10.1 145/1094562.1094569 https://doi.org/10.1 145/1094562.1094569 0.15
[101] John Shotter. ジョン・ショッター(John Shotter)。 0.62
1983. Duality of “structure” and “intentionality” in an ecological psychology. 1983. 生態心理学における「構造」と「意図」の二重性 0.60
Journal for the Theory of Social Behaviour 13, 1 (1983), journal for the theory of social behavior 13, 1, 1 (1983) 0.42
19–44. [102] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. 19–44. 102]カレン・シモンヤン、アンドレア・ヴェダルディ、アンドリュー・ジッセルマン 0.48
2013. Deep inside convolutional networks: Visualising image classification models and 2013. 深部畳み込みネットワーク:画像分類モデルと画像の可視化 0.64
saliency maps. arXiv preprint arXiv:1312. 敬礼地図。 arXiv preprint arXiv:1312。 0.48
6034 (2013). 6034 (2013). 0.42
[103] Ben R Slugoski, Mansur Lalljee, Roger Lamb, and Gerald P Ginsburg. 103]Ben R Slugoski, Mansur Lalljee, Roger Lamb, Gerald P Ginsburg。 0.35
1993. Attribution in conversational context: Effect of mutual knowledge on 1993. 会話的文脈における帰属:相互知識の影響 0.65
explanation-giving. European Journal of Social Psychology 23, 3 (1993), 219–238. 説明。 ヨーロッパ社会心理学誌23巻(1993年)、219-238頁。 0.69
[104] James F Smith and Thomas Kida. 104] ジェームズ・f・スミスと トーマス・キダ 0.65
1991. Heuristics and biases: Expertise and task realism in auditing. 1991. ヒューリスティックスとバイアス: 監査におけるエキスパートとタスクリアリズム。 0.58
Psychological bulletin 109, 3 (1991), 472. 第109巻第3巻(1991年)、472頁。 0.44
[105] Mark Snyder and Phyllis White. 105]マーク・スナイダーとフィリス・ホワイト 0.56
1982. Moods and memories: Elation, depression, and the remembering of the events of one’s life. 1982. 気分と記憶:誘惑、抑うつ、人生の出来事の記憶。 0.43
Journal of personality 50, 2 (1982), 149–167. 日誌 パーソナリティ50, 2 (1982), 149–167。 0.60
https://doi.org/10.1 111/j.1467-6494.1982 .tb01020.x https://doi.org/10.1 111/j.1467-6494.1982 .tb01020.x 0.09
[106] William H Starbuck and Frances J Milliken. 106]ウィリアム・h・スターバックとフランセス・j・ミリケン 0.57
1988. Executives’ perceptual filters: What they notice and how they make sense. 1988. 幹部の知覚的フィルター:何を認識し、どのように意味を持つか。 0.52
(1988). [107] Barry M Staw. (1988). 107] Barry M Staw 0.35
1975. Attribution of the “causes” of performance: A general alternative interpretation of cross-sectional research on organizations. 1975. パフォーマンスの“原因”の貢献: 組織における横断的な研究の一般的な解釈。 0.60
Organizational behavior and human performance 13, 3 (1975), 414–432. 組織行動と人的パフォーマンス 13, 3 (1975), 414–432。 0.80
https://doi.org/10.1 016/0030-5073(75)900 60-4 https://doi.org/10.1 016/0030-5073(75)900 60-4 0.21
[108] Simone Stumpf, Vidya Rajaram, Lida Li, Weng-Keen Wong, Margaret Burnett, Thomas Dietterich, Erin Sullivan, and Jonathan Herlocker. 108] Simone Stumpf, Vidya Rajaram, Lida Li, Weng-Keen Wong, Margaret Burnett, Thomas Dietterich, Erin Sullivan, そしてJonathan Herlocker。
訳抜け防止モード: [108 ]Simone Stumpf, Vidya Rajaram, Lida Li, Weng - Keen Wong, Margaret Burnett, Thomas Dietterich, Erin Sullivan ジョナサン・ハーロッカーも。
0.76
2009. Interacting meaningfully with machine learning systems: Three experiments. 2009. 機械学習システムと意味のある相互作用: 3つの実験。 0.57
International journal of human-computer studies 67, 8 (2009), 639–662. international journal of human-computer studies 67, 8 (2009), 639–662。 0.46
https://doi.org/10.1 016/j.ijhcs.2009.03. 004 https://doi.org/10.1 016/j.ijhcs.2009.03. 004 0.11
[109] William R Swartout. 109] ウィリアム・r・スワートアウト 0.65
1983. XPLAIN: A system for creating and explaining expert consulting programs. 1983. XPLAIN:エキスパートコンサルティングプログラムの作成と説明のためのシステム。 0.61
Artificial intelligence 21, 3 (1983), 285–325. 人工知能 21, 3 (1983), 285–325。 0.75
https://doi.org/10.1 016/S0004-3702(83)80 014-9 https://doi.org/10.1 016/S0004-3702(83)80 014-9 0.20
[110] Shelley E Taylor. シェリー・E・テイラー(Shelley E Taylor) 0.53
1991. Asymmetrical effects of positive and negative events: the mobilization-minimiz ation hypothesis. 1991. 正および負の事象の非対称効果:動員最小化仮説。 0.58
Psychological bulletin 110, 1 (1991), 67–85. 心理学雑誌110号 1 (1991), 67–85. 0.59
[111] Bas van Fraassen. 111] Bas van Fraassen. 0.35
1988. The Pragmatic Theory of Explanation. 1988. 解説の実践的理論。 0.51
In Theories of Explanation, Joseph C Pitt (Ed.). 解説理論では、ジョセフ・c・ピット(joseph c pitt)。 0.66
Oxford University Press. オックスフォード大学出版局。 0.75
[112] Francisco J Varela, Evan Thompson, and Eleanor Rosch. フランシスコ・j・ヴァレラ、エヴァン・トンプソン、エレノア・ロッシュ 0.38
2016. The embodied mind: Cognitive science and human experience. 2016. 体現された心:認知科学と人間の経験。 0.59
MIT press. [113] Michael Veale, Max Van Kleek, and Reuben Binns. MITの記者。 Michael Veale氏、Max Van Kleek氏、Reuben Binns氏。 0.68
2018. Fairness and Accountability Design Needs for Algorithmic Support in High-Stakes Public Sector Decision-Making. 2018. 公共部門意思決定におけるアルゴリズム支援のための公平性と説明責任設計の必要性 0.53
In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (Montreal QC, Canada) (CHI ’18). 2018 chi conference on human factors in computing systems (montreal qc, canada, chi ’18) で発表された。 0.66
Association for Computing Machinery, New York, NY, USA, 1–14. Association for Computing Machinery, New York, NY, USA, 1–14。 0.92
https://doi.org/10.1 145/3173574.3174014 https://doi.org/10.1 145/3173574.3174014 0.15
19 19 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Kaur et al Kaur et al 0.43
[114] Timothy J Vogus and Kathleen M Sutcliffe. 114] ティモシー・j・ヴォグスと キャスリーン・m・サトクリフ 0.51
2012. Organizational mindfulness and mindful organizing: A reconciliation and path forward. 2012. 組織的なマインドフルネスとマインドフルな組織化:和解と前進。 0.51
Academy of Management Learning & Education 11, 4 (2012), 722–735. アカデミー 経営学習・教育11・4(2012年)、722・735頁。 0.72
https://doi.org/10.5 465/amle.2011.0002c https://doi.org/10.5 465/amle.2011.0002c 0.12
[115] Sandra Wachter, Brent Mittelstadt, and Chris Russell. Sandra Wachter氏、Brent Mittelstadt氏、Chris Russell氏。 0.58
2017. Counterfactual explanations without opening the black box: Automated decisions and 2017. ブラックボックスを開かずに説明する:意思決定の自動化 0.59
the GDPR. Harv. JL & Tech. GDPR。 ハーヴ jl&tech所属。 0.57
31 (2017), 841. 31 (2017), 841. 0.37
[116] Danding Wang, Qian Yang, Ashraf Abdul, and Brian Y. Lim. [116]ダンディング・ワン、チャン・ヤン、アシュラフ・アブドゥル、ブライアン・Y・リム。 0.51
2019. Designing Theory-Driven User-Centric Explainable AI. 2019. 理論駆動型ユーザ中心型説明可能なAIの設計。 0.43
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Glasgow, Scotland Uk) (CHI ’19). 2019 chi conference on human factors in computing systems (glasgow, scotland uk) (chi ’19) で発表された。 0.69
Association for Computing Machinery, New York, NY, USA, 1–15. Association for Computing Machinery, New York, NY, USA, 1-15。 0.85
https://doi.org/10.1 145/3290605.3300831 https://doi.org/10.1 145/3290605.3300831 0.15
[117] K.E. Weick, K.M. Sutcliffe, and D. Obstfeld. 117] k.e. weick, k.m. sutcliffe, d. obstfeld. 0.37
1999. Organizing for high reliability: Processes of Collective Mindfulness. 1999. 信頼性の高い組織: 集合的マインドフルネスのプロセス。 0.82
Research in Organizational Behaviour 21 (1999), 81–123. 組織研究 1999年)、81-123頁。 0.37
[118] Karl E Weick. カール・E・ワイク(Karl E Weick)。 0.47
1995. Sensemaking in organizations. 1995. 組織における意味。 0.48
Vol. 3. vol.1。 3. 0.41
Sage. [119] Karl E Weick and Kathleen M Sutcliffe. セージ。 カール・e・ワイクと キャスリーン・m・サトクリフ 0.43
2015. Managing the unexpected: Sustained performance in a complex world. 2015. 予期せぬ状況を管理する: 複雑な世界での持続的なパフォーマンス。 0.50
John Wiley & Sons. ジョン・ワイリー&サンズ。 0.62
[120] Karl E Weick, Kathleen M Sutcliffe, and David Obstfeld. [120] Karl E Weick、Kathleen M Sutcliffe、David Obstfeld。 0.34
2005. Organizing and the process of sensemaking. 2005. 組織化とセンスメイキングのプロセス。 0.58
Organization science 16, 4 (2005), 組織科学16、4(2005年) 0.71
409–421. https://doi.org/10.1 287/orsc.1050.0133 409–421. https://doi.org/10.1 287/orsc.1050.0133 0.24
[121] Daniel S Weld and Gagan Bansal. 121]Daniel S WeldとGagan Bansal。 0.31
2019. The challenge of crafting intelligible intelligence. 2019. 知的な知性を創造する挑戦。 0.50
Commun. ACM 62, 6 (2019), 70–79. 共産。 acm 62, 6 (2019), 70-79。 0.58
https://doi.org/10. https://doi.org/10。 0.26
1145/3282486 1145/3282486 0.29
[122] Mark Wenman. 122]マーク・ウェンマン。 0.80
2013. Agonistic democracy: Constituent power in the era of globalisation. 2013. アゴニスト民主主義(Agonistic democracy) - グローバリゼーション時代の憲法。 0.53
Cambridge University Press. ケンブリッジ大学出版局。 0.68
[123] Terry Winograd, Fernando Flores, and Fernando F Flores. 123]テリー・ウィノグラード、フェルナンド・フローレス、フェルナンド・フ・フローレス 0.44
1986. Understanding computers and cognition: A new foundation for design. 1986. コンピュータと認知を理解する: デザインの新しい基盤。 0.60
Intellect Books. [124] Jiaming Zeng, Berk Ustun, and Cynthia Rudin. 知性 本だ 124]慈明禅、ベルク・ウストゥン、シンシア・ルディン。 0.45
2017. Interpretable classification models for recidivism prediction. 2017. レシディビズム予測のための解釈可能な分類モデル 0.56
Journal of the Royal Statistical Journal of the Royal Statistical (英語) 0.66
Society: Series A (Statistics in Society) 180, 3 (2017), 689–722. 社会: シリーズa(社会統計) 180, 3 (2017), 689–722。 0.71
https://doi.org/10.1 111/rssa.12227 https://doi.org/10.1 111/rssa.12227 0.15
[125] Wencan Zhang and Brian Y Lim. 125]Wencan ZhangとBrian Y Lim。 0.68
2022. Towards Relatable Explainable AI with the Perceptual Process. 2022. 知覚プロセスによる関連性のある説明可能なAIの実現。 0.46
In CHI Conference on Human Factors in Computing Systems. CHI Conference on Human Factors in Computing Systems に参加して 0.88
Association for Computing Machinery, New York, NY, USA, Article 181, 24 pages. association for computing machinery, new york, ny, usa, article 181, 24 pages (英語) 0.40
https://doi.org/10.1 145/3491102.3501826 [126] Jichen Zhu, Antonios Liapis, Sebastian Risi, Rafael Bidarra, and G Michael Youngblood. Jichen Zhu氏、Antonos Liapis氏、Sebastian Risi氏、Rafael Bidarra氏、G Michael Youngblood氏。 0.55
2018. Explainable AI for designers: A human-centered perspective on mixed-initiative co-creation. 2018. デザイナーのための説明可能なAI: 混合開始的共同創造に関する人間中心の視点。 0.49
In 2018 IEEE Conference on Computational Intelligence and Games (CIG). 2018年、IEEE Conference on Computational Intelligence and Games (CIG) に参加。 0.84
IEEE, 1–8. https://doi.org/10. IEEE 1-8。 https://doi.org/10。 0.34
1109/CIG.2018.849043 3 1109/CIG.2018.849043 3 0.15
20 20 0.42
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。