論文の概要: Explanation Strategies as an Empirical-Analytical Lens for
Socio-Technical Contextualization of Machine Learning Interpretability
- arxiv url: http://arxiv.org/abs/2109.11849v1
- Date: Fri, 24 Sep 2021 09:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 22:42:23.676553
- Title: Explanation Strategies as an Empirical-Analytical Lens for
Socio-Technical Contextualization of Machine Learning Interpretability
- Title(参考訳): 経験的分析レンズとしての説明戦略 : 機械学習解釈の社会技術的文脈化
- Authors: Jesse Josua Benjamin, Christoph Kinkeldey, Claudia M\"uller-Birn, Tim
Korjakow, Eva-Maria Herbst
- Abstract要約: 研究プロジェクトでは,非ML専門家を対象とした機械学習による可視化システムを開発した。
我々は,非ML専門家による共同設計ワークショップの分析に,説明戦略の実証・概念的利用を報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: During a research project in which we developed a machine learning (ML)
driven visualization system for non-ML experts, we reflected on
interpretability research in ML, computer-supported collaborative work and
human-computer interaction. We found that while there are manifold technical
approaches, these often focus on ML experts and are evaluated in
decontextualized empirical studies. We hypothesized that participatory design
research may support the understanding of stakeholders' situated sense-making
in our project, yet, found guidance regarding ML interpretability inexhaustive.
Building on philosophy of technology, we formulated explanation strategies as
an empirical-analytical lens explicating how technical explanations mediate the
contextual preferences concerning people's interpretations. In this paper, we
contribute a report of our proof-of-concept use of explanation strategies to
analyze a co-design workshop with non-ML experts, methodological implications
for participatory design research, design implications for explanations for
non-ML experts and suggest further investigation of technological mediation
theories in the ML interpretability space.
- Abstract(参考訳): 我々は、機械学習(ML)による非機械学習の専門家のための可視化システムを開発した研究プロジェクトにおいて、MLにおける解釈可能性の研究、コンピュータによる協調作業、人間とコンピュータの相互作用について考察した。
多様体的技術的アプローチは存在するが、これらはしばしばmlの専門家に焦点が当てられ、非文脈的実証研究で評価されている。
我々は,参加型設計研究が,プロジェクトにおける利害関係者の認識理解を支援するかもしれないと仮定した。
技術哲学を基盤として,技術的な説明が人々の解釈に関する文脈的嗜好をどう扱うかを説明する経験的分析レンズとして説明戦略を定式化した。
本稿では,非ML専門家による共同設計ワークショップの分析,参加型設計研究への方法論的含意,非ML専門家による説明のための設計的含意,およびML解釈可能性分野における技術メディエーション理論のさらなる研究を提案する。
関連論文リスト
- A Data Generation Perspective to the Mechanism of In-Context Learning [42.74744001778945]
In-Context Learning (ICL)は、大規模言語モデル(LLM)にコンテキストで学習する能力を与える。
経験的成功を奨励するにもかかわらず、ICLの基盤となるメカニズムは未だ不明である。
論文 参考訳(メタデータ) (2024-02-03T17:13:03Z) - Interpretable and Explainable Machine Learning Methods for Predictive
Process Monitoring: A Systematic Literature Review [1.3812010983144802]
本稿では,機械学習モデル(ML)の予測プロセスマイニングの文脈における説明可能性と解釈可能性について,系統的に検討する。
我々は、様々なアプリケーション領域にまたがる現在の方法論とその応用の概要を概観する。
我々の研究は、プロセス分析のためのより信頼性が高く透明で効果的なインテリジェントシステムの開発と実装方法について、研究者や実践者がより深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-29T12:43:43Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Position Paper: Bridging the Gap Between Machine Learning and
Sensitivity Analysis [9.738977492233628]
我々は、機械学習モデル(ML)の解釈を感度分析(SA)の一形態と見なすことができると論じている。
我々は、研究者と実践者の両方に対処し、MLにおけるSAベースの説明の統一的見解の利点に注意を向ける。
論文 参考訳(メタデータ) (2023-12-20T17:59:11Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - A Survey on In-context Learning [56.40261564926631]
In-context Learning (ICL)は自然言語処理のための新しいパラダイムである
まず、ICLの形式的定義を示し、関連する研究との相関を明らかにする。
そこで我々は,訓練戦略,実証設計戦略,関連する分析など,高度な手法を整理し,議論する。
論文 参考訳(メタデータ) (2022-12-31T15:57:09Z) - Deep Insights of Learning based Micro Expression Recognition: A
Perspective on Promises, Challenges and Research Needs [7.218497970427467]
マイクロ表現認識(MER)の高性能化のために,Deep Learning(DL)に基づく技術が採用されている。
本稿では, ネットワークモデル設計, 実験戦略, 課題, 研究ニーズの約束を視点として, DLベースのMERフレームワークに関する深い洞察を提供することを目的とする。
論文 参考訳(メタデータ) (2022-10-10T18:08:24Z) - Interactive Model Cards: A Human-Centered Approach to Model
Documentation [20.880991026743498]
自然言語処理のためのディープラーニングモデルは、NLPや機械学習の正式なトレーニングなしに、アナリストによって採用され、デプロイされている。
モデルの詳細と適切な使用を伝達するためのドキュメンテーションは、主にMLやNLPの専門知識を持つ個人向けに調整されている。
我々は、インタラクティブなモデルカードの設計調査を行い、モデルドキュメンテーションを探索し、モデル自体と対話する余地を、従来の静的なモデルカードに拡張した。
論文 参考訳(メタデータ) (2022-05-05T19:19:28Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。