論文の概要: Explanation Strategies as an Empirical-Analytical Lens for
Socio-Technical Contextualization of Machine Learning Interpretability
- arxiv url: http://arxiv.org/abs/2109.11849v1
- Date: Fri, 24 Sep 2021 09:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 22:42:23.676553
- Title: Explanation Strategies as an Empirical-Analytical Lens for
Socio-Technical Contextualization of Machine Learning Interpretability
- Title(参考訳): 経験的分析レンズとしての説明戦略 : 機械学習解釈の社会技術的文脈化
- Authors: Jesse Josua Benjamin, Christoph Kinkeldey, Claudia M\"uller-Birn, Tim
Korjakow, Eva-Maria Herbst
- Abstract要約: 研究プロジェクトでは,非ML専門家を対象とした機械学習による可視化システムを開発した。
我々は,非ML専門家による共同設計ワークショップの分析に,説明戦略の実証・概念的利用を報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: During a research project in which we developed a machine learning (ML)
driven visualization system for non-ML experts, we reflected on
interpretability research in ML, computer-supported collaborative work and
human-computer interaction. We found that while there are manifold technical
approaches, these often focus on ML experts and are evaluated in
decontextualized empirical studies. We hypothesized that participatory design
research may support the understanding of stakeholders' situated sense-making
in our project, yet, found guidance regarding ML interpretability inexhaustive.
Building on philosophy of technology, we formulated explanation strategies as
an empirical-analytical lens explicating how technical explanations mediate the
contextual preferences concerning people's interpretations. In this paper, we
contribute a report of our proof-of-concept use of explanation strategies to
analyze a co-design workshop with non-ML experts, methodological implications
for participatory design research, design implications for explanations for
non-ML experts and suggest further investigation of technological mediation
theories in the ML interpretability space.
- Abstract(参考訳): 我々は、機械学習(ML)による非機械学習の専門家のための可視化システムを開発した研究プロジェクトにおいて、MLにおける解釈可能性の研究、コンピュータによる協調作業、人間とコンピュータの相互作用について考察した。
多様体的技術的アプローチは存在するが、これらはしばしばmlの専門家に焦点が当てられ、非文脈的実証研究で評価されている。
我々は,参加型設計研究が,プロジェクトにおける利害関係者の認識理解を支援するかもしれないと仮定した。
技術哲学を基盤として,技術的な説明が人々の解釈に関する文脈的嗜好をどう扱うかを説明する経験的分析レンズとして説明戦略を定式化した。
本稿では,非ML専門家による共同設計ワークショップの分析,参加型設計研究への方法論的含意,非ML専門家による説明のための設計的含意,およびML解釈可能性分野における技術メディエーション理論のさらなる研究を提案する。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Exploring the Efficacy of Large Language Models (GPT-4) in Binary Reverse Engineering [4.526103806673449]
この研究は、基本的なコード解釈に関する第1段階と、より複雑なマルウェア分析に関する第2段階の2段階を含む。
この研究は、リバースエンジニアリングにおけるLLMの可能性と現在の限界を強調し、将来の応用と改善のための重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-06-09T09:23:58Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Interpretable and Explainable Machine Learning Methods for Predictive
Process Monitoring: A Systematic Literature Review [1.3812010983144802]
本稿では,機械学習モデル(ML)の予測プロセスマイニングの文脈における説明可能性と解釈可能性について,系統的に検討する。
我々は、様々なアプリケーション領域にまたがる現在の方法論とその応用の概要を概観する。
我々の研究は、プロセス分析のためのより信頼性が高く透明で効果的なインテリジェントシステムの開発と実装方法について、研究者や実践者がより深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-29T12:43:43Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Position Paper: Bridging the Gap Between Machine Learning and Sensitivity Analysis [9.191045750996526]
我々は、機械学習モデル(ML)の解釈を感度分析(SA)の一形態と見なすことができると論じている。
我々は、MLにおける説明の統一的なSAベースビューの利点と、関連する作業の完全信用の必要性に注意を払っている。
論文 参考訳(メタデータ) (2023-12-20T17:59:11Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A Survey on In-context Learning [77.78614055956365]
In-context Learning (ICL) は自然言語処理(NLP)の新しいパラダイムとして登場した。
まず、ICLの形式的定義を示し、関連する研究との相関を明らかにする。
次に、トレーニング戦略、迅速なデザイン戦略、関連する分析を含む高度なテクニックを組織化し、議論する。
論文 参考訳(メタデータ) (2022-12-31T15:57:09Z) - Deep Insights of Learning based Micro Expression Recognition: A
Perspective on Promises, Challenges and Research Needs [7.218497970427467]
マイクロ表現認識(MER)の高性能化のために,Deep Learning(DL)に基づく技術が採用されている。
本稿では, ネットワークモデル設計, 実験戦略, 課題, 研究ニーズの約束を視点として, DLベースのMERフレームワークに関する深い洞察を提供することを目的とする。
論文 参考訳(メタデータ) (2022-10-10T18:08:24Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。