論文の概要: Adoption of Explainable Natural Language Processing: Perspectives from Industry and Academia on Practices and Challenges
- arxiv url: http://arxiv.org/abs/2508.09786v1
- Date: Wed, 13 Aug 2025 13:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.896442
- Title: Adoption of Explainable Natural Language Processing: Perspectives from Industry and Academia on Practices and Challenges
- Title(参考訳): 説明可能な自然言語処理の実践と課題
- Authors: Mahdi Dhaini, Tobias Müller, Roksoliana Rabets, Gjergji Kasneci,
- Abstract要約: 説明可能な自然言語処理の分野は近年急速に成長している。
説明可能なNLPに注目が集まる一方で、実践者の実践的採用と有効性に対する視点はいまだに過小評価されている。
本稿では,説明可能性に関する実践者の経験を調査することで,この研究ギャップに対処する。
- 参考スコア(独自算出の注目度): 10.80227854343625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of explainable natural language processing (NLP) has grown rapidly in recent years. The growing opacity of complex models calls for transparency and explanations of their decisions, which is crucial to understand their reasoning and facilitate deployment, especially in high-stakes environments. Despite increasing attention given to explainable NLP, practitioners' perspectives regarding its practical adoption and effectiveness remain underexplored. This paper addresses this research gap by investigating practitioners' experiences with explainability methods, specifically focusing on their motivations for adopting such methods, the techniques employed, satisfaction levels, and the practical challenges encountered in real-world NLP applications. Through a qualitative interview-based study with industry practitioners and complementary interviews with academic researchers, we systematically analyze and compare their perspectives. Our findings reveal conceptual gaps, low satisfaction with current explainability methods, and highlight evaluation challenges. Our findings emphasize the need for clear definitions and user-centric frameworks for better adoption of explainable NLP in practice.
- Abstract(参考訳): 説明可能な自然言語処理(NLP)の分野は近年急速に成長している。
複雑なモデルの不透明度が高まるにつれて、その決定の透明性と説明が求められます。
説明可能なNLPに注目が集まる一方で、実践者の実践的採用と有効性に対する視点はいまだに過小評価されている。
本研究は,実践者の実践経験を説明可能性手法を用いて調査し,そのような手法を採用する動機,採用技術,満足度,現実のNLPアプリケーションで直面する実践的課題に着目した。
業界実践者との質的なインタビューベースの研究や,学術研究者との補完的なインタビューを通じて,これらの視点を体系的に分析し比較する。
以上の結果から,概念的ギャップ,現在の説明可能性手法への満足度低下,評価課題の明確化が示唆された。
本研究は,説明可能なNLPを実践的に活用する上で,明確な定義とユーザ中心のフレームワークの必要性を強調した。
関連論文リスト
- Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique [66.94905631175209]
我々は、段階的に自然言語の自己批判(PANEL)を行う新しい推論時間スケーリング手法を提案する。
ステップレベルの探索プロセスのガイドとして、自己生成の自然言語批判をフィードバックとして採用している。
このアプローチは、タスク固有の検証と関連するトレーニングオーバーヘッドの必要性を回避します。
論文 参考訳(メタデータ) (2025-03-21T17:59:55Z) - Explainability in Practice: A Survey of Explainable NLP Across Various Domains [2.494550479408289]
レビューでは、実用的デプロイメントと実世界のアプリケーションに焦点を当てた説明可能なNLP(XNLP)について検討している。
本稿は,XNLPの理解を深め,より広範に応用できる今後の研究方向を提案することで締めくくっている。
論文 参考訳(メタデータ) (2025-02-02T16:18:44Z) - Explainability in AI Based Applications: A Framework for Comparing Different Techniques [2.5874041837241304]
ビジネスアプリケーションでは、理解可能性と精度のバランスをとる適切な説明可能性方法を選択することが課題である。
本稿では,異なる説明可能性手法の一致を評価するための新しい手法を提案する。
多様な説明可能性手法の合意を理解するための実践的な枠組みを提供することにより、ビジネスアプリケーションにおける解釈可能なAIシステムのより広範な統合を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-28T09:45:34Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。