論文の概要: Visualization for Trust in Machine Learning Revisited: The State of the Field in 2023
- arxiv url: http://arxiv.org/abs/2403.12005v2
- Date: Thu, 18 Apr 2024 15:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 20:20:09.208377
- Title: Visualization for Trust in Machine Learning Revisited: The State of the Field in 2023
- Title(参考訳): 機械学習における信頼の可視化:2023年のフィールドの現状
- Authors: Angelos Chatzimparmpas, Kostiantyn Kucher, Andreas Kerren,
- Abstract要約: 可視化手法を解説したピアレビュー論文を収集し、以前に確立された分類スキーマに基づいて分類し、オンラインサーベイブラウザで542のテクニックを収集した。
この結果から,過去3年間の機械学習モデルの信頼性向上に向けて,可視化技術の急速な発展傾向が示唆された。
- 参考スコア(独自算出の注目度): 4.6289929100615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visualization for explainable and trustworthy machine learning remains one of the most important and heavily researched fields within information visualization and visual analytics with various application domains, such as medicine, finance, and bioinformatics. After our 2020 state-of-the-art report comprising 200 techniques, we have persistently collected peer-reviewed articles describing visualization techniques, categorized them based on the previously established categorization schema consisting of 119 categories, and provided the resulting collection of 542 techniques in an online survey browser. In this survey article, we present the updated findings of new analyses of this dataset as of fall 2023 and discuss trends, insights, and eight open challenges for using visualizations in machine learning. Our results corroborate the rapidly growing trend of visualization techniques for increasing trust in machine learning models in the past three years, with visualization found to help improve popular model explainability methods and check new deep learning architectures, for instance.
- Abstract(参考訳): 説明可能な信頼性のある機械学習のための可視化は、医療、金融、バイオインフォマティクスなど、さまざまな応用分野における情報可視化と視覚分析において、最も重要な研究分野の1つである。
2020年、200のテクニックからなる最先端のレポートの後、可視化技術に関する査読された論文を継続的に収集し、119のカテゴリからなる以前に確立された分類スキーマに基づいて分類し、オンラインサーベイブラウザで542のテクニックの収集を行った。
本稿では,2023年秋以降のこのデータセットの新たな分析結果について報告し,機械学習における可視化利用に関するトレンド,洞察,8つのオープン課題について論じる。
我々の結果は、過去3年間に機械学習モデルの信頼性を高めるための可視化技術の急成長傾向を裏付けるもので、可視化は一般的なモデル説明可能性の手法の改善や、新しいディープラーニングアーキテクチャのチェックに役立ちます。
関連論文リスト
- From Pixels to Insights: A Survey on Automatic Chart Understanding in the Era of Large Foundation Models [98.41645229835493]
グラフ形式のデータの可視化は、データ分析において重要な役割を担い、重要な洞察を提供し、情報的な意思決定を支援する。
大規模言語モデルのような大規模な基盤モデルは、様々な自然言語処理タスクに革命をもたらした。
本研究は,自然言語処理,コンピュータビジョン,データ解析の分野における研究者や実践者の包括的資源として機能する。
論文 参考訳(メタデータ) (2024-03-18T17:57:09Z) - Transformers and Language Models in Form Understanding: A Comprehensive
Review of Scanned Document Analysis [16.86139440201837]
我々は、スキャンされた文書の文脈におけるフォーム理解のトピックに焦点を当てる。
我々の研究手法は、人気文書の詳細な分析と過去10年間のトレンドの理解の形式に関するものである。
我々は、トランスフォーマーがいかにフィールドを前進させ、フォームアンダード技術に革命をもたらしたかを紹介する。
論文 参考訳(メタデータ) (2024-03-06T22:22:02Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Overview of Class Activation Maps for Visualization Explainability [0.0]
クラスアクティベーションマップ(CAM)は、ディープラーニングモデルの意思決定プロセスにおける解釈可能性と洞察を高める。
本研究は,クラスアクティベーションマップの時間的進化の包括的概要を示す。
また、CAMの評価に使用されるメトリクスについても検討し、これらの手法の健全性を改善する補助的手法を導入している。
論文 参考訳(メタデータ) (2023-09-25T17:20:51Z) - The State of the Art in Enhancing Trust in Machine Learning Models with the Use of Visualizations [0.0]
機械学習(ML)モデルは、医学、バイオインフォマティクス、その他の科学など、様々な分野の複雑な応用で使われている。
しかし、ブラックボックスの性質のため、それらが提供する結果を理解し、信頼することは難しいこともある。
これにより、MLモデルの信頼性向上に関連する信頼性の高い視覚化ツールの需要が増加した。
本稿では,インタラクティブな可視化によるMLモデルの信頼性向上について,STAR(State-of-the-Art Report)を提案する。
論文 参考訳(メタデータ) (2022-12-22T14:29:43Z) - Computer vision-based analysis of buildings and built environments: A
systematic review of current approaches [0.98314893665023]
本稿では,建物と建築環境のコンピュータビジョンに基づく分析を初めて体系的に検討する。
これは現在の研究のギャップとトレンドを明らかにし、研究目的の2つの主要なカテゴリを強調している。
論文 参考訳(メタデータ) (2022-08-01T14:17:51Z) - Addressing Bias in Visualization Recommenders by Identifying Trends in
Training Data: Improving VizML Through a Statistical Analysis of the Plotly
Community Feed [55.41644538483948]
機械学習は、高いスケーラビリティと表現力のために、視覚化レコメンデーションに対する有望なアプローチである。
本研究は,統計的解析によりトレーニングデータの傾向を特定することで,機械学習可視化推薦システムにおけるトレーニングバイアスに対処することを目的とする。
論文 参考訳(メタデータ) (2022-03-09T18:36:46Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A Visual Analytics Framework for Explaining and Diagnosing Transfer
Learning Processes [42.57604833160855]
本稿では,深層ニューラルネットワークの学習における伝達学習プロセスの多段階探索のための視覚分析フレームワークを提案する。
本フレームワークは,ニューラルネットワークの深層学習において,既存のモデルから学習した知識がどのように新たな学習タスクに変換されるかを説明するために,マルチアスペクト設計を確立する。
論文 参考訳(メタデータ) (2020-09-15T05:59:00Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Deep Learning Based Text Classification: A Comprehensive Review [75.8403533775179]
本稿では,近年開発されたテキスト分類のための150以上のディープラーニングモデルについてレビューする。
また、テキスト分類に広く使われている40以上の一般的なデータセットの要約も提供する。
論文 参考訳(メタデータ) (2020-04-06T02:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。