論文の概要: The Ability of Image-Language Explainable Models to Resemble Domain
Expertise
- arxiv url: http://arxiv.org/abs/2209.09310v1
- Date: Mon, 19 Sep 2022 19:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:55:32.011415
- Title: The Ability of Image-Language Explainable Models to Resemble Domain
Expertise
- Title(参考訳): 画像言語説明可能なモデルによるドメインエキスパートの再編成能力
- Authors: Petrus Werner, Anna Zapaishchykova, Ujjwal Ratan
- Abstract要約: ブラックボックス深層学習モデルの課題を克服するために,ローカルサロゲート説明可能性手法を用いて検討した。
このような説明は、この分野におけるデータサイエンティストや機械学習エンジニアのためのモデルトレーニングの指導に有用なフィードバックとなることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in vision and language (V+L) models have a promising impact
in the healthcare field. However, such models struggle to explain how and why a
particular decision was made. In addition, model transparency and involvement
of domain expertise are critical success factors for machine learning models to
make an entrance into the field. In this work, we study the use of the local
surrogate explainability technique to overcome the problem of black-box deep
learning models. We explore the feasibility of resembling domain expertise
using the local surrogates in combination with an underlying V+L to generate
multi-modal visual and language explanations. We demonstrate that such
explanations can serve as helpful feedback in guiding model training for data
scientists and machine learning engineers in the field.
- Abstract(参考訳): 近年の視覚・言語モデル(V+L)の進歩は医療分野で有望な影響を与えている。
しかし、そのようなモデルは、なぜ特定の決定がなされたのかを説明するのに苦労している。
さらに、モデルの透明性とドメインの専門知識の関与は、機械学習モデルがこの分野に参入するための重要な成功要因である。
本研究では,ブラックボックス深層学習モデルの課題を克服するために,局所的サロゲート説明可能性手法の適用について検討する。
我々は,ローカルサーロゲートと基盤となるv+lを組み合わせて,マルチモーダルな視覚と言語説明を生成することで,ドメインの専門知識に類似する可能性を検討する。
このような説明が、この分野のデータサイエンティストや機械学習エンジニアのモデルトレーニングを導く上で有用なフィードバックとなることを実証する。
関連論文リスト
- VALE: A Multimodal Visual and Language Explanation Framework for Image Classifiers using eXplainable AI and Language Models [0.0]
VALE Visual and Language Explanation という新しいフレームワークを提案する。
VALEは説明可能なAI技術と高度な言語モデルを統合し、包括的な説明を提供する。
本稿では,画像分類タスクのためのVALEフレームワークの試験的検討を行う。
論文 参考訳(メタデータ) (2024-08-23T03:02:11Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - Deep Learning for Robust and Explainable Models in Computer Vision [0.0]
この論文は、MLとDLを実際に使用する際の堅牢性と説明可能性の問題に対処する様々なアプローチを提示している。
この論文は、コンピュータビジョンモデルの堅牢性と説明可能性の発展を示す。
理論的発展に加えて、この論文は異なる文脈におけるMLとDLのいくつかの応用を実証している。
論文 参考訳(メタデータ) (2024-03-27T15:17:10Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。