論文の概要: Does Explainable Machine Learning Uncover the Black Box in Vision
Applications?
- arxiv url: http://arxiv.org/abs/2112.09898v1
- Date: Sat, 18 Dec 2021 10:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 09:22:59.723448
- Title: Does Explainable Machine Learning Uncover the Black Box in Vision
Applications?
- Title(参考訳): 説明可能な機械学習は視覚アプリケーションでブラックボックスを発見するか?
- Authors: Manish Narwaria
- Abstract要約: 説明可能なMLの背景にある現在の哲学は、一定の限界に悩まされていると我々は主張する。
また、より厳格な原則に頼ることで、MLにおける説明力がどのように役立つかという視点も提供します。
- 参考スコア(独自算出の注目度): 1.0660480034605242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) in general and deep learning (DL) in particular has
become an extremely popular tool in several vision applications (like object
detection, super resolution, segmentation, object tracking etc.). Almost in
parallel, the issue of explainability in ML (i.e. the ability to
explain/elaborate the way a trained ML model arrived at its decision) in vision
has also received fairly significant attention from various quarters. However,
we argue that the current philosophy behind explainable ML suffers from certain
limitations, and the resulting explanations may not meaningfully uncover black
box ML models. To elaborate our assertion, we first raise a few fundamental
questions which have not been adequately discussed in the corresponding
literature. We also provide perspectives on how explainablity in ML can benefit
by relying on more rigorous principles in the related areas.
- Abstract(参考訳): 一般的な機械学習(ML)、特にディープラーニング(DL)は、いくつかの視覚アプリケーション(オブジェクト検出、スーパー解像度、セグメンテーション、オブジェクトトラッキングなど)で非常に人気のあるツールになっている。
ほぼ平行して、MLにおける説明可能性(すなわち、訓練されたMLモデルがその決定に到達した方法を説明・検討する能力)の問題は、様々なクォーターからかなりの注目を集めている。
しかし、説明可能なMLの背景にある現在の哲学は一定の限界に悩まされており、結果として生じる説明は意味のあるブラックボックスMLモデルを明らかにしないかもしれない。
まず,本論文で十分な議論がなされていないいくつかの基本的疑問を提起する。
また、関連する領域でより厳格な原則に頼ることで、MLにおける説明力がどのように役立つかという視点も提供します。
関連論文リスト
- A Survey on Benchmarks of Multimodal Large Language Models [65.87641718350639]
本稿では,Multimodal Large Language Models (MLLM) のベンチマークと評価について概説する。
本研究では,(1)知覚と理解,(2)認知と推論,(3)特定のドメイン,(4)キー能力,(5)他のモダリティに着目した。
我々のキーとなる主張は、MLLMの開発をより良いものにするための重要な規律として評価されるべきである、ということである。
論文 参考訳(メタデータ) (2024-08-16T09:52:02Z) - Rethinking Visual Prompting for Multimodal Large Language Models with External Knowledge [76.45868419402265]
マルチモーダルな大言語モデル(MLLM)は、膨大な高品質の画像テキストデータセットをトレーニングすることで、大きな進歩を遂げている。
しかし、マスクのような細粒度や空間的に密集した情報をテキストで明示的に伝達することの難しさは、MLLMにとって困難である。
本稿では、特殊な視覚モデルから派生した細粒度の外部知識をMLLMに統合する新しい視覚的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T17:43:30Z) - Understanding Information Storage and Transfer in Multi-modal Large Language Models [51.20840103605018]
本研究では,マルチモーダル大規模言語モデルを用いて,現実的な視覚的質問応答タスクにおいて情報処理を行う方法について検討する。
鍵となる発見は、これらのMLLMが情報記憶のためにずっと古いレイヤの自己注意ブロックに依存していることを示している。
モデル編集アルゴリズムであるMultEditを導入し、誤りを訂正し、MLLMに新しいロングテール情報を挿入する。
論文 参考訳(メタデータ) (2024-06-06T16:35:36Z) - Exploring Perceptual Limitation of Multimodal Large Language Models [57.567868157293994]
我々は、いくつかの最先端MLLMにおける小さな視覚物体の知覚を定量的に研究する。
この制限に寄与できる4つの独立した要因を特定します。
オブジェクトの品質が低く、オブジェクトサイズも小さいため、MLLMの視覚的質問に答える能力は独立して低下する。
論文 参考訳(メタデータ) (2024-02-12T03:04:42Z) - MM-SAP: A Comprehensive Benchmark for Assessing Self-Awareness of Multimodal Large Language Models in Perception [21.60103376506254]
MLLM(Multimodal Large Language Models)は視覚的知覚と理解において例外的な能力を示す。
これらのモデルも幻覚に悩まされ、AIシステムとしての信頼性が制限される。
本稿では,MLLMの認識における自己認識性を定義し,評価することを目的とする。
論文 参考訳(メタデータ) (2024-01-15T08:19:22Z) - A Survey on Multimodal Large Language Models [71.63375558033364]
GPT-4Vで表されるマルチモーダル大言語モデル(MLLM)は、新たな研究ホットスポットとなっている。
本稿では,MLLMの最近の進歩を追跡・要約することを目的とする。
論文 参考訳(メタデータ) (2023-06-23T15:21:52Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - The games we play: critical complexity improves machine learning [0.0]
機械学習のベストプラクティスは、合理主義的で壮大な物語よりも、決定的な複雑性の観点から一致すべきである、と私たちは主張する。
MLコミュニティでプレイされている13の「ゲーム」は、モデルに偽の正当性を与え、人工知能の能力に関する過剰な宣伝と誇大宣伝に寄与し、不平等を悪化させ差別を引き起こすモデルに繋がる。
論文 参考訳(メタデータ) (2022-05-18T13:37:22Z) - Pitfalls of Explainable ML: An Industry Perspective [29.49574255183219]
説明は機械学習(ML)システムの望ましい属性の中核に位置する。
説明可能なMLの目標は、さまざまな利害関係者のニーズを守りながら、直感的にMLシステムの予測を説明することである。
論文 参考訳(メタデータ) (2021-06-14T21:05:05Z) - Survey of explainable machine learning with visual and granular methods
beyond quasi-explanations [0.0]
我々は、MLで支配的な準説明から、粒度の視覚によって支えられるドメイン固有の説明に移行することに注力する。
この論文は、ジョンソン-リンデンシュトラウス補題に基づくn-D距離の低次元保存に関する理論的限界に関する結果を含む。
論文 参考訳(メタデータ) (2020-09-21T23:39:06Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。