論文の概要: The State of Post-Hoc Local XAI Techniques for Image Processing: Challenges and Motivations
- arxiv url: http://arxiv.org/abs/2501.06253v1
- Date: Thu, 09 Jan 2025 01:45:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:25.909591
- Title: The State of Post-Hoc Local XAI Techniques for Image Processing: Challenges and Motivations
- Title(参考訳): 画像処理におけるローカルXAI技術の現状:課題とモチベーション
- Authors: Rech Leong Tian Poh, Sye Loong Keoh, Liying Li,
- Abstract要約: 生産性の向上を追求するためには、このようなAIシステムの全体的な信頼性を高める技術の必要性を忘れてはならない。
この研究で広く研究されている1つの例は、説明可能な人工知能(XAI)の領域である。
この領域における研究は、AIシステムをより透明で解釈可能なものにする目的を中心に進められている。
- 参考スコア(独自算出の注目度): 4.293668897739725
- License:
- Abstract: As complex AI systems further prove to be an integral part of our lives, a persistent and critical problem is the underlying black-box nature of such products and systems. In pursuit of productivity enhancements, one must not forget the need for various technology to boost the overall trustworthiness of such AI systems. One example, which is studied extensively in this work, is the domain of Explainable Artificial Intelligence (XAI). Research works in this scope are centred around the objective of making AI systems more transparent and interpretable, to further boost reliability and trust in using them. In this work, we discuss the various motivation for XAI and its approaches, the underlying challenges that XAI faces, and some open problems that we believe deserve further efforts to look into. We also provide a brief discussion of various XAI approaches for image processing, and finally discuss some future directions, to hopefully express and motivate the positive development of the XAI research space.
- Abstract(参考訳): 複雑なAIシステムが私たちの生活の不可欠な部分であることをさらに証明するため、永続的で重要な問題は、そのような製品やシステムの根底にあるブラックボックスの性質である。
生産性の向上を追求するためには、このようなAIシステムの全体的な信頼性を高めるための様々な技術の必要性を忘れてはならない。
この研究で広く研究されている1つの例は、説明可能な人工知能(XAI)の領域である。
この領域における研究は、AIシステムをより透明で解釈可能なものにすることで、信頼性を高め、それらを使用することに対する信頼を高めることを目的としている。
本稿では,XAIとそのアプローチのさまざまなモチベーション,XAIが直面する課題,さらに検討すべき課題について論じる。
また、画像処理のための様々なXAIアプローチの簡単な議論を行い、最終的にいくつかの今後の方向性について議論し、XAI研究空間のポジティブな発展を表現し、動機づけることを望んだ。
関連論文リスト
- Trustworthy XAI and Application [0.0]
本稿では、XAI、信頼性の高いXAI、信頼性の高いXAIの実用的利用について論じる。
我々は、この状況に関係があると判断した3つの主要なコンポーネント、透明性、説明可能性、信頼性を乗り越えます。
結局のところ、人間とAIシステム間の信頼の確立と維持には信頼性が不可欠である。
論文 参考訳(メタデータ) (2024-10-22T16:10:10Z) - Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions [37.640819269544934]
説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿では,XAIの進歩と実世界のシナリオへの応用について述べる。
9つのカテゴリに分類される27のオープンな問題のマニフェストを提示する。
論文 参考訳(メタデータ) (2023-10-30T17:44:55Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。