論文の概要: Do ML Experts Discuss Explainability for AI Systems? A discussion case
in the industry for a domain-specific solution
- arxiv url: http://arxiv.org/abs/2002.12450v1
- Date: Thu, 27 Feb 2020 21:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:07:47.851913
- Title: Do ML Experts Discuss Explainability for AI Systems? A discussion case
in the industry for a domain-specific solution
- Title(参考訳): ML専門家はAIシステムの説明可能性について議論しているか?
ドメイン固有のソリューションの業界における議論事例
- Authors: Juliana Jansen Ferreira and Mateus de Souza Monteiro
- Abstract要約: ドメインスペシャリストは、データとそれが意思決定に与える影響を理解する。
データに対する深い理解がなければ、MLの専門家は、特定のドメインに対して最適な結果を得るためにモデルをチューニングすることはできない。
さまざまなコンテキスト、ユーザ、目標に対するAI説明可能性の研究には、多くの取り組みがあります。
- 参考スコア(独自算出の注目度): 3.190891983147147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of Artificial Intelligence (AI) tools in different domains
are becoming mandatory for all companies wishing to excel in their industries.
One major challenge for a successful application of AI is to combine the
machine learning (ML) expertise with the domain knowledge to have the best
results applying AI tools. Domain specialists have an understanding of the data
and how it can impact their decisions. ML experts have the ability to use
AI-based tools dealing with large amounts of data and generating insights for
domain experts. But without a deep understanding of the data, ML experts are
not able to tune their models to get optimal results for a specific domain.
Therefore, domain experts are key users for ML tools and the explainability of
those AI tools become an essential feature in that context. There are a lot of
efforts to research AI explainability for different contexts, users and goals.
In this position paper, we discuss interesting findings about how ML experts
can express concerns about AI explainability while defining features of an ML
tool to be developed for a specific domain. We analyze data from two brainstorm
sessions done to discuss the functionalities of an ML tool to support
geoscientists (domain experts) on analyzing seismic data (domain-specific data)
with ML resources.
- Abstract(参考訳): さまざまな分野におけるAI(Artificial Intelligence)ツールの応用は、業界で卓越したいと願うすべての企業にとって必須となっている。
AIを成功させる上での大きな課題のひとつは、機械学習(ML)の専門知識とドメイン知識を組み合わせて、AIツールを適用した最高の結果を得ることだ。
ドメインスペシャリストは、データとそれが意思決定に与える影響を理解する。
ML専門家は、大量のデータを扱うAIベースのツールを使用して、ドメインエキスパートの洞察を生成することができる。
しかし、データに対する深い理解がなければ、MLの専門家は特定のドメインに対して最適な結果を得るためにモデルを調整できません。
したがって、ドメインエキスパートはMLツールの主要なユーザであり、これらのAIツールの説明可能性はそのコンテキストにおいて不可欠な機能となる。
さまざまなコンテキスト、ユーザ、目標に対するAI説明可能性の研究には、多くの取り組みがあります。
本稿では、特定のドメイン向けに開発されるmlツールの機能を定義しながら、機械学習の専門家がaiの説明可能性に対する懸念を表現する方法に関する興味深い知見について論じる。
我々は,2つのブレインストーミングセッションのデータを分析し,MLツールの機能について議論し,地震データ(ドメイン固有のデータ)をMLリソースで分析する地学者(ドメインの専門家)を支援する。
関連論文リスト
- Multi-Agent Actor-Critic Generative AI for Query Resolution and Analysis [1.0124625066746598]
本稿では,アクタ批判モデルに基づく問合せ解決のための変換フレームワークであるMASQRADを紹介する。
MASQRADは不正確または曖昧なユーザからの問い合わせを正確で行動可能な要求に翻訳するのに優れている。
MASQRAD は高度なマルチエージェントシステムとして機能するが、単一のAIエンティティとしてユーザに対して "masquerad" を提供する。
論文 参考訳(メタデータ) (2025-02-17T04:03:15Z) - AI Readiness in Healthcare through Storytelling XAI [0.5120567378386615]
我々は,マルチタスク蒸留と解釈可能性技術を組み合わせて,聴衆中心の説明可能性を実現する手法を開発した。
我々の手法は、責任あるAIを実現するために、ドメインエキスパートと機械学習エキスパートの両方の信頼を高める。
論文 参考訳(メタデータ) (2024-10-24T13:30:18Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - Interpretability and accessibility of machine learning in selected food
processing, agriculture and health applications [0.0]
MLベースのシステムの解釈可能性の欠如は、これらの強力なアルゴリズムの普及の大きな障害である。
自動モデル設計によるMLアクセシビリティ向上のために、新たなテクニックが登場している。
本稿では,グローバル問題における機械学習の解釈可能性とアクセシビリティ向上に向けた取り組みについて概説する。
論文 参考訳(メタデータ) (2022-11-30T02:44:13Z) - A Classification of Artificial Intelligence Systems for Mathematics
Education [3.718476964451589]
本章では,数学教育(ME)のデジタルツールとして使用されているAIシステムの概要を紹介する。
それはAIと機械学習(ML)の研究者を対象としており、教育アプリケーションで使われている特定の技術に光を当てています。
論文 参考訳(メタデータ) (2021-07-13T12:09:10Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。