論文の概要: Explanation-Driven Interventions for Artificial Intelligence Model Customization: Empowering End-Users to Tailor Black-Box AI in Rhinocytology
- arxiv url: http://arxiv.org/abs/2504.04833v1
- Date: Mon, 07 Apr 2025 08:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:10:02.112679
- Title: Explanation-Driven Interventions for Artificial Intelligence Model Customization: Empowering End-Users to Tailor Black-Box AI in Rhinocytology
- Title(参考訳): 人工知能モデルカスタマイズのための説明駆動的介入:リノサイトロジーにおけるエンドユーザーによるブラックボックスAIの活用
- Authors: Andrea Esposito, Miriana Calvano, Antonio Curci, Francesco Greco, Rosa Lanzilotti, Antonio Piccinno,
- Abstract要約: 本稿では,Rhino-Cytプラットフォームにおけるユーザインターフェースの再設計を通じて,ブラックボックスAIモデルに対する新たなエンドユーザー開発(EUD)アプローチを提案する。
提案したインターフェースは、説明を編集し、モデルを再構成することで、AI意思決定プロセスに介入することを可能にする。
この研究は人中心型AI(HCAI)とEUDに寄与し、説明駆動型の介入が説明可能性、ユーザ介入、モデル再構成の混合を可能にする方法について論じる。
- 参考スコア(独自算出の注目度): 3.4705962607086973
- License:
- Abstract: The integration of Artificial Intelligence (AI) in modern society is heavily shifting the way that individuals carry out their tasks and activities. Employing AI-based systems raises challenges that designers and developers must address to ensure that humans remain in control of the interaction process, particularly in high-risk domains. This article presents a novel End-User Development (EUD) approach for black-box AI models through a redesigned user interface in the Rhino-Cyt platform, a medical AI-based decision-support system for medical professionals (more precisely, rhinocytologists) to carry out cell classification. The proposed interface empowers users to intervene in AI decision-making process by editing explanations and reconfiguring the model, influencing its future predictions. This work contributes to Human-Centered AI (HCAI) and EUD by discussing how explanation-driven interventions allow a blend of explainability, user intervention, and model reconfiguration, fostering a symbiosis between humans and user-tailored AI systems.
- Abstract(参考訳): 現代社会における人工知能(AI)の統合は、個人がタスクや活動を行う方法を大きく変えつつある。
AIベースのシステムを採用することで、特にリスクの高いドメインにおいて、人間がインタラクションプロセスを制御し続けることを保証するために、デザイナや開発者が対処しなければならない課題が提起される。
本稿では,医療用AIベースの意思決定支援システムであるRhino-Cytプラットフォームにおいて,ブラックボックスAIモデルのエンドユーザー開発(EUD)アプローチを設計し,細胞分類を行う。
提案したインターフェースは、説明を編集し、モデルを再構成することで、AI意思決定プロセスに介入し、将来の予測に影響を与える。
この研究は、人間中心型AI(HCAI)とEUDに寄与し、説明駆動型の介入が説明可能性、ユーザ介入、モデル再構成の混合を可能にし、人間とユーザーカスタマイズ型AIシステムの共生を促進する方法について論じる。
関連論文リスト
- Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - Characterizing and modeling harms from interactions with design patterns in AI interfaces [0.19116784879310028]
適応型AIシステムを用いたインタフェースの設計は、フィードバックループによって引き起こされるカスケード効果をもたらす可能性があると我々は主張する。
本稿では,AIインタフェース設計のインパクトアセスメントを構造化し,促進するAIシステムの設計強化制御(DECAI)を提案する。
論文 参考訳(メタデータ) (2024-04-17T13:30:45Z) - Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review [6.013543974938446]
意思決定支援システムにおける人工知能の活用は、技術的進歩に不相応に焦点を合わせてきた。
人間中心の視点は、既存のプロセスとのシームレスな統合のためにAIソリューションを設計することで、この懸念を緩和しようとする。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z) - A general-purpose AI assistant embedded in an open-source radiology
information system [0.0]
我々は,このプラットフォームの新規なHuman-AIパートナーシップ機能について述べる。
我々は、RIS内でアクティブな学習戦略を開発し、人間の放射線学者がAIアノテーションを有効/無効にし、AIアノテーションを「修正」/「延長」することができるようにした。
これにより、放射線技師のユーザと、ユーザ固有のAIモデルとのパートナーシップを確立することができる。
論文 参考訳(メタデータ) (2023-03-18T05:27:43Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。