論文の概要: Eliciting Model Steering Interactions from Users via Data and Visual
Design Probes
- arxiv url: http://arxiv.org/abs/2310.09314v1
- Date: Thu, 12 Oct 2023 20:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 02:41:41.356115
- Title: Eliciting Model Steering Interactions from Users via Data and Visual
Design Probes
- Title(参考訳): データとビジュアルデザインプローブによるユーザからのモデルステアリングインタラクションの抽出
- Authors: Anamaria Crisan, Maddie Shang, Eric Brochu
- Abstract要約: ドメインの専門家は、機械学習(ML)モデルを作業に組み込むために、自動化データサイエンスツールをますます活用しています。
これらの専門家にとって、セマンティックなインタラクションは、技術的な詳細を掘り下げることなく、MLモデルをガイドし、洗練するためのアクセス可能な道を提供することができる。
本研究では,MLの専門知識を持つ専門家が意味的相互作用を用いて,単純な分類モデルを更新する方法について検討する。
- 参考スコア(独自算出の注目度): 8.45602005745865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain experts increasingly use automated data science tools to incorporate
machine learning (ML) models in their work but struggle to "debug" these models
when they are incorrect. For these experts, semantic interactions can provide
an accessible avenue to guide and refine ML models without having to
programmatically dive into its technical details. In this research, we conduct
an elicitation study using data and visual design probes to examine if and how
experts with a spectrum of ML expertise use semantic interactions to update a
simple classification model. We use our design probes to facilitate an
interactive dialogue with 20 participants and codify their interactions as a
set of target-interaction pairs. Interestingly, our findings revealed that many
targets of semantic interactions do not directly map to ML model parameters,
but instead aim to augment the data a model uses for training. We also identify
reasons that participants would hesitate to interact with ML models, including
burdens of cognitive load and concerns of injecting bias. Unexpectedly
participants also saw the value of using semantic interactions to work
collaboratively with members of their team. Participants with less ML expertise
found this to be a useful mechanism for communicating their concerns to ML
experts. This was an especially important observation, as our study also shows
the different needs that correspond to diverse ML expertise. Collectively, we
demonstrate that design probes are effective tools for proactively gathering
the affordances that should be offered in an interactive machine learning
system.
- Abstract(参考訳): ドメインの専門家は、機械学習(ml)モデルを仕事に組み込むために、自動化されたデータサイエンスツールを使うことがますます増えています。
これらの専門家にとって、セマンティックインタラクションは、技術的詳細をプログラム的に掘り下げることなく、MLモデルをガイドし、洗練するためのアクセス可能な道を提供することができる。
本研究では、データとビジュアルデザインプローブを用いて、機械学習の専門知識を持つ専門家が意味的相互作用を用いて、単純な分類モデルを更新するかどうかを調査する。
我々は,20人の参加者との対話を促進するためにデザインプローブを使用し,そのインタラクションをターゲット-インタラクションペアのセットとしてコーデレートする。
興味深いことに、セマンティックインタラクションのターゲットの多くはMLモデルパラメータに直接マッピングするのではなく、モデルがトレーニングに使用するデータの拡張を目指している。
また、認知負荷の負担やバイアス注入の懸念など、参加者がMLモデルとの相互作用をためらう理由も明らかにした。
予想外の参加者は、チームのメンバと協力して働くためにセマンティックなインタラクションを使うことの価値も見ていた。
MLの専門知識が乏しい参加者は、自身の懸念をMLの専門家に伝える上で有用なメカニズムであると判断した。
これは特に重要な観察であり、我々の研究は多様なML専門知識に対応する異なるニーズも示している。
総合的に,対話型機械学習システムにおいて提供すべき余裕を積極的に収集するための設計プローブが有効であることを示す。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities [72.68829963458408]
異種モデルのパラメータ空間のギャップを埋めることを学ぶMergeNetを提案する。
MergeNetの中核となるメカニズムはパラメータアダプタにあり、ソースモデルの低ランクパラメータをクエリすることで動作する。
MergeNetは両方のモデルと共に学習され、我々のフレームワークは、現在のステージに関する知識を動的に転送し、適応することができます。
論文 参考訳(メタデータ) (2024-04-20T08:34:39Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Leveraging Explanations in Interactive Machine Learning: An Overview [10.284830265068793]
説明はAIと機械学習(ML)コミュニティへの関心が高まっている。
本稿では,対話的能力と説明が組み合わさった研究の概要について述べる。
論文 参考訳(メタデータ) (2022-07-29T07:46:11Z) - Interpretability, Then What? Editing Machine Learning Models to Reflect
Human Knowledge and Values [27.333641578187887]
データサイエンティストとドメインエキスパートがGAM(Generalized Additive Models)を編集するのを支援する最初の対話型システムであるGAM Changerを開発した。
新たなインタラクション技術により,我々のツールは,ユーザに対して,モデル行動と知識と価値を分析,検証,整合させるためのアクションに解釈可能性を持たせる。
論文 参考訳(メタデータ) (2022-06-30T17:57:12Z) - Interactive Model Cards: A Human-Centered Approach to Model
Documentation [20.880991026743498]
自然言語処理のためのディープラーニングモデルは、NLPや機械学習の正式なトレーニングなしに、アナリストによって採用され、デプロイされている。
モデルの詳細と適切な使用を伝達するためのドキュメンテーションは、主にMLやNLPの専門知識を持つ個人向けに調整されている。
我々は、インタラクティブなモデルカードの設計調査を行い、モデルドキュメンテーションを探索し、モデル自体と対話する余地を、従来の静的なモデルカードに拡張した。
論文 参考訳(メタデータ) (2022-05-05T19:19:28Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。