論文の概要: Emblaze: Illuminating Machine Learning Representations through
Interactive Comparison of Embedding Spaces
- arxiv url: http://arxiv.org/abs/2202.02641v1
- Date: Sat, 5 Feb 2022 21:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 11:36:40.137455
- Title: Emblaze: Illuminating Machine Learning Representations through
Interactive Comparison of Embedding Spaces
- Title(参考訳): Emblaze: 埋め込み空間の相互比較による機械学習表現のイルミネーション
- Authors: Venkatesh Sivaraman, Yiwei Wu, Adam Perer
- Abstract要約: Emblazeは、組み込み空間比較を計算ノート環境に統合するシステムである。
アニメーションでインタラクティブな散乱プロットと、新しいスタートレイル拡張を使って視覚的比較を可能にしている。
また、空間間の興味深い変化を伴う点群を動的に提案するために、新しい近傍解析とクラスタリング手順も採用している。
- 参考スコア(独自算出の注目度): 9.849191565291855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern machine learning techniques commonly rely on complex, high-dimensional
embedding representations to capture underlying structure in the data and
improve performance. In order to characterize model flaws and choose a
desirable representation, model builders often need to compare across multiple
embedding spaces, a challenging analytical task supported by few existing
tools. We first interviewed nine embedding experts in a variety of fields to
characterize the diverse challenges they face and techniques they use when
analyzing embedding spaces. Informed by these perspectives, we developed a
novel system called Emblaze that integrates embedding space comparison within a
computational notebook environment. Emblaze uses an animated, interactive
scatter plot with a novel Star Trail augmentation to enable visual comparison.
It also employs novel neighborhood analysis and clustering procedures to
dynamically suggest groups of points with interesting changes between spaces.
Through a series of case studies with ML experts, we demonstrate how
interactive comparison with Emblaze can help gain new insights into embedding
space structure.
- Abstract(参考訳): 現代の機械学習技術は一般的に、データの基盤構造を捉え性能を向上させるために複雑な高次元の埋め込み表現に依存している。
モデル欠陥を特徴付け、望ましい表現を選択するためには、モデルビルダーは複数の埋め込みスペースをまたいで比較する必要がある。
最初に、さまざまな分野の9人の組込み専門家にインタビューを行い、組込み空間の分析に使用するさまざまな課題とテクニックについて話を聞いた。
これらの観点から,計算ノート環境に埋め込み空間比較を統合するEmblazeという新しいシステムを開発した。
Emblazeは、アニメーションでインタラクティブな散乱プロットと、新しいスタートレイル拡張を使って視覚的比較を可能にする。
また、空間間の興味深い変化を伴う点群を動的に提案するために、新しい近傍解析とクラスタリング手順も採用している。
MLの専門家による一連のケーススタディを通じて、Emblazeとのインタラクティブな比較が、埋め込み空間構造に対する新たな洞察を得る上で、いかに役立つかを実証する。
関連論文リスト
- Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - FUSE-ing Language Models: Zero-Shot Adapter Discovery for Prompt Optimization Across Tokenizers [55.2480439325792]
FUSEは、あるモデルのテキスト埋め込み空間から別のモデルへのマッピングを行うアダプタ層を、異なるトークン化器にまたがっても近似するアプローチである。
画像キャプションと感情に基づく画像キャプションのための視覚言語モデルと因果言語モデルに対する多目的最適化によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-08-09T02:16:37Z) - VERA: Generating Visual Explanations of Two-Dimensional Embeddings via Region Annotation [0.0]
Visual Explanations via Region (VERA) は2次元埋め込みの視覚的説明を生成する自動埋め込みアノテーション手法である。
VERAは、埋め込み空間内の異なる領域を特徴付ける情報的説明を生成し、ユーザがその埋め込み風景を一目で概観することができる。
実世界のデータセット上でのVERAの利用について説明するとともに,本手法の有効性を比較ユーザスタディで検証する。
論文 参考訳(メタデータ) (2024-06-07T10:23:03Z) - Topological Perspectives on Optimal Multimodal Embedding Spaces [0.0]
本稿では,CLIPと最近のCLOOBの比較分析について述べる。
提案手法は,モダリティギャップドライバ,高次元と低次元の両方に存在するクラスタリング構造,および各埋め込み空間を形成する上で,次元崩壊が果たす重要な役割を包括的に検討することを含む。
論文 参考訳(メタデータ) (2024-05-29T08:28:23Z) - Improved Baselines for Data-efficient Perceptual Augmentation of LLMs [66.05826802808177]
コンピュータビジョンでは、画像キャプションや視覚的質問応答などの視覚言語タスクに、大きな言語モデル(LLM)を用いることができる。
複数のタスクにまたがる異なる対面機構を実験的に評価する。
異なるタスク間で(ほぼ)最適な結果をもたらす新しいインターフェース機構を同定し、トレーニング時間を4倍短縮する。
論文 参考訳(メタデータ) (2024-03-20T10:57:17Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Spatial Reasoning for Few-Shot Object Detection [21.3564383157159]
本稿では,空間的推論フレームワークを提案する。
グラフ畳み込みネットワークをRoIとその関連性はそれぞれノードとエッジとして定義する。
提案手法は最先端の手法を著しく上回り, 広範囲なアブレーション研究により有効性を検証する。
論文 参考訳(メタデータ) (2022-11-02T12:38:08Z) - Guiding Attention using Partial-Order Relationships for Image Captioning [2.620091916172863]
誘導注意ネットワーク機構は、視覚シーンとテキスト記述の関係を利用する。
この埋め込み空間は、共有セマンティック空間における類似の画像、トピック、キャプションを許容する。
MSCOCOデータセットに基づく実験結果は,我々のアプローチの競争力を示している。
論文 参考訳(メタデータ) (2022-04-15T14:22:09Z) - Revisit Visual Representation in Analytics Taxonomy: A Compression
Perspective [69.99087941471882]
圧縮された視覚表現を用いて複数のマシンビジョン分析タスクをサポートする問題について検討する。
異なるタスク間の本質的な転送性を利用することで、低ビットレートでコンパクトで表現力のある表現を構築できる。
表現にコンパクトさを課すために,コードブックベースのハイパープライヤを提案する。
論文 参考訳(メタデータ) (2021-06-16T01:44:32Z) - Interactive slice visualization for exploring machine learning models [0.0]
予測空間のスライスをインタラクティブに可視化し,解釈可能性の低下に対処する。
具体的には,機械学習アルゴリズムのブラックボックスを開放し,モデルの適合性を疑問視し,説明し,検証し,比較する。
論文 参考訳(メタデータ) (2021-01-18T10:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。