論文の概要: Black Box to White Box: Discover Model Characteristics Based on
Strategic Probing
- arxiv url: http://arxiv.org/abs/2009.03136v1
- Date: Mon, 7 Sep 2020 14:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:30:56.905266
- Title: Black Box to White Box: Discover Model Characteristics Based on
Strategic Probing
- Title(参考訳): ブラックボックスからホワイトボックスへ - 戦略的調査に基づくモデル特性の発見
- Authors: Josh Kalin, Matthew Ciolino, David Noever, Gerry Dozier
- Abstract要約: White Box Adversarial Attacksは、モデル属性に関する基本的な知識に頼っている。
この作業は、基礎となるアーキテクチャと一次トレーニングデータセットという、モデルの情報を分離する部分を見つけることに焦点を当てている。
イメージ分類では、一般的なパブリックライブラリで利用可能な、広くデプロイされたアーキテクチャとデータセットの探索に重点を置いている。
複数のパラメーターを持つ単一のトランスフォーマーアーキテクチャを用いて、テキスト生成は異なるデータセットを微調整することによって行われる。
画像とテキストで探索された各データセットは、互いに区別可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Machine Learning, White Box Adversarial Attacks rely on knowing underlying
knowledge about the model attributes. This works focuses on discovering to
distrinct pieces of model information: the underlying architecture and primary
training dataset. With the process in this paper, a structured set of input
probes and the output of the model become the training data for a deep
classifier. Two subdomains in Machine Learning are explored: image based
classifiers and text transformers with GPT-2. With image classification, the
focus is on exploring commonly deployed architectures and datasets available in
popular public libraries. Using a single transformer architecture with multiple
levels of parameters, text generation is explored by fine tuning off different
datasets. Each dataset explored in image and text are distinguishable from one
another. Diversity in text transformer outputs implies further research is
needed to successfully classify architecture attribution in text domain.
- Abstract(参考訳): 機械学習では、White Box Adversarial Attacksはモデル属性に関する基本的な知識に頼っている。
この作業は、基礎となるアーキテクチャと一次トレーニングデータセットという、モデルの情報を分離する部分を見つけることに焦点を当てている。
本論文のプロセスでは、入力プローブの構造化セットとモデルの出力が、深層分類器のトレーニングデータとなる。
機械学習における2つのサブドメイン:画像ベース分類器とGPT-2によるテキスト変換器。
イメージ分類では、一般的なパブリックライブラリで利用可能な一般的なデプロイアーキテクチャとデータセットの探索に重点を置いている。
複数のパラメーターを持つ単一のトランスフォーマーアーキテクチャを用いて、テキスト生成は異なるデータセットを微調整することによって行われる。
画像とテキストで探索された各データセットは、互いに区別可能である。
テキストトランスフォーマティブ出力の多様性は、テキストドメインにおけるアーキテクチャ属性の分類に成功するためには、さらなる研究が必要であることを意味する。
関連論文リスト
- Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Towards Open-Domain Topic Classification [69.21234350688098]
ユーザが定義した分類をリアルタイムで受け入れるオープンドメイントピック分類システムを導入する。
ユーザは、任意の候補ラベルに対してテキストスニペットを分類し、Webインターフェースから即座にレスポンスを受け取ることができます。
論文 参考訳(メタデータ) (2023-06-29T20:25:28Z) - AToMiC: An Image/Text Retrieval Test Collection to Support Multimedia
Content Creation [42.35572014527354]
AToMiCデータセットは、画像/テキストのクロスモーダル検索の研究を進めるために設計されている。
我々は、ウィキペディアに埋め込まれた大規模な画像文書関連だけでなく、階層構造やテキスト、スタイル、画像のさまざまな領域を活用している。
AToMiCはスケーラブルで多様な再現可能なマルチメディア検索研究のためのテストベッドを提供する。
論文 参考訳(メタデータ) (2023-04-04T17:11:34Z) - Memory Classifiers: Two-stage Classification for Robustness in Machine
Learning [19.450529711560964]
本稿では,分散シフトに対するロバスト性を改善する新しい分類法を提案する。
データの高レベル構造に関する専門知識を標準分類器と組み合わせる。
標準データ拡張技術を超える改善を示す。
論文 参考訳(メタデータ) (2022-06-10T18:44:45Z) - Towards End-to-End Unified Scene Text Detection and Layout Analysis [60.68100769639923]
本稿では,シーンテキストの検出とレイアウト解析を統合化するタスクについて紹介する。
この新たな研究課題を実現するために、最初の階層的なシーンテキストデータセットが導入された。
また,シーンテキストを同時に検出し,テキストクラスタを統一的に形成する手法を提案する。
論文 参考訳(メタデータ) (2022-03-28T23:35:45Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - TravelBERT: Pre-training Language Model Incorporating Domain-specific
Heterogeneous Knowledge into A Unified Representation [27.12551176570223]
本研究では,非構造化テキスト,半構造化テキスト,よく構造化されたテキストを含むあらゆる形式のテキストを対象としたヘテロジニアス知識言語モデル(HKLM)を提案する。
提案手法では,単語知識の学習にマスク付き言語モデルの対象を用い,3つの分類対象とタイトルマッチング対象を用いてエンティティ知識とトピック知識を学習する。
その結果,本手法はデータの1/4のみを用いて,プレーンテキストの事前学習よりも優れていた。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Simple multi-dataset detection [83.9604523643406]
複数の大規模データセット上で統合検出器を訓練する簡単な方法を提案する。
データセット固有のアウトプットを共通の意味分類に自動的に統合する方法を示す。
私たちのアプローチは手動の分類学の調整を必要としません。
論文 参考訳(メタデータ) (2021-02-25T18:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。