論文の概要: AutoRC: Improving BERT Based Relation Classification Models via
Architecture Search
- arxiv url: http://arxiv.org/abs/2009.10680v2
- Date: Sun, 27 Sep 2020 02:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:23:54.330886
- Title: AutoRC: Improving BERT Based Relation Classification Models via
Architecture Search
- Title(参考訳): AutoRC:アーキテクチャ検索によるBERTに基づく関係分類モデルの改善
- Authors: Wei Zhu, Xipeng Qiu, Yuan Ni and Guotong Xie
- Abstract要約: BERTに基づく関係分類(RC)モデルは、従来のディープラーニングモデルよりも大幅に改善されている。
最適なアーキテクチャとは何かという合意は得られない。
BERTをベースとしたRCモデルのための包括的検索空間を設計し、設計選択を自動的に検出するためにNAS(Neural Architecture Search)手法を用いる。
- 参考スコア(独自算出の注目度): 50.349407334562045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although BERT based relation classification (RC) models have achieved
significant improvements over the traditional deep learning models, it seems
that no consensus can be reached on what is the optimal architecture. Firstly,
there are multiple alternatives for entity span identification. Second, there
are a collection of pooling operations to aggregate the representations of
entities and contexts into fixed length vectors. Third, it is difficult to
manually decide which feature vectors, including their interactions, are
beneficial for classifying the relation types. In this work, we design a
comprehensive search space for BERT based RC models and employ neural
architecture search (NAS) method to automatically discover the design choices
mentioned above. Experiments on seven benchmark RC tasks show that our method
is efficient and effective in finding better architectures than the baseline
BERT based RC model. Ablation study demonstrates the necessity of our search
space design and the effectiveness of our search method.
- Abstract(参考訳): BERTに基づく関係分類(RC)モデルは、従来のディープラーニングモデルよりも大幅に改善されているが、最適なアーキテクチャとは何かという点では合意できないようである。
まず、エンティティスパン識別には複数の代替手段がある。
第二に、エンティティとコンテキストの表現を固定長ベクトルに集約するプール操作の集合がある。
第三に、それらの相互作用を含む特徴ベクトルを手動で決定することは、関係型を分類するのに有益である。
本研究では, bertベースrcモデルの包括的探索空間を設計し, ニューラルネットワーク検索 (nas) 手法を用いて, 上述の設計選択を自動的に発見する。
7 つのベンチマーク RC タスクの実験から,提案手法はベースライン BERT ベース RC モデルよりも効率的かつ効果的であることが示された。
アブレーション研究は,探索空間設計の必要性と探索手法の有効性を実証する。
関連論文リスト
- ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Efficient and Joint Hyperparameter and Architecture Search for
Collaborative Filtering [31.25094171513831]
協調フィルタリングモデルのための2段階探索アルゴリズムを提案する。
最初の段階では、サブサンプルデータセットからの知識を活用して評価コストを削減します。
第2段階では、データセット全体の上位候補モデルを効率的に微調整する。
論文 参考訳(メタデータ) (2023-07-12T10:56:25Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search [9.634626241415916]
リンク予測は、知識グラフ(KG)におけるエンティティ間の欠落した接続を予測するタスクである
これまでの研究では、Automated Machine Learning(AutoML)を使用して、データセットに最適なモデルを探していた。
リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:34:09Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z) - AutoSTR: Efficient Backbone Search for Scene Text Recognition [80.7290173000068]
テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
テキスト認識性能を向上させるために,データ依存のバックボーンを検索するための自動STR(AutoSTR)を提案する。
実験によると、データ依存のバックボーンを検索することで、AutoSTRは標準ベンチマークにおける最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2020-03-14T06:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。