論文の概要: When to Use What: An In-Depth Comparative Empirical Analysis of OpenIE
Systems for Downstream Applications
- arxiv url: http://arxiv.org/abs/2211.08228v1
- Date: Tue, 15 Nov 2022 15:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:34:49.138797
- Title: When to Use What: An In-Depth Comparative Empirical Analysis of OpenIE
Systems for Downstream Applications
- Title(参考訳): time to use what: ダウンストリームアプリケーションのためのopenieシステムの詳細な比較経験的分析
- Authors: Kevin Pei (Grainger College of Engineering, University of Illinois at
Urbana-Champaign), Ishan Jindal (IBM Research), Kevin Chen-Chuan Chang
(Grainger College of Engineering, University of Illinois at
Urbana-Champaign), Chengxiang Zhai (Grainger College of Engineering,
University of Illinois at Urbana-Champaign), Yunyao Li (Apple Knowledge
Platform)
- Abstract要約: 本稿では、ニューラルネットワークOpenIEモデル、トレーニングセット、ベンチマークに関するアプリケーション中心の実証調査を紹介する。
異なるモデルとデータセットによる異なる仮定は、統計的にパフォーマンスに有意な影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open Information Extraction (OpenIE) has been used in the pipelines of
various NLP tasks. Unfortunately, there is no clear consensus on which models
to use in which tasks. Muddying things further is the lack of comparisons that
take differing training sets into account. In this paper, we present an
application-focused empirical survey of neural OpenIE models, training sets,
and benchmarks in an effort to help users choose the most suitable OpenIE
systems for their applications. We find that the different assumptions made by
different models and datasets have a statistically significant effect on
performance, making it important to choose the most appropriate model for one's
applications. We demonstrate the applicability of our recommendations on a
downstream Complex QA application.
- Abstract(参考訳): Open Information extract (OpenIE) は様々なNLPタスクのパイプラインで使われている。
残念ながら、どのタスクでどのモデルを使うべきかについては明確な合意がない。
さらに重要なのは、異なるトレーニングセットを考慮に入れた比較の欠如です。
本稿では,ニューラルネットワークのopenieモデル,トレーニングセット,ベンチマークについて,アプリケーションに焦点を当てた経験的調査を行い,アプリケーションに適したopenieシステムを選択するための支援を行う。
異なるモデルとデータセットによってなされる異なる仮定が、パフォーマンスに統計的に有意な影響を及ぼすことに気付き、アプリケーションに最適なモデルを選択することが重要である。
下流の複雑なqaアプリケーションにおける推奨事項の適用性を示す。
関連論文リスト
- Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Discourse-Aware In-Context Learning for Temporal Expression Normalization [7.621550020607368]
本研究では、TE正規化のためのプロプライエタリおよびオープンソースの大規模言語モデル(LLM)の実現可能性について検討する。
ウィンドウベースのプロンプト設計アプローチを用いることで、モデルを訓練することなくLLM知識を活用しながら、文間でTE正規化を行うことができる。
この課題のために設計されたモデルに対する競争結果を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T14:13:44Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Streamlined Framework for Agile Forecasting Model Development towards
Efficient Inventory Management [2.0625936401496237]
本稿では,開発プロセスのコアコンポーネント間の接続を合理化して予測モデルを構築するためのフレームワークを提案する。
提案したフレームワークは、新しいデータセットの迅速かつ堅牢な統合、異なるアルゴリズムの実験、最良のモデルの選択を可能にする。
論文 参考訳(メタデータ) (2023-04-13T08:52:32Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - Reusable Self-Attention Recommender Systems in Fashion Industry
Applications [0.0]
本研究では,最大30%のユーザ保持率の向上を示すライブ実験結果を示す。
ファッションインスピレーションのユースケースとして、衣料品のランク付け、衣料品のレコメンデーション、リアルタイムのパーソナライズされた衣料品の創出などに着目する。
論文 参考訳(メタデータ) (2023-01-17T10:00:17Z) - A Data-Centric AI Paradigm Based on Application-Driven Fine-grained
Dataset Design [2.2223262422197907]
本稿では,産業アプリケーションによって駆動されるデータセットのきめ細かい設計のための新しいパラダイムを提案する。
データおよびアプリケーション要件の本質的な特徴に応じて,正および負のサンプルセットを柔軟に選択する。
従来のデータ設計手法と比較して,本手法はより良い結果が得られ,誤報を効果的に低減する。
論文 参考訳(メタデータ) (2022-09-20T03:56:53Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Top-N Recommendation with Counterfactual User Preference Simulation [26.597102553608348]
ユーザーランキングに基づく好みの学習を目的としたTop-Nレコメンデーションは、長い間、広範囲のアプリケーションにおいて基本的な問題だった。
本稿では,データ不足問題に対処するため,因果推論フレームワーク内での推薦タスクの再構築を提案する。
論文 参考訳(メタデータ) (2021-09-02T14:28:46Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。