論文の概要: Structured Language Generation Model for Robust Structure Prediction
- arxiv url: http://arxiv.org/abs/2402.08971v2
- Date: Mon, 19 Feb 2024 00:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 00:40:28.721049
- Title: Structured Language Generation Model for Robust Structure Prediction
- Title(参考訳): ロバスト構造予測のための構造言語生成モデル
- Authors: Minho Lee and Junghyun Min and Woochul Lee and Yeonsoo Lee
- Abstract要約: 損失校正・復号法における手法を用いて,シーケンス・ツー・シーケンスの問題を分類問題に還元するフレームワークを提案する。
実験結果から,SLGMはデータセット情報を明示せずに,データセット固有の微調整を追従し,置き換えることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 6.4736137270915215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work in structured prediction (e.g. NER, information extraction)
using single model make use of explicit dataset information, which helps boost
in-distribution performance but is orthogonal to robust generalization in
real-world situations. To overcome this limitation, we propose the Structured
Language Generation Model (SLGM), a framework that reduces sequence-to-sequence
problems to classification problems via methodologies in loss calibration and
decoding method. Our experimental results show that SLGM is able to maintain
performance without explicit dataset information, follow and potentially
replace dataset-specific fine-tuning.
- Abstract(参考訳): 単一モデルを用いた構造化予測(ner、情報抽出など)の以前の作業では、明示的なデータセット情報を使用して、分散性能の向上に寄与するが、現実の状況において堅牢な一般化に直交する。
そこで本研究では,この制約を克服するために,ロスキャリブレーションとデコード手法による分類問題に対するシーケンス列問題を削減するためのフレームワークであるstructured language generation model (slgm)を提案する。
実験結果から,SLGMはデータセット情報を明示せずに,データセット固有の微調整を追従し,置き換えることが可能であることが示唆された。
関連論文リスト
- On Linearizing Structured Data in Encoder-Decoder Language Models: Insights from Text-to-SQL [8.57550491437633]
本研究では,エンコーダ-デコーダ言語モデル,特にT5における構造化データの線形処理について検討する。
この結果から,スキーマリンクや構文予測など,人間設計プロセスの模倣が可能であることが判明した。
また、構造ノードエンコーディングのエゴ中心の性質を含む、モデルの内部メカニズムに関する洞察を明らかにした。
論文 参考訳(メタデータ) (2024-04-03T01:16:20Z) - Functional Graphical Models: Structure Enables Offline Data-Driven
Optimization [121.57202302457135]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Invariant Structure Learning for Better Generalization and Causal
Explainability [44.580704853704994]
因果構造発見を改善するための新しいフレームワークである不変構造学習(ISL)を提案する。
ISLはデータを異なる環境に分割し、異なる環境にわたってターゲットに不変な構造を学ぶ。
我々は、ISLが因果構造を正確に発見し、代替手法より優れ、大きな分布シフトを持つデータセットに対して優れた一般化をもたらすことを示した。
論文 参考訳(メタデータ) (2022-06-13T21:04:23Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - How Does Data Corruption Affect Natural Language Understanding Models? A
Study on GLUE datasets [4.645287693363387]
モデルが微調整されたり、破損したデータでテストされた場合、ほとんどのGLUEタスクのパフォーマンスは高いままである。
提案したデータ変換は,特定のデータセットがモデルの言語理解能力を評価するための適切なテストベッドを構成する範囲を評価するための診断ツールとして利用することができる。
論文 参考訳(メタデータ) (2022-01-12T13:35:53Z) - Improving Compositional Generalization with Self-Training for
Data-to-Text Generation [36.973617793800315]
データ・テキスト・タスクにおける現在の生成モデルの合成一般化について検討する。
構成的気象データセットの構造変化をシミュレートすることにより、T5モデルは目に見えない構造に一般化できないことを示す。
擬似応答選択のための細調整BLEURTを用いた自己学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T04:26:56Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。