論文の概要: Refl-Spanners: A Purely Regular Approach to Non-Regular Core Spanners
- arxiv url: http://arxiv.org/abs/2010.13442v7
- Date: Tue, 19 Nov 2024 20:12:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:15:17.961163
- Title: Refl-Spanners: A Purely Regular Approach to Non-Regular Core Spanners
- Title(参考訳): Refl-Spanners: 正規でないコアスパンナに対する純粋に規則的なアプローチ
- Authors: Markus L. Schmid, Nicole Schweikardt,
- Abstract要約: そこで本研究では,文字列品質の選択を直接正規言語に組み込む,コアスパンナーの代替手法を提案する。
コアスパンナーの断片は、コアスパンナーの完全なクラスよりもわずかに表現力の弱いものの、情報抽出のための文字列平等選択の直感的な応用をカバーしている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The regular spanners (characterised by vset-automata) are closed under the algebraic operations of union, join and projection, and have desirable algorithmic properties. The core spanners (introduced by Fagin, Kimelfeld, Reiss, and Vansummeren (PODS 2013, JACM 2015) as a formalisation of the core functionality of the query language AQL used in IBM's SystemT) additionally need string-equality selections and it has been shown by Freydenberger and Holldack (ICDT 2016, Theory of Computing Systems 2018) that this leads to high complexity and even undecidability of the typical problems in static analysis and query evaluation. We propose an alternative approach to core spanners: by incorporating the string-equality selections directly into the regular language that represents the underlying regular spanner (instead of treating it as an algebraic operation on the table extracted by the regular spanner), we obtain a fragment of core spanners that, while having slightly weaker expressive power than the full class of core spanners, arguably still covers the intuitive applications of string-equality selections for information extraction and has much better upper complexity bounds of the typical problems in static analysis and query evaluation.
- Abstract(参考訳): 正則スパンナー(vset-automata によって特徴づけられる)は結合、結合、射影の代数的操作の下で閉じ、望ましいアルゴリズム特性を持つ。
Fagin氏、Kimelfeld氏、Reiss氏、Vansummeren氏(PODS 2013 JACM 2015)が導入したコアスパンナーは、IBMのSystemTで使用されているクエリ言語AQLのコア機能の形式化である。
基本となる正規スパンナーを直接正規言語に組み込む(正規スパンナーによって抽出されたテーブル上の代数的操作として扱う代わりに)ことで、コアスパンナーの断片を得るが、コアスパンナーの完全なクラスよりも表現力はわずかに弱く、情報抽出のための文字列平等選択の直感的な応用をカバーし、静的解析やクエリ評価における典型的な問題に対するより優れた複雑性境界を持つ。
関連論文リスト
- Squeezed Attention: Accelerating Long Context Length LLM Inference [64.11145320159126]
本稿では,入力プロンプトの大部分を固定したLLMアプリケーションを高速化する機構として,Squeezed Attentionを提案する。
K-meansクラスタリングをオフラインで使用して、セマンティックな類似性に基づいて、固定されたコンテキストのキーをグループ化し、各クラスタを単一のセントロイド値で表現します。
そして、固定された文脈から重要なキーのみを用いて正確な注意を計算し、帯域幅と計算コストを削減する。
論文 参考訳(メタデータ) (2024-11-14T18:54:19Z) - Are queries and keys always relevant? A case study on Transformer wave functions [0.0]
ドット製品アテンションメカニズム(ドット製品アテンションメカニズム)は、元々自然言語処理タスク用に設計されたもので、現代のトランスフォーマーの基盤となっている。
本稿では,変分波動関数のパラメトリゼーションの特定の領域において,トランスフォーマーの適応性について検討する。
論文 参考訳(メタデータ) (2024-05-29T08:32:37Z) - A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - RLAS-BIABC: A Reinforcement Learning-Based Answer Selection Using the
BERT Model Boosted by an Improved ABC Algorithm [6.82469220191368]
回答選択(AS)は、オープンドメイン質問応答(QA)問題の重要なサブタスクである。
本稿では、注意機構に基づく長短期メモリ(LSTM)と、変換器(BERT)ワード埋め込みによる双方向エンコーダ表現に基づいて、ASのためのRLAS-BIABCと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-01-07T08:33:05Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Pyramid-BERT: Reducing Complexity via Successive Core-set based Token
Selection [23.39962989492527]
BERTのようなトランスフォーマーベースの言語モデルは、様々なNLPタスクで最先端を達成しているが、計算的に禁止されている。
本稿では,従来の使用法を,理論的な結果によって正当化されたemコアセットベースのトークン選択法で置き換えるピラミッド-BERTを提案する。
コアセットベースのトークン選択技術により、高価な事前トレーニングを回避でき、空間効率の良い微調整が可能となり、長いシーケンス長を扱うのに適している。
論文 参考訳(メタデータ) (2022-03-27T19:52:01Z) - Reasoning over Hybrid Chain for Table-and-Text Open Domain QA [69.8436986668218]
我々はChAin中心の推論と事前学習フレームワーク(CARP)を提案する。
CARPはハイブリッドチェーンを使用して、質問応答のための表とテキスト間の明示的な中間推論プロセスをモデル化する。
また,クロスモダリティ推論プロセスの同定において,事前学習モデルを強化するために,新しいチェーン中心の事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-01-15T16:11:55Z) - Extending Sticky-Datalog+/- via Finite-Position Selection Functions:
Tractability, Algorithms, and Optimization [3.4621178017146543]
我々は,追跡手順の動作の観点から,Sticky と WS プログラムについて検討する。
クラスsch(S)におけるプログラムに対するボトムアップQAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-02T13:47:21Z) - Finding Black Cat in a Coal Cellar -- Keyphrase Extraction &
Keyphrase-Rubric Relationship Classification from Complex Assignments [5.067828201066184]
本稿では,キーフレーズ抽出作業における教師あり教師なしアプローチの有効性を定量化することを目的とする。
i) 教師なしの MultiPartiteRank がキーフレーズ抽出に最適であることがわかった。
今後,これらの課題に関心のある人々に対して,包括的分析と有用な観察結果の導出を行う。
論文 参考訳(メタデータ) (2020-04-03T13:18:02Z) - Conditional Self-Attention for Query-based Summarization [49.616774159367516]
条件依存モデリング用に設計されたニューラルネットワークモジュールであるテキスト条件自己アテンション(CSA)を提案する。
DebatepediaとHotpotQAベンチマークデータセットの実験は、CSAがバニラトランスフォーマーを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-18T02:22:31Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。