論文の概要: The Linear Arrangement Library. A new tool for research on syntactic
dependency structures
- arxiv url: http://arxiv.org/abs/2112.02512v1
- Date: Sun, 5 Dec 2021 08:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:08:27.480899
- Title: The Linear Arrangement Library. A new tool for research on syntactic
dependency structures
- Title(参考訳): リニア・アレンジメント・ライブラリー。
構文依存構造研究のための新しいツール
- Authors: Llu\'is Alemany-Puig and Juan Luis Esteban and Ramon Ferrer-i-Cancho
- Abstract要約: 新たなオープンソースツールであるLinear Arrangement Library(LAL)について紹介する。
LALは、特に経験の浅いプログラマのニーズに応える。
単一の構文依存構造、ツリーバンク、ツリーバンクの収集に関するメトリクスの計算を可能にする。
- 参考スコア(独自算出の注目度): 1.611401281366893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The new and growing field of Quantitative Dependency Syntax has emerged at
the crossroads between Dependency Syntax and Quantitative Linguistics. One of
the main concerns in this field is the statistical patterns of syntactic
dependency structures. These structures, grouped in treebanks, are the source
for statistical analyses in these and related areas; dozens of scores devised
over the years are the tools of a new industry to search for patterns and
perform other sorts of analyses. The plethora of such metrics and their
increasing complexity require sharing the source code of the programs used to
perform such analyses. However, such code is not often shared with the
scientific community or is tested following unknown standards. Here we present
a new open-source tool, the Linear Arrangement Library (LAL), which caters to
the needs of, especially, inexperienced programmers. This tool enables the
calculation of these metrics on single syntactic dependency structures,
treebanks, and collection of treebanks, grounded on ease of use and yet with
great flexibility. LAL has been designed to be efficient, easy to use (while
satisfying the needs of all levels of programming expertise), reliable (thanks
to thorough testing), and to unite research from different traditions,
geographic areas, and research fields.
- Abstract(参考訳): 量的依存構文の新しい成長分野は、依存構文と量的言語学の交差点に現れた。
この分野における主な関心事は、構文的依存構造の統計的パターンである。
木バンクにグループ化されたこれらの構造は、これらとその関連分野の統計分析の源泉であり、長年にわたって考案されてきた数十のスコアは、パターンを検索し、他の種類の分析を行うための新しい産業のツールである。
このようなメトリクスの多さと複雑さの増加は、そのような分析に使用されるプログラムのソースコードを共有する必要がある。
しかし、そのようなコードはしばしば科学界と共有されておらず、未知の基準に従ってテストされる。
本稿では,特に経験の浅いプログラマのニーズに応える,新しいオープンソースツールであるリニアアレンジメントライブラリ(lal)を提案する。
このツールは、単一の構文依存構造、ツリーバンク、ツリーバンクのコレクションに関するこれらのメトリクスの計算を可能にします。
LALは効率的で使いやすく(あらゆるレベルのプログラミング専門知識のニーズを満たしつつも)、信頼性(徹底的なテストへの依存)、さまざまな伝統、地理的領域、研究分野からの研究を統合するように設計されている。
関連論文リスト
- Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - A Software Engineering Perspective on Testing Large Language Models: Research, Practice, Tools and Benchmarks [2.8061460833143346]
大規模言語モデル(LLM)は、スタンドアロンツールとしても、現在および将来のソフトウェアシステムのコンポーネントとしても、急速に普及しています。
LLMを2030年のハイテイクシステムや安全クリティカルシステムで使用するためには、厳格なテストを実施する必要がある。
論文 参考訳(メタデータ) (2024-06-12T13:45:45Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
大規模言語モデル(LLM)と決定木推論(OCTree)に基づく新しいフレームワークを提案する。
私たちのキーとなるアイデアは、LLMの推論機能を活用して、手動で検索スペースを指定せずに優れた特徴生成ルールを見つけることです。
実験の結果、この単純なフレームワークは様々な予測モデルの性能を一貫して向上させることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - STaRK: Benchmarking LLM Retrieval on Textual and Relational Knowledge Bases [93.96463520716759]
テキストと知識ベースを用いた大規模半構造検索ベンチマークSTARKを開発した。
本ベンチマークでは, 製品検索, 学術論文検索, 精密医療におけるクエリの3分野について検討した。
多様なリレーショナル情報と複雑なテキスト特性を統合した,現実的なユーザクエリを合成する,新しいパイプラインを設計する。
論文 参考訳(メタデータ) (2024-04-19T22:54:54Z) - generAItor: Tree-in-the-Loop Text Generation for Language Model
Explainability and Adaptation [28.715001906405362]
大規模言語モデル(LLM)は、自動補完、補助的な書き込み、チャットベースのテキスト生成など、様々な下流タスクに広くデプロイされている。
本稿では,ビーム探索ツリーの視覚的表現を解析,説明,適応する中心的な要素とする,ループ内ツリーのアプローチを提案することで,この欠点に対処する。
視覚解析技術であるGenerAItorを,タスク固有のウィジェットで中央ビーム探索木を拡大し,ターゲットとした可視化とインタラクションの可能性を提供する。
論文 参考訳(メタデータ) (2024-03-12T13:09:15Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - Transforming Unstructured Text into Data with Context Rule Assisted
Machine Learning (CRAML) [0.0]
コンテキストルール支援機械学習(CRAML)法は、大量の非構造化テキストの正確な再現可能なラベル付けを可能にする。
CRAMLにより、ドメインの専門家はドキュメントコーパス内に埋もれている珍しい構造にアクセスすることができる。
CRAMLのユースケースは3つある: テキストデータから得られた最近の管理文献を分析し、プロプライエタリな求人広告テキストの分析から新しい機械学習モデルを記述・リリースし、フランチャイズ文書の公開コーパスから社会的・経済的関心の発見を示す。
論文 参考訳(メタデータ) (2023-01-20T13:12:35Z) - Comparative Code Structure Analysis using Deep Learning for Performance
Prediction [18.226950022938954]
本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
論文 参考訳(メタデータ) (2021-02-12T16:59:12Z) - Exploring the Suitability of Semantic Spaces as Word Association Models
for the Extraction of Semantic Relationships [1.8352113484137629]
本稿では,従来の意味空間とモデル(例えば,単語の関連付けを抽出するためのWord Embedding)を用いた新しいアイデアを提案する。
目標は、これらの単語関連モデルを使用して、現在の関係抽出アプローチを強化することである。
論文 参考訳(メタデータ) (2020-04-29T15:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。