論文の概要: Genetic Algorithms For Extractive Summarization
- arxiv url: http://arxiv.org/abs/2105.02365v1
- Date: Wed, 5 May 2021 23:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:40:05.845214
- Title: Genetic Algorithms For Extractive Summarization
- Title(参考訳): 抽出要約のための遺伝的アルゴリズム
- Authors: William Chen, Kensal Ramos, Kalyan Naidu Mullaguri
- Abstract要約: 本稿では,遺伝的アルゴリズム(gas)の強みについて検討する。
これは語彙集合を構築し、その単語を重みの配列として表現し、それらの重みの組をgaで最適化することで行われる。
その結果,GAは過剰な語彙を抽出し,英単語に基づいて文の重要性を判断できる重み表現を学習することができた。
- 参考スコア(独自算出の注目度): 0.07734726150561086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most current work in NLP utilizes deep learning, which requires a lot of
training data and computational power. This paper investigates the strengths of
Genetic Algorithms (GAs) for extractive summarization, as we hypothesized that
GAs could construct more efficient solutions for the summarization task due to
their relative customizability relative to deep learning models. This is done
by building a vocabulary set, the words of which are represented as an array of
weights, and optimizing those set of weights with the GA. These weights can be
used to build an overall weighting of a sentence, which can then be passed to
some threshold for extraction. Our results showed that the GA was able to learn
a weight representation that could filter out excessive vocabulary and thus
dictate sentence importance based on common English words.
- Abstract(参考訳): NLPの現在の作業のほとんどは、多くのトレーニングデータと計算能力を必要とするディープラーニングを使用している。
本稿では,遺伝的アルゴリズム(GA)の強みについて検討し,GAが学習モデルに対する相対的カスタマイズ性から,より効率的な解を構築できると仮定した。
これは語彙集合を構築し、その単語を重みの配列として表現し、それらの重みの組をgaで最適化することで行われる。
これらの重みは、文の全体的な重み付けを構築するために使用することができ、抽出のためにしきい値に渡すことができる。
その結果,GAは過剰な語彙を抽出し,英単語に基づいて文の重要性を判断できる重み表現を学習することができた。
関連論文リスト
- LM-assisted keyword biasing with Aho-Corasick algorithm for Transducer-based ASR [3.841280537264271]
そこで本研究では,音声認識性能向上のためのライトオンザフライ方式を提案する。
我々は、名前付きエンティティのバイアスリストと単語レベルのn-gram言語モデルと、Aho-Corasick文字列マッチングアルゴリズムに基づく浅い融合アプローチを組み合わせる。
逆実時間係数の実用的差のない一般単語誤り率の21.6%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-09-20T13:53:37Z) - Lightweight Conceptual Dictionary Learning for Text Classification Using Information Compression [15.460141768587663]
データ圧縮と表現に基づくテキスト分類のための軽量な教師付き辞書学習フレームワークを提案する。
我々は,情報ボトルネックの原理を用いて情報理論性能を評価し,情報理論性能を定量化するための新しい指標として情報平面面積ランク(IPAR)を導入する。
論文 参考訳(メタデータ) (2024-04-28T10:11:52Z) - Efficient and Scalable Fine-Tune of Language Models for Genome
Understanding [49.606093223945734]
textscLanguage prefix ftextscIne-tuning for textscGentextscOmes。
DNA基盤モデルとは異なり、textscLingoは自然言語基盤モデルの文脈的手がかりを戦略的に活用している。
textscLingoはさらに、適応的なランクサンプリング方法により、下流の細調整タスクを数多く許容する。
論文 参考訳(メタデータ) (2024-02-12T21:40:45Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - The FAIRy Tale of Genetic Algorithms [1.0957528713294875]
Findable、Accessible、Interoperable、Reusable(FAIR)のデータ原則を拡張して、アルゴリズムの遺伝的および再使用を可能にしました。
我々は,GAの方法論的展開と変種について概説し,適切なソースの再現や発見を困難にしている。
この作業は、多数の機械学習アルゴリズム/メソッドに拡張することができる。
論文 参考訳(メタデータ) (2023-04-29T11:36:09Z) - Retrieval augmentation of large language models for lay language
generation [12.686922203465896]
本稿では,最大 (63kペア) および最大 (12ジャーナル) 並列コーパスである CellS を紹介した。
抽象化とそれに対応するレイ言語要約は、ドメインの専門家によって書かれ、データセットの品質が保証されます。
我々はCellSから2つの特別なペアコーパスを抽出し、素言語生成における重要な課題に対処する。
論文 参考訳(メタデータ) (2022-11-07T19:06:53Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - Efficient CNN with uncorrelated Bag of Features pooling [98.78384185493624]
Bag of Features (BoF)は、畳み込み層の複雑さを軽減するために最近提案されている。
本稿では,BoFプーリング上に構築した手法を用いて,学習辞書の項目が非冗長であることを保証する。
提案した戦略は、BoFの効率的な変種を生成し、追加のパラメータを使わずにその性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-22T09:00:30Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Text Information Aggregation with Centrality Attention [86.91922440508576]
本稿では, 固有中央集権自己注意という, 集権重み付けの新たな方法を提案する。
文中のすべての単語に対する完全連結グラフを構築し,各単語の注意点として固有中央性を計算する。
論文 参考訳(メタデータ) (2020-11-16T13:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。