論文の概要: CX DB8: A queryable extractive summarizer and semantic search engine
- arxiv url: http://arxiv.org/abs/2012.03942v1
- Date: Mon, 7 Dec 2020 05:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 06:45:43.535392
- Title: CX DB8: A queryable extractive summarizer and semantic search engine
- Title(参考訳): CX DB8: クエリ可能な抽出要約とセマンティック検索エンジン
- Authors: Allen Roush
- Abstract要約: 検索可能な単語レベルの抽出要約とエビデンス作成フレームワークであるCX_DB8を紹介します。
cx_db8はセマンティック検索エンジンとしても機能し、プログラムやウェブページの従来の「検索」機能の補足としてアプリケーションを備えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Competitive Debate's increasingly technical nature has left competitors
looking for tools to accelerate evidence production. We find that the unique
type of extractive summarization performed by competitive debaters -
summarization with a bias towards a particular target meaning - can be
performed using the latest innovations in unsupervised pre-trained text
vectorization models. We introduce CX_DB8, a queryable word-level extractive
summarizer and evidence creation framework, which allows for rapid, biasable
summarization of arbitarily sized texts. CX_DB8s usage of the embedding
framework Flair means that as the underlying models improve, CX_DB8 will also
improve. We observe that CX_DB8 also functions as a semantic search engine, and
has application as a supplement to traditional "find" functionality in programs
and webpages. CX_DB8 is currently used by competitive debaters and is made
available to the public at https://github.com/Hellisotherpeople/CX_DB8
- Abstract(参考訳): 競争力のあるDebateの技術的性質は、エビデンス生産を加速するツールを競争相手に求めている。
競争的討論者による一意的な抽出要約と特定の目的に対するバイアスは、教師なし事前学習テキストベクトル化モデルにおける最新の革新を用いて行うことができる。
本稿では,arbitarily size textの迅速かつ偏りのある要約を可能にする,クエリ可能な単語レベルの要約および証拠作成フレームワークであるcx_db8を紹介する。
CX_DB8は組み込みフレームワークであるFrairを使用するため、基盤となるモデルが改善されるにつれて、CX_DB8も改善される。
cx_db8はセマンティック検索エンジンとしても機能し、プログラムやウェブページの従来の「検索」機能の補足としてアプリケーションを備えている。
CX_DB8は現在競争相手によって使用されており、https://github.com/HellisotherPeople/CX_DB8で公開されている。
関連論文リスト
- Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - ArcheType: A Novel Framework for Open-Source Column Type Annotation using Large Language Models [24.867534196627222]
ArcheTypeは、コンテキストサンプリング、即時シリアライゼーション、モデルクエリ、ラベルリマッピングのための、シンプルで実用的な方法である。
ゼロショットCTAベンチマークに最先端の性能を新たに確立する。
論文 参考訳(メタデータ) (2023-10-27T15:31:22Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking [28.66287193703365]
本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
論文 参考訳(メタデータ) (2022-05-04T12:48:49Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。