論文の概要: Unstructured and structured data: Can we have the best of both worlds
with large language models?
- arxiv url: http://arxiv.org/abs/2304.13010v1
- Date: Tue, 25 Apr 2023 17:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:28:07.361472
- Title: Unstructured and structured data: Can we have the best of both worlds
with large language models?
- Title(参考訳): 非構造化データと構造化データ: 大きな言語モデルを持つ両方の世界のベストを得られるか?
- Authors: Wang-Chiew Tan
- Abstract要約: 本稿では,大規模言語モデルを用いて非構造化データと構造化データの両方を問合せする可能性について考察する。
また、両タイプのデータに対して質問応答システムを構築することに関する研究課題についても概説している。
- 参考スコア(独自算出の注目度): 18.06824455388986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an opinion on the potential of using large language
models to query on both unstructured and structured data. It also outlines some
research challenges related to the topic of building question-answering systems
for both types of data.
- Abstract(参考訳): 本稿では,大規模言語モデルを用いて非構造化データと構造化データの両方を問合せする可能性について考察する。
また,両タイプのデータを対象とした質問応答システムの構築に関する研究課題についても概説する。
関連論文リスト
- dIR -- Discrete Information Retrieval: Conversational Search over
Unstructured (and Structured) Data with Large Language Models [0.16060477887377675]
本稿では,自由テキストと構造化知識の両方を問う統一インターフェースとして,dIR,disrete Information Retrievalを提案する。
我々は、独自の質問/回答データセットを用いて、我々のアプローチを検証し、dIRがフリーテキスト上で全く新しいクエリーのクラスを作成できると結論付けた。
論文 参考訳(メタデータ) (2023-12-20T18:41:44Z) - GPT Struct Me: Probing GPT Models on Narrative Entity Extraction [2.049592435988883]
我々は,2つの最先端言語モデル(GPT-3とGPT-3.5)の物語の抽出能力を評価する。
本研究はポルトガルの119のニュース記事を集めたText2Story Lusaデータセットを用いて行った。
論文 参考訳(メタデータ) (2023-11-24T16:19:04Z) - PDFTriage: Question Answering over Long, Structured Documents [60.96667912964659]
構造化文書をプレーンテキストとして表現することは、これらの文書をリッチな構造でユーザ精神モデルと矛盾する。
本稿では,構造や内容に基づいて,モデルがコンテキストを検索できるPDFTriageを提案する。
ベンチマークデータセットは,80以上の構造化文書に900以上の人間が生成した質問からなる。
論文 参考訳(メタデータ) (2023-09-16T04:29:05Z) - Bridging the Gap: Deciphering Tabular Data Using Large Language Model [4.711941969101732]
この研究は、テーブルベースの質問応答タスクへの大規模言語モデルの初めての応用である。
拡張言語モデルとのシームレスな統合のために,テーブルのシリアライズに特有なモジュールを設計しました。
論文 参考訳(メタデータ) (2023-08-23T03:38:21Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - Unified Text Structuralization with Instruction-tuned Language Models [28.869098023025753]
テキストから様々な構造を抽出する大規模言語モデル(LLM)を提案する。
実験により、様々な言語や知識のデータセット上で、言語モデルが他の最先端の手法と同等に動作できることが示されている。
論文 参考訳(メタデータ) (2023-03-27T07:39:05Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Structural Biases for Improving Transformers on Translation into
Morphologically Rich Languages [120.74406230847904]
TP-Transformerは従来のTransformerアーキテクチャを拡張し、構造を表現するコンポーネントを追加する。
第2の方法は、形態的トークン化でデータをセグメント化することで、データレベルで構造を付与する。
これらの2つのアプローチのそれぞれが、ネットワークがより良いパフォーマンスを達成することを可能にすることは分かっていますが、この改善はデータセットのサイズに依存します。
論文 参考訳(メタデータ) (2022-08-11T22:42:24Z) - Does Structure Matter? Leveraging Data-to-Text Generation for Answering
Complex Information Needs [3.5331191621809794]
データ・テキスト・ジェネレーションの観点から,生成モデルの利用を想定する。
中間計画を生成することで回答を構造化することを目的とした,コンテンツ選択計画パイプラインの利用を提案する。
TREC Complex Answer Retrieval (CAR) データセットを用いて実験評価を行った。
論文 参考訳(メタデータ) (2021-12-08T15:51:27Z) - CateCom: a practical data-centric approach to categorization of
computational models [77.34726150561087]
本稿では,物理モデルとデータ駆動型計算モデルのランドスケープを整理する取り組みについて述べる。
オブジェクト指向設計の概念を適用し、オープンソース協調フレームワークの基礎を概説する。
論文 参考訳(メタデータ) (2021-09-28T02:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。