論文の概要: Interactive Concept Learning for Uncovering Latent Themes in Large Text Collections
- arxiv url: http://arxiv.org/abs/2305.05094v2
- Date: Mon, 21 Oct 2024 19:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:24:46.841902
- Title: Interactive Concept Learning for Uncovering Latent Themes in Large Text Collections
- Title(参考訳): 大規模テキストコレクションにおける潜在テーマ発見のための対話型概念学習
- Authors: Maria Leonor Pacheco, Tunazzina Islam, Lyle Ungar, Ming Yin, Dan Goldwasser,
- Abstract要約: 本稿では,単なる単語分布以上のテーマの定義を拡大する。
本稿では,専門家のフィードバックをさまざまなレベルの抽象化で受け取り,エンコードする対話型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.94231279039595
- License:
- Abstract: Experts across diverse disciplines are often interested in making sense of large text collections. Traditionally, this challenge is approached either by noisy unsupervised techniques such as topic models, or by following a manual theme discovery process. In this paper, we expand the definition of a theme to account for more than just a word distribution, and include generalized concepts deemed relevant by domain experts. Then, we propose an interactive framework that receives and encodes expert feedback at different levels of abstraction. Our framework strikes a balance between automation and manual coding, allowing experts to maintain control of their study while reducing the manual effort required.
- Abstract(参考訳): 様々な分野の専門家は、しばしば大きなテキストコレクションを理解することに興味を持っている。
伝統的に、この課題はトピックモデルのような教師なしのテクニックや、手動のテーマ発見プロセスに従うことによって解決される。
本稿では,単なる単語分布以上の意味を持つテーマの定義を拡張し,ドメインの専門家が関連する概念を包含する。
そこで本稿では,専門家のフィードバックをさまざまなレベルの抽象化で受け取り,エンコードする対話型フレームワークを提案する。
私たちのフレームワークは、自動化と手作業によるコーディングのバランスを保ち、専門家が研究のコントロールを維持しながら、必要な手作業の削減を可能にします。
関連論文リスト
- Be Yourself: Bounded Attention for Multi-Subject Text-to-Image Generation [60.943159830780154]
本稿では,サンプリングプロセスにおける情報フローをバウンドする訓練不要な手法である境界注意法を紹介する。
提案手法は,与えられたプロンプトとレイアウトの整合性を向上する複数の主題の生成に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:52:07Z) - Leveraging Collection-Wide Similarities for Unsupervised Document Structure Extraction [61.998789448260005]
本稿では,コレクション内の文書の典型的構造を特定することを提案する。
任意のヘッダのパラフレーズを抽象化し、各トピックを各ドキュメントのロケーションにグルーピングします。
文書間の類似性を利用した教師なしグラフベース手法を開発した。
論文 参考訳(メタデータ) (2024-02-21T16:22:21Z) - Prompting Large Language Models for Topic Modeling [10.31712610860913]
大規模言語モデル(LLM)の高度な言語理解を活用する新しいトピックモデリング手法であるPromptTopicを提案する。
個々の文書から文章レベルでトピックを抽出し、これらのトピックを事前定義された量に集約して凝縮し、最終的に様々な長さのテキストに対して一貫性のあるトピックを提供する。
PromptTopicを3つの非常に多様なデータセットの最先端のベースラインに対してベンチマークし、意味のあるトピックを発見する能力を確立しました。
論文 参考訳(メタデータ) (2023-12-15T11:15:05Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - Knowledge-enriched Attention Network with Group-wise Semantic for Visual
Storytelling [39.59158974352266]
視覚的なストーリーテリングは、関連した画像のグループから物語の多文を含む想像的で一貫性のあるストーリーを生成することを目的としている。
既存の手法では、画像以外の暗黙的な情報を探索することができないため、画像に基づくコンテンツの直接的および厳密な記述を生成することが多い。
これらの問題に対処するために,グループワイド・セマンティック・モデルを用いた新しい知識強化型アテンション・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-10T12:55:47Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - Query-Driven Topic Model [23.07260625816975]
トピックモデルの望ましい特性の1つは、ユーザーがコーパスの特定の側面を記述するトピックを見つけることを可能にすることである。
本稿では,単語やフレーズで簡単なクエリを指定し,クエリ関連トピックを返却する,新しいクエリ駆動トピックモデルを提案する。
論文 参考訳(メタデータ) (2021-05-28T22:49:42Z) - Matching Visual Features to Hierarchical Semantic Topics for Image
Paragraph Captioning [50.08729005865331]
本稿では,階層的トピック誘導画像段落生成フレームワークを開発した。
複数の抽象レベルでの画像とテキストの相関をキャプチャするために、変分推論ネットワークを設計します。
段落生成を導くために、学習した階層的トピックと視覚的特徴を言語モデルに統合する。
論文 参考訳(メタデータ) (2021-05-10T06:55:39Z) - Term-community-based topic detection with variable resolution [0.0]
巨大なテキストコレクションにおけるトピック検出のためのネットワークベースの手順は、確率的トピックモデルの直感的な代替手段を提供する。
ドメインの専門家の要求を念頭に置いて特別に設計された手法を紹介します。
本手法の適用を一般ニュース記事のコーパスで実証し,詳細な社会科学専門家評価の結果を示す。
論文 参考訳(メタデータ) (2021-03-25T01:29:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。