論文の概要: An experiment exploring the theoretical and methodological challenges in
developing a semi-automated approach to analysis of small-N qualitative data
- arxiv url: http://arxiv.org/abs/2002.04513v2
- Date: Sat, 15 Feb 2020 19:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:14:13.604208
- Title: An experiment exploring the theoretical and methodological challenges in
developing a semi-automated approach to analysis of small-N qualitative data
- Title(参考訳): 小N質データ解析のための半自動手法の開発における理論的・方法論的課題の検討
- Authors: Sandro Tsang
- Abstract要約: 本稿では, 半自動定性データ解析(QDA)アルゴリズムを設計し, フリーウェアを用いて20文字を解析する実験を行った。
テキストマイニング (TM) とQDAは, サンプルサイズが小さければ頑健なままであり, 周波数・アソシエーションの指標によって導かれた。
QDAアルゴリズムはTMやQDAの規則に厳密に従わないが、より効率的で体系的で透明なテキスト分析アプローチとなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper experiments with designing a semi-automated qualitative data
analysis (QDA) algorithm to analyse 20 transcripts by using freeware.
Text-mining (TM) and QDA were guided by frequency and association measures,
because these statistics remain robust when the sample size is small. The
refined TM algorithm split the text into various sizes based on a manually
revised dictionary. This lemmatisation approach may reflect the context of the
text better than uniformly tokenising the text into one single size. TM results
were used for initial coding. Code repacking was guided by association measures
and external data to implement a general inductive QDA approach. The
information retrieved by TM and QDA was depicted in subgraphs for comparisons.
The analyses were completed in 6-7 days. Both algorithms retrieved contextually
consistent and relevant information. However, the QDA algorithm retrieved more
specific information than TM alone. The QDA algorithm does not strictly comply
with the convention of TM or of QDA, but becomes a more efficient, systematic
and transparent text analysis approach than a conventional QDA approach.
Scaling up QDA to reliably discover knowledge from text was exactly the
research purpose. This paper also sheds light on understanding the relations
between information technologies, theory and methodologies.
- Abstract(参考訳): 本稿では, 半自動定性データ解析(QDA)アルゴリズムを設計し, フリーウェアを用いて20文字を解析する実験を行った。
テキストマイニング (TM) とQDAは, サンプルサイズが小さければ頑健なままであり, 周波数・アソシエーション測定によって導かれた。
改良されたTMアルゴリズムは、手動で改訂された辞書に基づいてテキストを様々なサイズに分割した。
この補題化アプローチは、テキストを単一のサイズに均一にトークン化するよりも、テキストのコンテキストを反映する可能性がある。
TMは初期符号化に使用された。
コード再パッケージは、一般的な帰納的QDAアプローチを実装するために、アソシエーション対策と外部データによってガイドされた。
TMとQDAで取得した情報は、比較のためにサブグラフに描かれている。
分析は6~7日で完了した。
どちらのアルゴリズムも文脈的一貫性と関連する情報を検索する。
しかし、QDAアルゴリズムはTMのみよりも具体的な情報を検索した。
QDAアルゴリズムはTMやQDAの規則に厳密に従わないが、従来のQDAアプローチよりも効率的で体系的で透明なテキスト分析手法となる。
テキストから知識を確実に発見するためにQDAをスケールアップすることは、まさに研究目的であった。
本稿では,情報技術と理論,方法論の関係について考察する。
関連論文リスト
- QAEA-DR: A Unified Text Augmentation Framework for Dense Retrieval [12.225881591629815]
厳密な検索では、長いテキストを密度の高いベクトルに埋め込むと、情報が失われ、クエリとテキストのマッチングが不正確になる。
近年の研究では,文の埋め込みモデルや検索プロセスの改善を中心に研究が進められている。
本稿では,高密度検索のための新しいテキスト拡張フレームワークを導入し,生文書を高密度テキスト形式に変換する。
論文 参考訳(メタデータ) (2024-07-29T17:39:08Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化(英: Uncertainty Quantification、UQ)は、機械学習(ML)アプリケーションにおいて重要なコンポーネントである。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、9つのタスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も有望なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Optimizing Factual Accuracy in Text Generation through Dynamic Knowledge
Selection [71.20871905457174]
言語モデル(LM)は、私たちが情報と対話する方法に革命をもたらしたが、しばしば非現実的なテキストを生成する。
従来の手法では、外部知識をテキスト生成の参照として使用して事実性を高めるが、無関係な参照の知識の混在に苦慮することが多い。
本稿では,テキスト生成プロセスを反復処理に分割するDKGenを提案する。
論文 参考訳(メタデータ) (2023-08-30T02:22:40Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Co-Driven Recognition of Semantic Consistency via the Fusion of
Transformer and HowNet Sememes Knowledge [6.184249194474601]
本稿では,Transformer と HowNet のセメム知識の融合に基づく協調型意味的一貫性認識手法を提案する。
BiLSTMは概念的意味情報をエンコードし、意味的一貫性を推測するために利用される。
論文 参考訳(メタデータ) (2023-02-21T09:53:19Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - Augmenting Pre-trained Language Models with QA-Memory for Open-Domain
Question Answering [38.071375112873675]
質問応答型エンコーダデコーダモデルの提案と事前学習戦略について述べる。
これにより、シングルホップのQAタスクにおいて、以前のQA検索方法よりも優れたエンドツーエンドシステムが得られる。
論文 参考訳(メタデータ) (2022-04-10T02:33:00Z) - Data-QuestEval: A Referenceless Metric for Data to Text Semantic
Evaluation [33.672301484161416]
QuestEvalは、予測と構造化された入力データを直接比較し、質問や回答を自動的に行うメトリクスである。
マルチモーダルQG/QAのトレーニングを可能にする合成マルチモーダルコーポラを構築します。
基準なし、マルチモーダルで、E2EおよびWebNLGベンチマークで人間の判断と最新の相関関係を得ます。
論文 参考訳(メタデータ) (2021-04-15T16:10:46Z) - Comparative Analysis of Extreme Verification Latency Learning Algorithms [3.3439097577935213]
本稿では、EVLアルゴリズムのいくつかの弱点と強みを指摘するための総合的な調査と比較分析を行う。
この研究は、この分野の既存のアルゴリズムのレビューを研究コミュニティに提供するための、非常に最初の取り組みである。
論文 参考訳(メタデータ) (2020-11-26T16:34:56Z) - Towards Question-Answering as an Automatic Metric for Evaluating the
Content Quality of a Summary [65.37544133256499]
質問回答(QA)を用いて要約内容の質を評価する指標を提案する。
提案指標であるQAEvalの分析を通じて,QAに基づくメトリクスの実験的メリットを実証する。
論文 参考訳(メタデータ) (2020-10-01T15:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。