論文の概要: Qualitative Coding Analysis through Open-Source Large Language Models: A User Study and Design Recommendations
- arxiv url: http://arxiv.org/abs/2602.18352v1
- Date: Fri, 20 Feb 2026 17:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.389746
- Title: Qualitative Coding Analysis through Open-Source Large Language Models: A User Study and Design Recommendations
- Title(参考訳): オープンソースの大規模言語モデルによる定性的符号化分析:ユーザスタディと設計勧告
- Authors: Tung T. Ngo, Dai Nguyen Van, Anh-Minh Nguyen, Phuong-Anh Do, Anh Nguyen-Quoc,
- Abstract要約: ChatQDAは、プライバシを保存するオープンコーディングのためのオープンソースのLLMをベースとしたオンデバイスフレームワークである。
我々の混合手法のユーザスタディは、参加者がシステムのユーザビリティと知覚効率を高く評価していることを示している。
検証可能なプライバシと方法論の厳密性を優先するローカルファースト分析ツールの設計勧告を締めくくる。
- 参考スコア(独自算出の注目度): 0.037282630026096594
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Qualitative data analysis is labor-intensive, yet the privacy risks associated with commercial Large Language Models (LLMs) often preclude their use in sensitive research. To address this, we introduce ChatQDA, an on-device framework powered by open-source LLMs designed for privacy-preserving open coding. Our mixed-methods user study reveals that while participants rated the system highly for usability and perceived efficiency, they exhibited "conditional trust", valuing the tool for surface-level extraction while questioning its interpretive nuance and consistency. Furthermore, despite the technical security of local deployment, participants reported epistemic uncertainty regarding data protection, suggesting that invisible security measures are insufficient to foster trust. We conclude with design recommendations for local-first analysis tools that prioritize verifiable privacy and methodological rigor.
- Abstract(参考訳): 定性的データ分析は労働集約的であるが、商業的大規模言語モデル(LLM)に関連するプライバシーリスクは、機密研究での使用を妨げることが多い。
そこで我々は,プライバシ保護型オープンコーディング用に設計されたオープンソースのLLMをベースとした,デバイス上でのChatQDAを紹介した。
筆者らの混合手法を用いたユーザスタディでは,ユーザビリティと知覚効率に高い評価が得られたが,彼らは「条件的信頼」を示し,その解釈的ニュアンスと一貫性を疑問視しながら,表面レベルの抽出ツールを評価した。
さらに、地域展開の技術的安全性にもかかわらず、参加者はデータ保護に関する疫学的な不確かさを報告し、見えないセキュリティ対策が信頼を育むには不十分であることを示唆した。
検証可能なプライバシと方法論の厳密性を優先するローカルファースト分析ツールの設計勧告を締めくくる。
関連論文リスト
- Privacy-preserving formal concept analysis: A homomorphic encryption-based concept construction [7.56423213879122]
本稿では,バイナリデータ表現と同型暗号化技術を組み合わせたプライバシ保存形式文脈分析(PFCA)フレームワークを提案する。
この方法は、プライベートデータを明らかにすることなく、セキュアで効率的な概念構築を可能にする。
これらの発見は、大規模FCAアプリケーションにおけるプライバシー保護データマイニングとセキュアな知識発見に重要な意味を持つ。
論文 参考訳(メタデータ) (2025-11-27T05:16:01Z) - Evaluating Language Model Reasoning about Confidential Information [95.64687778185703]
言語モデルが文脈的堅牢性を示すか、文脈依存型安全仕様に準拠する能力を示すかを検討する。
我々は,ユーザ要求がいつ承認されたか,言語モデルが正しく判断できるかどうかを測定するベンチマーク(PasswordEval)を開発した。
現在のオープンソースとクローズドソースのモデルでは、一見単純な作業に苦労しています。
論文 参考訳(メタデータ) (2025-08-27T15:39:46Z) - PBa-LLM: Privacy- and Bias-aware NLP using Named-Entity Recognition (NER) [45.870212237420226]
本研究では,Large Language Models(LLMs)のプライバシ保護トレーニングを容易にするために,NER(Named-Entity Recognition)の使用について検討する。
我々は,NER技術を用いて個人識別や地理的位置情報などのテキストデータ中の機密情報を匿名化するフレームワークを提案する。
この研究は2つの言語モデル(BERTとRoBERTa)と6つの匿名化アルゴリズム(Presidio、FLAIR、BERT、および異なるバージョンのGPT)を24,000の候補プロファイルのデータベースに適用した。
論文 参考訳(メタデータ) (2025-06-30T14:42:49Z) - SoK: Semantic Privacy in Large Language Models [24.99241770349404]
本稿では,大規模言語モデル(LLM)の入力処理,事前学習,微調整,アライメント段階におけるセマンティックプライバシリスクを分析するライフサイクル中心のフレームワークを提案する。
我々は、鍵攻撃ベクトルを分類し、差分プライバシー、埋め込み暗号化、エッジコンピューティング、未学習などの現在の防御がこれらの脅威にどのように対処しているかを評価する。
セマンティックリークの定量化、マルチモーダル入力の保護、生成品質との非識別性のバランス、プライバシー保護の透明性確保など、オープンな課題の概要をまとめて結論付けます。
論文 参考訳(メタデータ) (2025-06-30T08:08:15Z) - Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。