論文の概要: Generative Artificial Intelligence in Qualitative Research Methods: Between Hype and Risks?
- arxiv url: http://arxiv.org/abs/2511.08461v1
- Date: Wed, 12 Nov 2025 01:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.824845
- Title: Generative Artificial Intelligence in Qualitative Research Methods: Between Hype and Risks?
- Title(参考訳): 質的研究手法における生成的人工知能 : ハイプとリスクの関係
- Authors: Maria Couto Teixeira, Marisa Tschopp, Anna Jobin,
- Abstract要約: 本稿では,定性的符号化手法の文脈における生成的AI(genAI)の役割を批判的に問う。
広汎な誇大広告や効率のクレームにもかかわらず、質的な問合せにおいてGenAIは方法論的に有効ではないことを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Artificial Intelligence (AI) is increasingly promoted and used in qualitative research, it also raises profound methodological issues. This position paper critically interrogates the role of generative AI (genAI) in the context of qualitative coding methodologies. Despite widespread hype and claims of efficiency, we propose that genAI is not methodologically valid within qualitative inquiries, and its use risks undermining the robustness and trustworthiness of qualitative research. The lack of meaningful documentation, commercial opacity, and the inherent tendencies of genAI systems to produce incorrect outputs all contribute to weakening methodological rigor. Overall, the balance between risk and benefits does not support the use of genAI in qualitative research, and our position paper cautions researchers to put sound methodology before technological novelty.
- Abstract(参考訳): 人工知能(AI)は、定性的研究の推進と利用が進むにつれて、深い方法論的問題を提起する。
本稿では,定性的符号化手法の文脈における生成的AI(genAI)の役割を批判的に問う。
本研究は,広汎な誇大広告や効率のクレームにもかかわらず,質的調査においてGenAIは方法論的に有効ではなく,質的研究の堅牢性や信頼性を損なうリスクを負うことを示唆する。
意味のあるドキュメントの欠如、商業的不透明さ、不正なアウトプットを生成するgenAIシステムの本質的な傾向は、いずれも方法論的厳密さの弱体化に寄与する。
全体として、リスクと利益のバランスは、質的研究におけるgenAIの使用を支えていない。
関連論文リスト
- The Verification Crisis: Expert Perceptions of GenAI Disinformation and the Case for Reproducible Provenance [47.03825808787752]
本稿では,AI研究者,政策立案者,偽情報専門家による縦断的専門家意識調査(N=21)の第1波から得られた知見について述べる。
テキスト、画像、オーディオ、ビデオといったマルチモーダルな脅威の重大さを調査し、現在の緩和戦略を評価する。
その結果、ディープフェイクビデオは即時「衝撃」の値を示す一方で、大規模テキスト生成は「印象的断片化」のシステム的リスクをもたらすことが示された。
論文 参考訳(メタデータ) (2026-02-02T13:45:12Z) - Not Everything That Counts Can Be Counted: A Case for Safe Qualitative AI [2.943914288677608]
我々は、解釈研究のためにゼロから構築された定性的なAIシステムを開発することについて論じる。
我々は、既存の自動発見パイプラインが堅牢な質的能力によってどのように拡張されるかを示す最近の文献をレビューする。
論文 参考訳(メタデータ) (2025-11-12T13:36:58Z) - Development and Benchmarking of a Blended Human-AI Qualitative Research Assistant [1.170789976854236]
MuseはAIを使ったインタラクティブな質的研究システムだ。
十分に特定されたコードに対して、MuseとCohenの$0.71の人間の間には、ラッター間の信頼性がある。
また、障害モードを特定し、将来の改善をガイドし、人間のバイアスを修正する能力を示すために、堅牢なエラー解析も行います。
論文 参考訳(メタデータ) (2025-10-14T21:17:34Z) - A Review of Generative AI in Computer Science Education: Challenges and Opportunities in Accuracy, Authenticity, and Assessment [2.1891582280781634]
本稿では、コンピュータサイエンス教育におけるChatGPTやClaudeといったジェネレーティブAIツールの利用について調査する。
ジェネレーティブAIは、AI幻覚、エラーの伝播、バイアス、AI支援コンテンツと学生認可コンテンツの間のぼやけた線などの懸念を提起する。
論文 参考訳(メタデータ) (2025-06-17T19:20:58Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Navigating Ethical Challenges in Generative AI-Enhanced Research: The ETHICAL Framework for Responsible Generative AI Use [0.0]
生成人工知能(GenAI)の急速な普及は、機会と倫理的課題の両方を提示する。
本稿では、研究におけるGenAIの責任を負うための実践的ガイドであるETHICALフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-11T05:49:11Z) - Evaluating Generative AI-Enhanced Content: A Conceptual Framework Using Qualitative, Quantitative, and Mixed-Methods Approaches [0.0]
Generative AI(GenAI)は、コンテント生成に革命をもたらし、言語コヒーレンス、可読性、全体的な品質を改善するためのトランスフォーメーション機能を提供する。
本論文は,GenAIモデルの性能評価のための定性的,定量的,混合方法論の研究アプローチの応用を探求する。
論文 参考訳(メタデータ) (2024-11-26T23:34:07Z) - Generative AI in Health Economics and Outcomes Research: A Taxonomy of Key Definitions and Emerging Applications, an ISPOR Working Group Report [12.204470166456561]
ジェネレーティブAIは、健康経済学と成果研究(HEOR)において大きな可能性を秘めている
生成AIは、HEORに大きな可能性を示し、効率性、生産性を高め、複雑な課題に対する新しいソリューションを提供する。
ファウンデーションモデルは複雑なタスクを自動化する上で有望だが、科学的信頼性、バイアス、解釈可能性、ワークフローの統合には課題が残っている。
論文 参考訳(メタデータ) (2024-10-26T15:42:50Z) - Generative AI Tools in Academic Research: Applications and Implications for Qualitative and Quantitative Research Methodologies [0.0]
本研究では,生成人工知能(GenAI)が学術研究に与える影響について検討し,質的・定量的データ分析への応用に焦点をあてる。
GenAIツールは急速に進化し、研究の生産性を高め、複雑な分析プロセスを民主化するための新たな可能性を提供する。
学術的実践への統合は、研究の完全性、セキュリティ、著作家精神、そして学術作品の変化する性質に関する重要な疑問を提起する。
論文 参考訳(メタデータ) (2024-08-13T13:10:03Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。