論文の概要: AI Adoption in NGOs: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2510.15509v1
- Date: Fri, 17 Oct 2025 10:22:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.575027
- Title: AI Adoption in NGOs: A Systematic Literature Review
- Title(参考訳): NGOにおけるAI導入 - 体系的な文献レビュー
- Authors: Janne Rotter, William Bailkoski,
- Abstract要約: 本研究は,NGOにおけるAI導入事例の種類を系統的に検討する。
組織の大きさと地理的コンテキストによってコンテキスト化される、共通の課題とソリューションを特定します。
我々の結果は、AIが有望である一方で、NGOの採用は不均一であり、より大きな組織に偏っていることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI has the potential to significantly improve how NGOs utilize their limited resources for societal benefits, but evidence about how NGOs adopt AI remains scattered. In this study, we systematically investigate the types of AI adoption use cases in NGOs and identify common challenges and solutions, contextualized by organizational size and geographic context. We review the existing primary literature, including studies that investigate AI adoption in NGOs related to social impact between 2020 and 2025 in English. Following the PRISMA protocol, two independent reviewers conduct study selection, with regular cross-checking to ensure methodological rigour, resulting in a final literature body of 65 studies. Leveraging a thematic and narrative approach, we identify six AI use case categories in NGOs - Engagement, Creativity, Decision-Making, Prediction, Management, and Optimization - and extract common challenges and solutions within the Technology-Organization-Environment (TOE) framework. By integrating our findings, this review provides a novel understanding of AI adoption in NGOs, linking specific use cases and challenges to organizational and environmental factors. Our results demonstrate that while AI is promising, adoption among NGOs remains uneven and biased towards larger organizations. Nevertheless, following a roadmap grounded in literature can help NGOs overcome initial barriers to AI adoption, ultimately improving effectiveness, engagement, and social impact.
- Abstract(参考訳): AIは、NGOが社会的利益のために限られたリソースをどのように活用するかを大幅に改善する可能性があるが、NGOがAIを採用する方法に関する証拠は依然として散在している。
本研究では,NGOにおけるAI導入事例の種類を体系的に検討し,組織規模や地理的文脈によって文脈化される共通課題と解決策を同定する。
我々は、2020年から2025年にかけての社会影響に関連するNGOにおけるAI導入に関する調査を含む、既存の一次文献をレビューする。
PRISMAプロトコルに従って、2人の独立したレビュアーが研究選択を行い、定期的なクロスチェックを行い、方法論的な厳密さを確保する。
テーマと物語のアプローチを活用することで、NGOの6つのAIユースケースカテゴリ – エンゲージメント、クリエイティビティ、意思決定、予測、管理、最適化 – を特定し、テクノロジ・オーガナイゼーション・環境(TOE)フレームワークで共通する課題とソリューションを抽出します。
我々の知見を統合することで、このレビューはNGOにおけるAI導入の新たな理解を提供し、特定のユースケースと課題を組織や環境要因にリンクする。
我々の結果は、AIが有望である一方で、NGOの採用は不均一であり、より大きな組織に偏っていることを示している。
それでも、文献に根ざしたロードマップに従うことで、NGOはAI導入に対する最初の障壁を克服し、最終的に効果、エンゲージメント、社会的影響を改善することができる。
関連論文リスト
- AI Adoption Across Mission-Driven Organizations [9.859437199012774]
本研究は、ミッション駆動型組織(MDO)におけるAI導入の理解に焦点を当てる。
MDOはAIを選択的に採用し、ミッションクリティカルなアプリケーションに対する人間の監視を維持しながら、コンテンツ作成とデータ分析に洗練された展開を行う。
この研究は、MDOにおけるAIの採用は必然ではなく条件として理解されるべきである、という実証的な証拠に寄与する。
論文 参考訳(メタデータ) (2025-10-04T16:28:54Z) - Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems [10.503784446147122]
大規模言語モデル(LLM)は、私たちがどのように書き、コミュニケーションし、作成するかを変える大きな可能性を示しています。
この論文は、個人や機関がこの新興技術にどのように適応し、関与しているかを調べます。
論文 参考訳(メタデータ) (2025-06-20T20:15:09Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Making Sense of AI Limitations: How Individual Perceptions Shape Organizational Readiness for AI Adoption [0.0]
本研究では,人工知能(AI)の限界に対する個人の認識が,AI導入の組織的準備にどのように影響するかを検討する。
この研究は、個々のセンスメイキング、社会学習、フォーマルな統合プロセスの間の動的相互作用を通じて、組織的準備が生まれることを明らかにしている。
論文 参考訳(メタデータ) (2025-02-21T18:31:08Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Dual Use Concerns of Generative AI and Large Language Models [0.0]
本稿では,生命科学のために設計された Dual Use Research of Concern (DURC) フレームワークを生成AIの領域に実装することを提案する。
生物学的研究における利点と欠点を実証した上で,大規模言語モデル(LLM)において,DURCの基準を効果的に再定義できると考えている。
我々は、DURCフレームワークを採用する際に課せられるバランスを認め、生成的AIの影響に対する社会的認識を高める上で、その重要な政治的役割を強調した。
論文 参考訳(メタデータ) (2023-05-13T10:08:57Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。