論文の概要: A Proposed Framework for the Comprehensive Scalability Assessment of
ICTD Projects
- arxiv url: http://arxiv.org/abs/2108.09756v1
- Date: Sun, 22 Aug 2021 15:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 19:04:08.866893
- Title: A Proposed Framework for the Comprehensive Scalability Assessment of
ICTD Projects
- Title(参考訳): ICTDプロジェクトの総合的スケーラビリティ評価のためのフレームワークの提案
- Authors: Gugulethu Baduza and Caroline Khene
- Abstract要約: ICTDプロジェクトのスケーラビリティは、この分野では無視されている必須のトピックである。
本研究では,システム理論と増幅理論を用いたCSAF(Comprehensive Scalability Assessment Framework)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The scalability of ICTD projects is an imperative topic that has been
neglected in the field. Little has been written or investigated about the
assessment of the scalability of ICTD projects due to factors, such as the lack
of proven business models for success, the high failure rate of projects,
undefined aspects of assessment, and the small number of projects that have
scaled. Therefore, there are various factors that should be taken into
consideration to alleviate the challenges experienced in the process of scaling
up. This research study is guided by an investigation into how can the
scalability of an ICTD project be assessed using a comprehensive evaluation
approach that considers the impact and potential sustainability of the project.
This research study proposes a Comprehensive Scalability Assessment Framework
(CSAF), using systems theory and amplification theory to guide the theoretical
analysis and empirical investigation. A theorizing approach is used to develop
the framework, which is structured around three components: assessment
guidelines and proceeding domains of evaluation; four scalability themes
(stakeholder composition, models feasibility, resources sustainability and
resilience) and judge scalability.
- Abstract(参考訳): ICTDプロジェクトのスケーラビリティは、この分野では無視されてきた必須トピックである。
ictdプロジェクトのスケーラビリティ評価について、成功のための実績のあるビジネスモデルの欠如、プロジェクトの失敗率の高まり、評価の未定義な側面、スケールしたプロジェクトの少なさといった要因によって書かれたり、調査されたりすることはほとんどない。
したがって、スケールアッププロセスで経験した課題を軽減するために考慮すべき要因は様々である。
本研究は、ICTDプロジェクトのスケーラビリティを、プロジェクトのインパクトと潜在的持続可能性を考慮した総合的な評価手法を用いて評価する方法に関する調査によって導かれる。
本研究では,システム理論と増幅理論を用いた総合的拡張性評価フレームワーク(CSAF)を提案する。
フレームワークの開発には,評価ガイドラインと評価の進行領域,4つの拡張性テーマ(ステークホルダ構成,モデルの実現性,リソース持続可能性,レジリエンス),スケーラビリティの判断という,3つのコンポーネントで構成されている。
関連論文リスト
- A Survey of Event Causality Identification: Principles, Taxonomy, Challenges, and Assessment [6.492836595169771]
事象因果同定(ECI)は自然言語処理(NLP)において重要な課題となっている。
本分類法は文レベル(SECI)と文書レベルの事象因果同定(DECI)の2つの主要なタスクに従ってECIの手法を分類する。
論文 参考訳(メタデータ) (2024-11-15T17:19:42Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - StructEval: Deepen and Broaden Large Language Model Assessment via Structured Evaluation [46.59416831869014]
本稿では,StructEvalと呼ばれる新しい評価フレームワークを提案する。
原子テストの目的から始めて、StructEvalは、複数の認知レベルと批判的概念にまたがって構造化された評価を行うことによって、評価をさらに深め、拡張する。
広く使用されている3つのベンチマークの実験は、StructEvalがデータ汚染のリスクに抵抗する信頼性の高いツールであることを示している。
論文 参考訳(メタデータ) (2024-08-06T16:28:30Z) - Beyond Metrics: A Critical Analysis of the Variability in Large Language Model Evaluation Frameworks [3.773596042872403]
大規模言語モデル(LLM)は進化を続けており、堅牢で標準化された評価ベンチマークの必要性が最重要である。
さまざまなフレームワークがこの分野への注目すべき貢献として現れ、包括的な評価テストとベンチマークを提供している。
本稿では,これらの評価手法の探索と批判的分析を行い,その強度,限界,および自然言語処理における最先端の進展に対する影響について述べる。
論文 参考訳(メタデータ) (2024-07-29T03:37:14Z) - Evaluating Human-AI Collaboration: A Review and Methodological Framework [4.41358655687435]
人間-AIコラボレーション(Human-AI Collaboration、HAIC)として知られる個人との作業環境における人工知能(AI)の利用が不可欠である。
HAICの有効性を評価することは、関連するコンポーネントの複雑な相互作用のため、依然として困難である。
本稿では,既存のHAIC評価手法を詳細に分析し,これらのシステムをより効果的に評価するための新しいパラダイムを開発する。
論文 参考訳(メタデータ) (2024-07-09T12:52:22Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing [61.98556945939045]
収集された軌道上でのDPO(Direct Preference Optimization)を通して計画に基づく推論を学習するフレームワークを提案する。
論理的推論ベンチマークの挑戦的な結果から,学習フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2024-02-01T15:18:33Z) - Evaluating General-Purpose AI with Psychometrics [43.85432514910491]
本稿では,大規模言語モデルなどの汎用AIシステムの包括的かつ正確な評価の必要性について論じる。
現在の評価手法は、主に特定のタスクのベンチマークに基づいており、これらの汎用AIシステムを適切に評価するには不十分である。
これらの課題に対処するため,タスク指向評価から構成指向評価への移行を提案する。
論文 参考訳(メタデータ) (2023-10-25T05:38:38Z) - Geometric Deep Learning for Structure-Based Drug Design: A Survey [83.87489798671155]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
近年の幾何学的深層学習の進歩は、3次元幾何学的データを効果的に統合・処理し、この分野を前進させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。