論文の概要: Who is more ready to get back in shape?
- arxiv url: http://arxiv.org/abs/2012.09617v1
- Date: Mon, 30 Nov 2020 15:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:39:25.860206
- Title: Who is more ready to get back in shape?
- Title(参考訳): 誰が形に戻る準備ができていますか。
- Authors: Rajius Idzalika
- Abstract要約: 本研究は,2013年のカンボジア大洪水の前後でレジリエンス(適応能力)を推定する。
約120万マイクロファイナンス機関(MFI)の顧客データを使用し、教師なし学習手法を実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This empirical study estimates resilience (adaptive capacity) around the
periods of the 2013 heavy flood in Cambodia. We use nearly 1.2 million
microfinance institution (MFI) customer data and implement the unsupervised
learning method. Our results highlight the opportunity to develop resilience by
having a better understanding of which areas are likely to be more or less
resilient based on the characteristics of the MFI customers, and the individual
choices or situations that support stronger adaptiveness. We also discuss the
limitation of this approach.
- Abstract(参考訳): この実証的研究は、2013年のカンボジア大洪水の前後でレジリエンス(適応能力)を推定する。
約120万マイクロファイナンス機関(MFI)の顧客データを使用し、教師なし学習手法を実装した。
以上の結果から,mfi顧客の特性や,適応性が向上する個々の選択や状況に基づいて,どの領域がレジリエントであるかをよりよく理解することで,レジリエンスを育む機会が浮き彫りになった。
このアプローチの限界についても論じる。
関連論文リスト
- How to Leverage Predictive Uncertainty Estimates for Reducing Catastrophic Forgetting in Online Continual Learning [12.33899500566626]
この研究は、異なる不確実性推定とメモリの投入戦略を詳細に分析する。
負の対数類似度によって誘導される一般化分散を用いて予測の不確かさを推定する別の方法を提案する。
予測不確実性対策を用いることで, CFを異なる設定で低減できることが実証された。
論文 参考訳(メタデータ) (2024-07-10T13:51:15Z) - Can Learned Optimization Make Reinforcement Learning Less Difficult? [70.5036361852812]
学習の最適化が強化学習の難しさを克服するのに役立つかどうかを検討する。
本稿では, 塑性, 探索および非定常性のための学習最適化手法(OPEN)を用いて, 入力特性と出力構造がこれらの困難に対して予め提案された情報によって通知される更新規則をメタラーニングする。
論文 参考訳(メタデータ) (2024-07-09T17:55:23Z) - Unpacking DPO and PPO: Disentangling Best Practices for Learning from Preference Feedback [110.16220825629749]
嗜好フィードバックからの学習は、現代言語モデルの生成品質と性能を改善するための重要なステップとして現れてきた。
本研究では、嗜好データ、学習アルゴリズム、報酬モデル、政策訓練プロンプトという、嗜好に基づく学習の4つの側面を特定する。
以上の結果から,すべての側面がパフォーマンス上重要であることが示唆された。
論文 参考訳(メタデータ) (2024-06-13T16:17:21Z) - Adaptation with Self-Evaluation to Improve Selective Prediction in LLMs [56.526095828316386]
大規模言語モデル(LLM)の選択予測性能を改善するために,自己評価による適応のための新しいフレームワークを提案する。
提案手法は,様々な質問応答(QA)データセット上で評価し,最先端の選択的予測手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T03:34:59Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Feeding What You Need by Understanding What You Learned [54.400455868448695]
Machine Reading (MRC)は、与えられたテキストパスを理解し、それに基づいて質問に答える機能を明らかにする。
MRCの既存の研究は、Exact Matchのようなメトリクスによって評価されたパフォーマンスを改善するために、大規模なモデルとコーパスに大きく依存している。
モデル機能とデータ特性の深い理解は、適切なトレーニングデータでモデルをフィードするのに役立ちます。
論文 参考訳(メタデータ) (2022-03-05T14:15:59Z) - Can Interpretable Reinforcement Learning Manage Assets Your Way? [0.0]
マシンラーニングは、顧客のニーズや好みを深く理解し、調整する、という約束を守ります。
我々は、本質的に解釈可能な強化学習エージェントを訓練し、プロトタイプの財務的性格特性に合わせた投資アドバイスを行う。
我々は、訓練されたエージェントのアドバイスが、意図した特性に固執していること、そして、明確な言及なしに、リスクの概念と、政策の収束性の改善を観察する。
論文 参考訳(メタデータ) (2022-02-18T07:59:08Z) - Addressing the Long-term Impact of ML Decisions via Policy Regret [49.92903850297013]
意思決定者が腕を引っ張るたびに、各腕からの報酬が進化する状況について検討する。
我々は、許容可能な機会の逐次配分は、成長の可能性を考慮に入れなければならないと論じている。
十分に長い時間的地平線に対して、確実にサブ線形ポリシーを後悔するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:38:10Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。