論文の概要: Meta-learning an Intermediate Representation for Few-shot Block-wise
Prediction of Landslide Susceptibility
- arxiv url: http://arxiv.org/abs/2110.04922v1
- Date: Sun, 3 Oct 2021 05:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 05:12:19.253834
- Title: Meta-learning an Intermediate Representation for Few-shot Block-wise
Prediction of Landslide Susceptibility
- Title(参考訳): 地すべり感受性のブロックワイズ予測のための中間表現のメタラーニング
- Authors: Li Chen, Yulin Ding, Han Hu, Qing Zhu, Haowei Zeng, Haojia Yu, Qisen
Shang, Yongfei Song
- Abstract要約: 現在の手法では, 対象地域全体に対する地すべり感受性マップ(LSM)の予測に, 単一の大域的モデルを適用するのが一般的である。
複雑な状況下では、各地域は異なる地すべり発生環境を有しており、したがって各モデルで個別に予測されるべきである。
我々はメタラーニングパラダイムによる中間表現を学習し、LSMタスクから情報を取り出すのに優れている。
- 参考スコア(独自算出の注目度): 12.299036699550374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting a landslide susceptibility map (LSM) is essential for risk
recognition and disaster prevention. Despite the successful application of
data-driven prediction approaches, current data-driven methods generally apply
a single global model to predict the LSM for an entire target region. However,
we argue that, in complex circumstances, especially in large-scale areas, each
part of the region holds different landslide-inducing environments, and
therefore, should be predicted individually with respective models. In this
study, target scenarios were segmented into blocks for individual analysis
using topographical factors. But simply conducting training and testing using
limited samples within each block is hardly possible for a satisfactory LSM
prediction, due to the adverse effect of \textit{overfitting}. To solve the
problems, we train an intermediate representation by the meta-learning
paradigm, which is superior for capturing information from LSM tasks in order
to generalize proficiently. We chose this based on the hypothesis that there
are more general concepts among LSM tasks that are sensitive to variations in
input features. Thus, using the intermediate representation, we can easily
adapt the model for different blocks or even unseen tasks using few exemplar
samples. Experimental results on two study areas demonstrated the validity of
our block-wise analysis in large scenarios and revealed the top few-shot
adaption performances of the proposed methods.
- Abstract(参考訳): 地すべり感受性マップ (LSM) の予測は, リスク認識と防災に不可欠である。
データ駆動予測手法が成功したにもかかわらず、現在のデータ駆動手法は一般的に、ターゲット領域全体のLSMを予測するために単一のグローバルモデルを適用する。
しかし, 複雑な状況, 特に大規模地域では, 各地域は異なる地すべり発生環境を有しており, それぞれのモデルで個別に予測すべきである,と論じる。
本研究では, 対象シナリオを, 地形因子を用いた個別分析のためのブロックに分割した。
しかし、単に各ブロック内で限られたサンプルを使用してトレーニングとテストを行うだけでは、textit{overfitting} の悪影響のため、十分な LSM 予測ができない。
そこで本研究では, lsmタスクから情報を取り出すのに優れたメタ学習パラダイムを用いて中間表現を訓練し, 熟達度の向上を図る。
我々は、入力特徴の変化に敏感なLSMタスクには、より一般的な概念が存在するという仮説に基づいてこれを選択した。
したがって、中間表現を用いることで、モデルを異なるブロックに適応したり、模範的なサンプルがほとんどないタスクに適応させることができる。
2つの実験領域における実験結果から,大規模シナリオにおけるブロックワイズ解析の有効性が示され,提案手法の最大数ショット適応性能が明らかにされた。
関連論文リスト
- Leveraging Task-Specific Knowledge from LLM for Semi-Supervised 3D Medical Image Segmentation [9.778201925906913]
LLM-SegNetは大規模言語モデル(LLM)を利用してタスク固有の知識を協調学習フレームワークに統合する。
一般公開されているLeft Atrium、Pancreas-CT、Brats-19データセットの実験は、最先端技術と比較してLLM-SegNetの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-06T14:23:16Z) - Supervised Fine-Tuning as Inverse Reinforcement Learning [8.044033685073003]
LLM(Large Language Models)の整合性に対する一般的なアプローチは、一般的に人間やAIのフィードバックに依存します。
本研究では,このようなデータセットの有効性に疑問を呈し,専門家による実演との整合性がより現実的であることを証明した様々なシナリオを探索する。
論文 参考訳(メタデータ) (2024-03-18T17:52:57Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Learning Invariant Representation with Consistency and Diversity for
Semi-supervised Source Hypothesis Transfer [46.68586555288172]
本稿では,SSHT(Semi-supervised Source hypothesis Transfer)という新たなタスクを提案する。
本研究では、ランダムに拡張された2つの未ラベルデータ間の予測整合性を容易にし、SSHTの簡易かつ効果的なフレームワークである一貫性と多様性の学習(CDL)を提案する。
実験の結果,本手法は,DomainNet,Office-Home,Office-31データセット上で,既存のSSDA手法や教師なしモデル適応手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-07T04:14:24Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。