論文の概要: TweetDrought: A Deep-Learning Drought Impacts Recognizer based on
Twitter Data
- arxiv url: http://arxiv.org/abs/2212.04001v1
- Date: Wed, 7 Dec 2022 23:21:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:38:39.667049
- Title: TweetDrought: A Deep-Learning Drought Impacts Recognizer based on
Twitter Data
- Title(参考訳): TweetDrought:Twitterのデータに基づく深海干ばつの影響
- Authors: Beichen Zhang, Frank Schilder, Kelly Helm Smith, Michael J. Hayes,
Sherri Harms, Tsegaye Tadesse
- Abstract要約: 伝統的な干ばつ指標は、主に生物物理学的な変数であり、社会、経済、環境システムに影響を与えない。
我々は、変換器(BERT)に基づく変換学習から自然言語処理と双方向エンコーダ表現を利用して、モデルを微調整した。
我々のモデルはDIRテストセットで満足度の高いマクロF1スコア0.89を達成した。
- 参考スコア(独自算出の注目度): 2.071516130824992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquiring a better understanding of drought impacts becomes increasingly
vital under a warming climate. Traditional drought indices describe mainly
biophysical variables and not impacts on social, economic, and environmental
systems. We utilized natural language processing and bidirectional encoder
representation from Transformers (BERT) based transfer learning to fine-tune
the model on the data from the news-based Drought Impact Report (DIR) and then
apply it to recognize seven types of drought impacts based on the filtered
Twitter data from the United States. Our model achieved a satisfying macro-F1
score of 0.89 on the DIR test set. The model was then applied to California
tweets and validated with keyword-based labels. The macro-F1 score was 0.58.
However, due to the limitation of keywords, we also spot-checked tweets with
controversial labels. 83.5% of BERT labels were correct compared to the keyword
labels. Overall, the fine-tuned BERT-based recognizer provided proper
predictions and valuable information on drought impacts. The interpretation and
analysis of the model were consistent with experiential domain expertise.
- Abstract(参考訳): 干ばつの影響をよりよく理解するようになると、温暖な気候下ではますます重要になる。
伝統的な干ばつ指標は主に生物物理学的な変数であり、社会、経済、環境システムに影響を与えない。
我々は、Transformers (BERT) を用いたトランスフォーマーによる双方向エンコーダ表現を用いて、ニュースベースのDrought Impact Report (DIR) のデータに基づいてモデルを微調整し、米国からのフィルタリングされたTwitterデータに基づいて7種類の干ばつ影響を認識する。
DIRテストセットで満足度0.89のマクロF1スコアを得た。
モデルはカリフォルニアのツイートに適用され、キーワードベースのラベルで検証された。
マクロF1スコアは0.58。
しかし、キーワードの制限により、議論を呼んだラベルでチェックされたツイートも発見できる。
BERTラベルの83.5%はキーワードラベルと比較して正しい。
全体として、細調整されたBERTベースの認識器は、干ばつの影響について適切な予測と貴重な情報を提供した。
モデルの解釈と分析は、経験的ドメインの専門知識と一致していた。
関連論文リスト
- Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions [5.194905607116855]
この研究は、インフルエンス関数(IF)を実装して、トレーニングデータにプライバシリークをトレースする。
本稿では,大きな勾配ノルムを持つトークンの重みを減少させるHuristically Adjusted IF (HAIF)を提案する。
HAIFは追跡精度を大幅に改善し、PII-Eデータセットでは20.96%から73.71%、PII-CRデータセットでは3.21%から45.93%に向上した。
論文 参考訳(メタデータ) (2024-08-20T00:40:49Z) - A Study of Nationality Bias in Names and Perplexity using Off-the-Shelf Affect-related Tweet Classifiers [0.0]
バイアス検出のためにテンプレートや特定のデータセットに頼るのではなく、ターゲットドメインデータに小さな摂動を持つ対実例を作成します。
感情,感情,ヘイトスピーチなどの主観的分析に広く用いられている分類器について,本研究の結果は,ある国で話されている言語に関する肯定的なバイアスを示す。
論文 参考訳(メタデータ) (2024-07-01T22:17:17Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - FAIRLABEL: Correcting Bias in Labels [2.810160553339817]
ラベルのバイアスを検出し修正するアルゴリズムであるFAIRLABELを提案する。
FAIRLABELisの目標は、予測の精度を維持しつつ、グループ間での異種影響(DI)を低減することである。
論文 参考訳(メタデータ) (2023-11-01T16:38:27Z) - t-RAIN: Robust generalization under weather-aliasing label shift attacks [0.0]
自動車のマルチウェザー分類におけるラベルシフトの影響を解析する。
大規模生成モデルを用いた合成データ拡張のための類似度マッピング手法としてt-RAINを提案する。
本稿では,82.69 AP (雪) と62.31 AP (霧) が最適である実地および合成気象領域の歩行者検出結果について述べる。
論文 参考訳(メタデータ) (2023-05-15T02:05:56Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - DECK: Behavioral Tests to Improve Interpretability and Generalizability
of BERT Models Detecting Depression from Text [4.269268432906194]
テキストからうつ病を正確に検出するモデルは、パンデミック後の精神疾患に対処するための重要なツールである。
BERTベースの分類器の有望な性能と市販の可用性は、このタスクの優れた候補となる。
DeCK(Depression ChecKlist)は、抑うつ特異的なモデル行動テストで、より優れた解釈性を実現する。
論文 参考訳(メタデータ) (2022-09-12T14:39:46Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Double Perturbation: On the Robustness of Robustness and Counterfactual
Bias Evaluation [109.06060143938052]
テストデータセットを超えたモデル弱点を明らかにするための"ダブル摂動"フレームワークを提案する。
この枠組みを,モデルの頑健さと英語における反事実バイアスの分析に使用される2つの摂動に基づくアプローチに応用する。
論文 参考訳(メタデータ) (2021-04-12T06:57:36Z) - Adv-BERT: BERT is not robust on misspellings! Generating nature
adversarial samples on BERT [95.88293021131035]
しかし、悪意のある敵のインスタンスがしばしば存在するのではなく、テクトナチュラルなシナリオでモデルがどのように機能するかは定かではない。
この研究は、NLPにおける最先端のTransformerスタイルモデルであるBERTの、ノイズの多いデータを扱うための頑健さを体系的に探求する。
論文 参考訳(メタデータ) (2020-02-27T22:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。