論文の概要: Automatic Domain Adaptation Outperforms Manual Domain Adaptation for
Predicting Financial Outcomes
- arxiv url: http://arxiv.org/abs/2006.14209v1
- Date: Thu, 25 Jun 2020 07:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:56:24.790336
- Title: Automatic Domain Adaptation Outperforms Manual Domain Adaptation for
Predicting Financial Outcomes
- Title(参考訳): 自動ドメイン適応による財務成果予測のための手動ドメイン適応
- Authors: Marina Sedinkina, Nikolas Breitkopf, Hinrich Sch\"utze
- Abstract要約: 自動適応型感情辞書は,収益率とボラティリティを過大に予測する上で,過去の技術状況よりも優れていることを示す。
分析の結果,単語の意味に関する先験的信念に基づく注釈は誤りであることがわかった。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we automatically create sentiment dictionaries for predicting
financial outcomes. We compare three approaches: (I) manual adaptation of the
domain-general dictionary H4N, (ii) automatic adaptation of H4N and (iii) a
combination consisting of first manual, then automatic adaptation. In our
experiments, we demonstrate that the automatically adapted sentiment dictionary
outperforms the previous state of the art in predicting the financial outcomes
excess return and volatility. In particular, automatic adaptation performs
better than manual adaptation. In our analysis, we find that annotation based
on an expert's a priori belief about a word's meaning can be incorrect --
annotation should be performed based on the word's contexts in the target
domain instead.
- Abstract(参考訳): 本稿では,財務成果を予測するための感情辞書を自動作成する。
我々は3つのアプローチを比較する: (I) ドメイン一般辞書H4Nのマニュアル適応
(II)H4NとH4Nの自動適応
(iii)第1マニュアルからなり、その後自動適応。
提案実験では, 自動適応型感情辞書が, 金銭的利益とボラティリティの予測において, 先行技術よりも優れていることを示す。
特に、自動適応は手動適応よりも優れている。
本分析では,単語の意味に対する専門家の先入観に基づく注釈は誤りであり,その代わりに対象ドメインにおける単語の文脈に基づいて注釈を行う必要がある。
関連論文リスト
- Aligning Large Language Models via Self-Steering Optimization [78.42826116686435]
本稿では,高品質な選好信号を自律的に生成するアルゴリズムであるSelf-Steering Optimization(SSO$)を紹介する。
SSO$は、選択された応答と拒否された応答の間に一貫したギャップを確保することで、信号の精度を維持する。
我々は、Qwen2とLlama3.1という2つの基礎モデルを用いて、$SSO$の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T16:04:03Z) - Quality and Efficiency of Manual Annotation: Pre-annotation Bias [1.949293198748152]
この実験の目的は、事前アノテーションを用いた場合の最終的なアノテーション品質を判断することである。
実験により、事前アノテーションはより高速な手動構文アノテーションのための効率的なツールであることが確認された。
論文 参考訳(メタデータ) (2023-06-15T17:41:14Z) - Soft Alignment Objectives for Robust Adaptation of Language Generation [0.2578242050187029]
ドメイン適応により、生成言語モデルは、アプリケーションのドメインシフトによって引き起こされる特定の欠陥に対処できる。
ドメイン内のデータに対するさらなるトレーニングによる従来の適応は、モデルが他のドメインに一般化する能力を急速に弱める。
この研究は、予測トークンと参照とのセマンティックな類似性に基づいて構築された、新しいトレーニング目標を導入する。
論文 参考訳(メタデータ) (2022-11-29T19:23:04Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - Improving both domain robustness and domain adaptability in machine
translation [69.15496930090403]
ニューラルネットワーク翻訳におけるドメイン適応の2つの問題に対処する。
まず、トレーニングデータからドメインの堅牢性、すなわち両方のドメインの品質に到達したいと考えています。
第二に、システムに適応性を持たせること、つまり、数百のドメイン内並列文でシステムを微調整できるようにすることが望まれます。
論文 参考訳(メタデータ) (2021-12-15T17:34:59Z) - Improving Text Auto-Completion with Next Phrase Prediction [9.385387026783103]
我々の戦略は、Next Phrase Prediction (NPP)と呼ばれる新しい自己指導型トレーニング目標を含む。
予備実験により,メールや学術書記ドメインの自動補完において,本手法がベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2021-09-15T04:26:15Z) - TADA: Taxonomy Adaptive Domain Adaptation [143.68890984935726]
伝統的なドメイン適応は、限られた監督の下で新しいターゲットドメインにモデルを適応させるタスクに対処する。
より一般的な分類適応型ドメイン適応問題を導入し、両者の整合性を実現する。
ラベルレベルでは、ターゲット領域を拡大するための二元混合サンプリング戦略と、ラベル空間を統一・整合させるリラベリング手法を用いる。
論文 参考訳(メタデータ) (2021-09-10T11:58:56Z) - S4T: Source-free domain adaptation for semantic segmentation via
self-supervised selective self-training [14.086066389856173]
我々は、セマンティックセグメンテーションのためのソースフリードメイン適応に焦点を当て、そこでは、未ラベルのターゲットデータのみを前提として、ソースモデルが新たなターゲットドメインに適応しなければならない。
本稿では,まず,各対象画像の多様なビューにまたがる画素レベルの予測一貫性と,画素予測を信頼あるいは信頼できないものとして分類するためのモデル信頼度を利用する,ソースフリー適応アルゴリズムであるSelf-Supervised Selective Self-Training (S4T)を提案する。
S4Tは、単一の適応のエポック内でセマンティックセグメンテーションのための3つの標準ベンチマークに対して、ソースフリー適応の最先端を一致または改善する。
論文 参考訳(メタデータ) (2021-07-21T15:18:01Z) - Domain Adversarial Fine-Tuning as an Effective Regularizer [80.14528207465412]
自然言語処理(NLP)では、下流タスクに転送される事前訓練された言語モデル(LM)が、最先端の結果を得るために最近示されている。
標準的な微調整は、事前トレーニング中にキャプチャされた汎用ドメイン表現を分解することができる。
本稿では,新しい正規化手法である After; 有効正規化器としてのドメイン・アダクショナル・ファイン・チューニングを提案する。
論文 参考訳(メタデータ) (2020-09-28T14:35:06Z) - Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain
Adaptive Semantic Segmentation [49.295165476818866]
本稿では、意味的セグメンテーションの文脈において、ソースドメインからターゲットドメインへの知識伝達の教師なし領域適応に焦点を当てる。
既存のアプローチでは、通常、擬似ラベルを未ラベルのターゲットドメインデータを完全に活用するための基礎的真理とみなす。
本稿では,擬似ラベル学習の修正のために,学習中の予測の不確かさを明示的に推定することを提案する。
論文 参考訳(メタデータ) (2020-03-08T12:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。