論文の概要: ChatHome: Development and Evaluation of a Domain-Specific Language Model
for Home Renovation
- arxiv url: http://arxiv.org/abs/2307.15290v1
- Date: Fri, 28 Jul 2023 04:04:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 13:53:56.171871
- Title: ChatHome: Development and Evaluation of a Domain-Specific Language Model
for Home Renovation
- Title(参考訳): ChatHome:住宅改修のためのドメイン特化言語モデルの開発と評価
- Authors: Cheng Wen, Xianghui Sun, Shuaijiang Zhao, Xiaoquan Fang, Liangyu Chen,
Wei Zou
- Abstract要約: ChatHomeは、複雑なホームリノベーションのために設計されたドメイン固有言語モデル(M)である。
本研究は, 高忠実度, 正確なアウトプットが得られる専用モデルを作成することで, これらの側面を再構築する試みである。
- 参考スコア(独自算出の注目度): 12.361542929759239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the development and evaluation of ChatHome, a
domain-specific language model (DSLM) designed for the intricate field of home
renovation. Considering the proven competencies of large language models (LLMs)
like GPT-4 and the escalating fascination with home renovation, this study
endeavors to reconcile these aspects by generating a dedicated model that can
yield high-fidelity, precise outputs relevant to the home renovation arena.
ChatHome's novelty rests on its methodology, fusing domain-adaptive pretraining
and instruction-tuning over an extensive dataset. This dataset includes
professional articles, standard documents, and web content pertinent to home
renovation. This dual-pronged strategy is designed to ensure that our model can
assimilate comprehensive domain knowledge and effectively address user
inquiries. Via thorough experimentation on diverse datasets, both universal and
domain-specific, including the freshly introduced "EvalHome" domain dataset, we
substantiate that ChatHome not only amplifies domain-specific functionalities
but also preserves its versatility.
- Abstract(参考訳): 本稿では,複雑な住宅改修分野を対象としたドメイン固有言語モデル(DSLM)ChatHomeの開発と評価について述べる。
GPT-4のような大規模言語モデル(LLM)の実証された能力と、住宅の改修に伴う魅力の増大を考えると、この研究は、住宅の改修アリーナに関連する高精度なアウトプットを高忠実に生成できる専用モデルを生成することによって、これらの側面の調整に努めている。
chathomeのノベルティは、広範囲なデータセットにドメイン適応型事前トレーニングと命令チューニングを取り入れて、その方法論を踏襲している。
このデータセットには、ホームリノベーションに関連する専門的な記事、標準文書、およびWebコンテンツが含まれている。
このデュアルプロンプト戦略は、当社のモデルが包括的なドメイン知識を統一し、ユーザの問い合わせに効果的に対応できるように設計されています。
新たに導入された"EvalHome"ドメインデータセットを含む、さまざまなデータセットに関する徹底的な実験により、ChatHomeはドメイン固有の機能を増幅するだけでなく、その汎用性も維持する、と断定する。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Towards Generalization on Real Domain for Single Image Dehazing via
Meta-Learning [41.99615673136883]
合成画像から得られた内部情報は、通常、実際の領域では準最適である。
本稿では,メタラーニングに基づくドメイン一般化フレームワークを提案する。
提案手法は,最先端の競争相手よりも優れた一般化能力を有する。
論文 参考訳(メタデータ) (2022-11-14T07:04:00Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Using Language to Extend to Unseen Domains [81.37175826824625]
ビジョンモデルがデプロイ時に遭遇する可能性のあるすべてのドメインのトレーニングデータを集めることは、費用がかかる。
トレーニングドメインと拡張したいが、堅牢性を改善するためのデータを持っていないドメインを、いかに単純に言葉で表現するかを考えます。
共同画像と言語埋め込み空間を備えたマルチモーダルモデルを用いて、LADSはトレーニング領域から各未確認テスト領域への画像埋め込みの変換を学習する。
論文 参考訳(メタデータ) (2022-10-18T01:14:02Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis [71.40586258509394]
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-28T21:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。