論文の概要: A Recipe For Building a Compliant Real Estate Chatbot
- arxiv url: http://arxiv.org/abs/2410.10860v1
- Date: Mon, 07 Oct 2024 16:03:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:11:08.614269
- Title: A Recipe For Building a Compliant Real Estate Chatbot
- Title(参考訳): コンプライアントなリアルエステート・チャットボットを作るためのレシピ
- Authors: Navid Madani, Anusha Bagalkotkar, Supriya Anand, Gabriel Arnson, Rohini Srihari, Kenneth Joseph,
- Abstract要約: 本稿では, 安全データとともに, 汎用学習データセットを合成する手法を提案する。
我々は,ラマ-3-8Bインストラクタモデルを微調整し,その性能を著しく向上できることを実証した。
我々は、コミュニティにおけるさらなる開発と研究を支援するために、モデル、データ、コードをオープンソースにしています。
- 参考スコア(独自算出の注目度): 4.538121280247506
- License:
- Abstract: In recent years, there has been significant effort to align large language models with human preferences. This work focuses on developing a chatbot specialized in the real estate domain, with an emphasis on incorporating compliant behavior to ensure it can be used without perpetuating discriminatory practices like steering and redlining, which have historically plagued the real estate industry in the United States. Building on prior work, we present a method for generating a synthetic general instruction-following dataset, along with safety data. Through extensive evaluations and benchmarks, we fine-tuned a llama-3-8B-instruct model and demonstrated that we can enhance it's performance significantly to match huge closed-source models like GPT-4o while making it safer and more compliant. We open-source the model, data and code to support further development and research in the community.
- Abstract(参考訳): 近年,大規模言語モデルと人間の嗜好を結びつける取り組みが盛んに行われている。
この研究は、不動産分野に特化したチャットボットの開発に重点を置いており、アメリカ合衆国で歴史的に不動産業界を悩ませてきたステアリングやリライニングのような差別的慣行を永続させることなく、その使用を可能にするために、従順な振る舞いを取り入れることに重点を置いている。
先行研究に基づいて, 安全データとともに, 総合学習データセットを生成する手法を提案する。
広範囲な評価とベンチマークにより,LLMA-3-8Bインストラクタモデルを微調整し,GPT-4oのような巨大なクローズソースモデルに適合し,安全性と適合性を高めた。
我々は、コミュニティにおけるさらなる開発と研究を支援するために、モデル、データ、コードをオープンソースにしています。
関連論文リスト
- SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Large Language Model for Verilog Generation with Golden Code Feedback [29.135207235743795]
本研究は,ゴールドコードフィードバックを用いた強化学習を利用して,事前学習モデルの性能を向上させる手法を提案する。
我々は、最先端のSOTA(State-of-the-art)の結果をかなりの差で達成した。特に、我々の6.7Bパラメータモデルは、現行の13Bモデルと16Bモデルと比較して優れた性能を示している。
論文 参考訳(メタデータ) (2024-07-21T11:25:21Z) - The Collection of a Human Robot Collaboration Dataset for Cooperative Assembly in Glovebox Environments [2.30069810310356]
産業4.0は、製造プロセスの近代化のための変革的ソリューションとしてAIを導入した。その後継である産業5.0は、AI駆動ソリューションを導くために、人間を協力者と専門家として想定している。
新しい技術は、共同組み立て中にシーン、特に手の位置を安全かつリアルタイムに識別できるアルゴリズムを必要とする。
このデータセットは、産業的な人間のコラボレーションシナリオにおいて、手動と手袋のセグメンテーションに向けたアプリケーションを構築する上で、1200の難しい例を提供します。
論文 参考訳(メタデータ) (2024-07-19T19:56:53Z) - Data-Juicer Sandbox: A Comprehensive Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは包括的な実験プラットフォームを提供し、データとモデルの両方の迅速なイテレーションと洞察駆動による改善を可能にする。
また、徹底的なベンチマークから得られた実りある洞察を明らかにし、データ品質、多様性、モデル行動の間の重要な相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Safer-Instruct: Aligning Language Models with Automated Preference Data [20.177660013450176]
人間のフィードバックからの強化学習は、言語モデルにおけるモデル能力を高めるための重要な戦略である。
大規模嗜好データを自動的に構築する新しいパイプラインであるSafer-Instructを提案する。
提案手法は, 高精度な選好データを生成するために, 逆命令チューニング, 命令誘導, エキスパートモデル評価を利用する。
論文 参考訳(メタデータ) (2023-11-15T04:22:22Z) - Modeling Legal Reasoning: LM Annotation at the Edge of Human Agreement [3.537369004801589]
我々は法学哲学に基づく法学推論の分類について研究する。
我々は、ドメインの専門家チームによって注釈付けされた、アメリカ合衆国最高裁判所の歴史的意見の新しいデータセットを使用します。
生成モデルは、人間のアノテーションに提示される命令と同等の命令が与えられた場合、性能が良くないことがわかった。
論文 参考訳(メタデータ) (2023-10-27T19:27:59Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - How Far Can Camels Go? Exploring the State of Instruction Tuning on Open
Resources [117.6496550359768]
この研究は、オープンな命令追従データセットにおける命令チューニング言語モデルの最近の進歩を探求する。
我々は、12の命令データセットに基づいて訓練された6.7Bから65Bのパラメータを含む、命令調整されたモデルの大規模なセットを提供する。
それらの事実的知識、推論、多言語性、コーディング、そしてその後に続くオープン・エンド・インストラクションに基づいて評価する。
論文 参考訳(メタデータ) (2023-06-07T19:59:23Z) - GEO-Bench: Toward Foundation Models for Earth Monitoring [139.77907168809085]
6つの分類と6つのセグメンテーションタスクからなるベンチマークを提案する。
このベンチマークは、さまざまな地球観測タスクの進行の原動力となる。
論文 参考訳(メタデータ) (2023-06-06T16:16:05Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Developing and Validating Semi-Markov Occupancy Generative Models: A
Technical Report [2.389598109913753]
本稿では、商業ビルにおけるゾーンレベルの占有数と占有数のシーケンスを生成するための、不均一なセミマルコフ連鎖モデルの開発と検証について述べる。
実際のデータセットは、生成的占有モデルを学び、検証するために使用される。
論文 参考訳(メタデータ) (2021-12-21T11:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。