論文の概要: Acquisition and Representation of User Preferences Guided by an Ontology
- arxiv url: http://arxiv.org/abs/2201.03824v1
- Date: Tue, 11 Jan 2022 08:09:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 14:20:30.058706
- Title: Acquisition and Representation of User Preferences Guided by an Ontology
- Title(参考訳): オントロジーによるユーザ嗜好の獲得と表現
- Authors: Rahma Dandan, Sylvie Despres, Karima Sedki
- Abstract要約: 我々はOWL2で表現されたドメインオントロジーを用いて、形式主義CP-Netにおける好みの獲得と表現を支援するアプローチを採用する。
好みの獲得と表現は、大学キャンティーンの分野で実施されている。
- 参考スコア(独自算出の注目度): 0.4874780144224056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our food preferences guide our food choices and in turn affect our personal
health and our social life. In this paper, we adopt an approach using a domain
ontology expressed in OWL2 to support the acquisition and representation of
preferences in formalism CP-Net. Specifically, we present the construction of
the domain ontology and questionnaire design to acquire and represent the
preferences. The acquisition and representation of preferences are implemented
in the field of university canteen. Our main contribution in this preliminary
work is to acquire preferences and enrich the model preferably with domain
knowledge represented in the ontology.
- Abstract(参考訳): 私たちの食物選好は、食べ物の選択を導き、個人の健康や社会生活に影響を与えます。
本稿では,形式主義CP-Netにおける嗜好の獲得と表現を支援するためにOWL2で表現されたドメインオントロジーを用いたアプローチを採用する。
具体的には,ドメインオントロジーとアンケート設計を構築し,好みの獲得と表現を行う。
好みの獲得と表現は大学キャンティーンの分野で実施される。
この予備作業における私たちの大きな貢献は、優先権を取得し、オントロジーで表現されたドメイン知識を好ましくはモデルを強化することです。
関連論文リスト
- LRHP: Learning Representations for Human Preferences via Preference Pairs [45.056558199304554]
本研究では、よりリッチで構造化された人間の嗜好表現を構築することを目的とした嗜好表現学習タスクを提案する。
選好データ選択と選好マージン予測という2つの下流タスクにおける選好表現の有用性を検証する。
論文 参考訳(メタデータ) (2024-10-06T14:48:28Z) - Improving Context-Aware Preference Modeling for Language Models [62.32080105403915]
本稿では、まず、文脈を選択し、選択した文脈に対する嗜好を評価することによって、不特定性を解決する2段階の選好モデリング手法について考察する。
我々は、文脈条件付き嗜好データセットと実験に貢献し、文脈特化選好を評価する言語モデルの能力について検討する。
論文 参考訳(メタデータ) (2024-07-20T16:05:17Z) - Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Grounding Realizable Entities [0.3069289672731669]
本稿では, 質と配置, 配置と役割の接地関係の定義を提案する。
ホスト-パロゲン相互作用の微妙な側面を表現して提案する。
論文 参考訳(メタデータ) (2024-04-30T21:01:34Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - Models of human preference for learning reward functions [80.39289349661364]
そこで我々は,一対の軌跡区間間の人為的嗜好から報酬関数を学習する。
この仮定に欠陥があることに気付き、各セグメントの後悔が示すように、人間の嗜好をモデル化することを提案する。
提案した後悔の選好モデルは、実際の人間の選好をより良く予測し、また、これらの選好から報酬関数を学習し、より人道的な政策へと導く。
論文 参考訳(メタデータ) (2022-06-05T17:58:02Z) - A Broad Study of Pre-training for Domain Generalization and Adaptation [69.38359595534807]
ドメイン適応と一般化のための事前学習の幅広い研究と詳細な分析を行う。
我々は、単に最先端のバックボーンを使用することで、既存の最先端のドメイン適応ベースラインより優れていることを観察する。
論文 参考訳(メタデータ) (2022-03-22T15:38:36Z) - An AGM Approach to Revising Preferences [7.99536002595393]
本稿では,2つの要素間の相互作用から生じる選好変化について考察する。1つ目は,既存姿勢を符号化した初期選好ランキングであり,もう1つは権威源からの入力を示す新たな選好情報である。
目的は、必要以上の情報を捨てることなく、最初の好みを調整し、新しい好みに合わせることである。
我々は、このプロセスを、よく知られたAGMアプローチのラインに沿って、形式的な信念変化の機械を用いてモデル化する。
論文 参考訳(メタデータ) (2021-12-28T18:12:57Z) - A Style and Semantic Memory Mechanism for Domain Generalization [108.98041306507372]
ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
論文 参考訳(メタデータ) (2021-12-14T16:23:24Z) - The Trade-offs of Domain Adaptation for Neural Language Models [22.178874891042994]
ドメイン外セットとドメイン内セットの小さいトレーニングセットを検討する。
最初のコントリビューションとして、どちらのセットでモデルのトレーニングを行うメリットが、セットのサイズに依存するかが導出されます。
我々は、最も人気のあるデータ選択技術が共通のフレームワークでどのように表現できるかを示す。
論文 参考訳(メタデータ) (2021-09-21T15:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。