論文の概要: FolkScope: Intention Knowledge Graph Construction for Discovering
E-commerce Commonsense
- arxiv url: http://arxiv.org/abs/2211.08316v1
- Date: Tue, 15 Nov 2022 17:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:34:16.478924
- Title: FolkScope: Intention Knowledge Graph Construction for Discovering
E-commerce Commonsense
- Title(参考訳): FolkScope:Eコマースのコモンセンスを発見するための意図的知識グラフ構築
- Authors: Changlong Yu, Weiqi Wang, Xin Liu, Jiaxin Bai, Yangqiu Song, Zheng Li,
Yifan Gao, Tianyu Cao, and Bing Yin
- Abstract要約: 電子商取引では、ユーザのニーズや意図を理解するには、かなりの常識的知識が必要である。
本稿では,意図的な知識グラフ構築フレームワークであるFolkScopeを紹介する。
我々の知識グラフはEコマースのコモンセンスの知識をうまくモデル化することができ、多くの潜在的な応用が可能であることを示しています。
- 参考スコア(独自算出の注目度): 36.05123266221752
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As stated by Oren Etzioni, ``commonsense is the dark matter of artificial
intelligence''. In e-commerce, understanding users' needs or intentions
requires substantial commonsense knowledge, e.g., ``A user bought an iPhone and
a compatible case because the user wanted the phone to be protected''. In this
paper, we present FolkScope, an intention knowledge graph construction
framework, to reveal the structure of humans' minds about purchasing items on
e-commerce platforms such as Amazon. As commonsense knowledge is usually
ineffable and not expressed explicitly, it is challenging to perform any kind
of information extraction. Thus, we propose a new approach that leverages the
generation power of large-scale language models and human-in-the-loop
annotations to semi-automatically construct the knowledge graph. We annotate a
large amount of assertions for both plausibility and typicality of an intention
that can explain a purchasing or co-purchasing behavior, where the intention
can be an open reason or a predicate falling into one of 18 categories aligning
with ConceptNet, e.g., IsA, MadeOf, UsedFor, etc. Then we populate the
annotated information to all automatically generated ones, and further
structurize the assertions using pattern mining and conceptualization to form
more condensed and abstractive knowledge. We evaluate our knowledge graph using
both intrinsic quality measures and a downstream application, i.e.,
recommendation. The comprehensive study shows that our knowledge graph can well
model e-commerce commonsense knowledge and can have many potential
applications.
- Abstract(参考訳): Oren Etzioni が言うように, 'コモンセンスは人工知能のダークマター' である。
eコマースでは、ユーザのニーズや意図を理解するには、‘ユーザがiphoneを購入して、ユーザが保護されたいから互換ケースを買った’というような、相当な常識的な知識が必要です。
本稿では,意図的な知識グラフ構築フレームワークであるFolkScopeを紹介し,Amazonなどのeコマースプラットフォーム上での商品購入に関する人間の心の構造を明らかにする。
常識知識は一般に有効ではなく、明示的に表現されていないため、あらゆる種類の情報抽出を行うことは困難である。
そこで本稿では,大規模言語モデルとHuman-in-the-loopアノテーションの生成能力を利用して知識グラフを半自動構築する手法を提案する。
例えば、isa、madeof、usingforなど、conceptnetと整合する18のカテゴリのうちの1つに、意図が開放的な理由または述語が落ち込む可能性がある、購入または共同購入行動を説明する意図の信頼性と典型性の両方について、大量のアサーションを付記する。
そして、アノテートされた情報を全て自動生成したものに配置し、さらにパターンマイニングと概念化を用いてアサーションを構造化し、より凝縮的で抽象的な知識を形成する。
我々は,本質的品質尺度と下流アプリケーション,すなわちレコメンデーションを用いて知識グラフを評価する。
この総合的研究は、私たちの知識グラフが電子商取引コモンセンスの知識をうまくモデル化でき、多くの潜在的な応用ができることを示している。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - A Usage-centric Take on Intent Understanding in E-Commerce [20.648271216249977]
私たちは、“顧客が製品を使う方法”として、述語的ユーザ意図に注目します。
FolkScopeの2つの弱点、SOTA E-Commerce Intent Graphを特定します。
ユーザ意図を最も望ましい特性を持つ製品と強く結びつける能力を制限する。
論文 参考訳(メタデータ) (2024-02-22T18:09:33Z) - CANDLE: Iterative Conceptualization and Instantiation Distillation from Large Language Models for Commonsense Reasoning [45.62134354858683]
CANDLEは、コモンセンス知識ベースに対する概念化とインスタンス化を反復的に行うフレームワークである。
CANDLEをATOMICに適用することにより、600万の概念化と三重項のインスタンス化を含む総合的な知識基盤を構築する。
論文 参考訳(メタデータ) (2024-01-14T13:24:30Z) - FabKG: A Knowledge graph of Manufacturing Science domain utilizing
structured and unconventional unstructured knowledge source [1.2597961235465307]
我々は,商業・教育用両方の実体・関係データに基づく知識グラフを開発する。
学生ノートを活用したKG作成のための新しいクラウドソーシング手法を提案する。
私たちは、すべてのデータソースを使用して、65,000以上のトリプルを含む知識グラフを作成しました。
論文 参考訳(メタデータ) (2022-05-24T02:32:04Z) - Conditional Attention Networks for Distilling Knowledge Graphs in
Recommendation [74.14009444678031]
本稿では,知識グラフをレコメンデーションシステムに組み込むために,知識対応コンディショナルアテンションネットワーク(KCAN)を提案する。
本研究では,まず,ユーザ・イテムネットワークとナレッジグラフのグローバルな意味的類似性を捉えるノード表現を得る。
そして,そのサブグラフに条件付きアテンションアグリゲーションを適用することで,その知識グラフを改良し,目標固有ノード表現を得る。
論文 参考訳(メタデータ) (2021-11-03T09:40:43Z) - Think Before You Speak: Explicitly Generating Implicit Commonsense
Knowledge for Response Generation [45.86667254934832]
常識のような暗黙の知識は、人間の会話を流動させる鍵となる。
本稿では、暗黙のコモンセンス知識(思考)を最初に外部化するための生成的アプローチであるThink-Before-Speaking(TBS)を紹介し、この知識を用いて応答(発話)を生成する。
実証実験の結果、TBSモデルは、ほとんどの自動測定値において、エンドツーエンドおよび知識強化されたRGベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-10-16T07:27:12Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - DISCOS: Bridging the Gap between Discourse Knowledge and Commonsense
Knowledge [42.08569149041291]
代替コモンセンス知識獲得フレームワーク DISCOS を提案します。
DISCOSは高価なコモンセンス知識をより手頃な言語知識資源に投入する。
我々は,ASERの中核部にATOMICを投入することにより,3.4M ATOMICライクな推論コモンセンス知識を得ることができる。
論文 参考訳(メタデータ) (2021-01-01T03:30:38Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。