論文の概要: Towards Robust Expert Finding in Community Question Answering Platforms
- arxiv url: http://arxiv.org/abs/2503.02674v1
- Date: Tue, 04 Mar 2025 14:46:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:12:57.893776
- Title: Towards Robust Expert Finding in Community Question Answering Platforms
- Title(参考訳): コミュニティ質問応答プラットフォームにおけるロバスト専門家の発見に向けて
- Authors: Maddalena Amendola, Andrea Passarella, Raffaele Perego,
- Abstract要約: TUEFは、コミュニティ質問回答プラットフォームにおける公正な専門家発見のためのトピック指向のユーザーインタラクションモデルである。
我々は、より正確に専門家を特定するために、多種多様な情報、具体的にはコンテンツと社会情報を利用する。
- 参考スコア(独自算出の注目度): 5.723916517485655
- License:
- Abstract: This paper introduces TUEF, a topic-oriented user-interaction model for fair Expert Finding in Community Question Answering (CQA) platforms. The Expert Finding task in CQA platforms involves identifying proficient users capable of providing accurate answers to questions from the community. To this aim, TUEF improves the robustness and credibility of the CQA platform through a more precise Expert Finding component. The key idea of TUEF is to exploit diverse types of information, specifically, content and social information, to identify more precisely experts thus improving the robustness of the task. We assess TUEF through reproducible experiments conducted on a large-scale dataset from StackOverflow. The results consistently demonstrate that TUEF outperforms state-of-the-art competitors while promoting transparent expert identification.
- Abstract(参考訳): 本稿では,CQA(Community Question Answering)プラットフォームを対象としたトピック指向ユーザインタラクションモデルであるTUEFを紹介する。
CQAプラットフォームのExpert Findingタスクには、コミュニティからの質問に対して正確な回答を提供することができる熟練したユーザを特定することが含まれる。
この目的のためにTUEFは、より正確なExpert Findingコンポーネントを通じて、CQAプラットフォームの堅牢性と信頼性を改善している。
TUEFの鍵となる考え方は、多種多様な情報、具体的にはコンテンツと社会情報を利用して、より正確に専門家を特定し、タスクの堅牢性を改善することである。
StackOverflowから大規模データセットを用いて再現可能な実験を行うことでTUEFを評価する。
その結果、TUEFは最先端の競合他社よりも優れ、透明性の高い専門家識別を促進することが一貫して示されている。
関連論文リスト
- Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - Understanding and Addressing Gender Bias in Expert Finding Task [6.239590365208578]
本研究では,現在最先端のExpert Finding(EF)モデルにおける性別バイアスについて検討する。
その結果,評価指標と活動レベルに依存したモデルが男性ユーザにとって不相応に有利であることが判明した。
我々は、よりバランスの取れた事前処理戦略を取り入れたEFモデルの調整を提案し、コンテンツベースおよびソーシャルネットワークベースの情報を活用する。
論文 参考訳(メタデータ) (2024-07-07T11:35:23Z) - Leveraging Topic Specificity and Social Relationships for Expert Finding in Community Question Answering Platforms [5.723916517485655]
本稿では,エキスパート検索のためのトピック指向ユーザインタラクションモデルTUEFを提案する。
TUEFは、多層グラフを構築することで、コンテンツとソーシャルデータを統合する。
実験の結果、TUEFはP@1で42.42%、NDCG@3で32.73%、R@5で21.76%、MRRで29.81%という最低パフォーマンスで全てのライバルを上回った。
論文 参考訳(メタデータ) (2024-07-04T15:50:18Z) - QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Evaluating the Ebb and Flow: An In-depth Analysis of Question-Answering Trends across Diverse Platforms [4.686969290158106]
コミュニティ質問回答(Community Question Answering, CQA)プラットフォームは,クエリに対する迅速な応答をユーザに提供することで,着実に人気を集めている。
本稿では,これらの要因を,人気の高い6つのCQAプラットフォームのコンテキスト内で調査する。
論文 参考訳(メタデータ) (2023-09-12T05:03:28Z) - Improving Query-Focused Meeting Summarization with Query-Relevant
Knowledge [71.14873115781366]
本稿では,その課題に対処するため,知識認識要約器(KAS)と呼ばれる知識強化2段階のフレームワークを提案する。
最初の段階では、クエリ関連セグメント抽出を改善するために知識認識スコアを導入します。
第2段階では,クエリ関連知識を要約生成に取り入れる。
論文 参考訳(メタデータ) (2023-09-05T10:26:02Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Identifying Experts in Question & Answer Portals: A Case Study on Data
Science Competencies in Reddit [0.0]
Redditにおけるデータサイエンスの専門家の特定の可能性について検討する。
本手法は,2人のデータサイエンス専門家が専門家と専門家以外のコメントだけでなく,スコープ外コメントをラベル付けした手作業によるコーディング結果に基づいている。
我々は,1,113のラベル付きコメントと100,226の未ラベル付きコメントを組み合わせた半教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-08T14:30:59Z) - Knowledge Graph Question Answering Leaderboard: A Community Resource to
Prevent a Replication Crisis [61.740077541531726]
コミュニティの焦点として、KGQAベンチマークデータセットに対して、新たな中心的でオープンなリーダボードを提供しています。
本分析は,KGQAシステムの評価において,既存の問題点を浮き彫りにする。
論文 参考訳(メタデータ) (2022-01-20T13:46:01Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。