論文の概要: A two-level solution to fight against dishonest opinions in
recommendation-based trust systems
- arxiv url: http://arxiv.org/abs/2006.04803v1
- Date: Tue, 9 Jun 2020 00:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:58:12.974821
- Title: A two-level solution to fight against dishonest opinions in
recommendation-based trust systems
- Title(参考訳): 推薦型信頼システムにおける不当な意見に対抗する二段階解法
- Authors: Omar Abdel Wahab, Jamal Bentahar, Robin Cohen, Hadi Otrok, Azzam
Mourad
- Abstract要約: エージェントが他のエージェントに対して信頼を構築するために、複数の関係者からレコメンデーションを要求するシナリオを考察する。
収集レベルでは,エージェントが推薦の正確さを自己評価できるようにすることを提案する。
処理レベルでは,コラシオン攻撃に耐性のあるレコメンデーションアグリゲーション手法を提案する。
- 参考スコア(独自算出の注目度): 13.356755375091456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a mechanism to deal with dishonest opinions in
recommendation-based trust models, at both the collection and processing
levels. We consider a scenario in which an agent requests recommendations from
multiple parties to build trust toward another agent. At the collection level,
we propose to allow agents to self-assess the accuracy of their recommendations
and autonomously decide on whether they would participate in the recommendation
process or not. At the processing level, we propose a recommendations
aggregation technique that is resilient to collusion attacks, followed by a
credibility update mechanism for the participating agents. The originality of
our work stems from its consideration of dishonest opinions at both the
collection and processing levels, which allows for better and more persistent
protection against dishonest recommenders. Experiments conducted on the
Epinions dataset show that our solution yields better performance in protecting
the recommendation process against Sybil attacks, in comparison with a
competing model that derives the optimal network of advisors based on the
agents' trust values.
- Abstract(参考訳): 本稿では,レコメンデーションベースの信頼モデルにおいて,収集と処理の両レベルで不当な意見を扱うメカニズムを提案する。
エージェントが他のエージェントに対して信頼を構築するために、複数の関係者からレコメンデーションを要求するシナリオを検討する。
収集レベルでは,エージェントが推薦の正確さを自己評価し,推薦プロセスに参加するか否かを自律的に決定することを提案する。
処理レベルでは,共謀攻撃に対して弾力性のある推薦アグリゲーション手法を提案し,それに続くエージェントに対する信頼性更新機構を提案する。
私たちの作品の独創性は、コレクションと処理レベルの両方において不正直な意見を考慮し、不正直な推奨者に対してより良く、より永続的な保護を可能にすることから来ています。
エピニオンデータセットで行った実験では、エージェントの信頼値に基づいてアドバイザーの最適なネットワークを導出する競合モデルと比較して、我々のソリューションはシビル攻撃に対するレコメンデーションプロセスを保護するのに優れたパフォーマンスをもたらすことが示された。
関連論文リスト
- FLOW: A Feedback LOop FrameWork for Simultaneously Enhancing Recommendation and User Agents [28.25107058257086]
本稿では,フィードバックループを導入することで,推薦エージェントとユーザエージェントの協調を実現するFLOWという新しいフレームワークを提案する。
具体的には、従来提案されていた項目に対するユーザエージェントのフィードバックを分析して、ユーザの好みに対する理解を深める。
この反復的精錬プロセスは、レコメンデーションエージェントとユーザエージェントの両方の推論能力を高め、より正確なレコメンデーションを可能にする。
論文 参考訳(メタデータ) (2024-10-26T00:51:39Z) - A Unified Causal Framework for Auditing Recommender Systems for Ethical Concerns [40.793466500324904]
我々は、因果レンズからのレコメンデータシステム監査を見て、監査基準を定義するための一般的なレシピを提供する。
この一般的な因果監査フレームワークでは、既存の監査指標を分類し、それらのギャップを識別する。
本稿では,ユーザ自身やユーザの推奨に影響を及ぼす能力を計測する,未来と過去の評価可能性と安定性の2つのクラスを提案する。
論文 参考訳(メタデータ) (2024-09-20T04:37:36Z) - Revisiting Reciprocal Recommender Systems: Metrics, Formulation, and Method [60.364834418531366]
RRSの性能を包括的かつ正確に評価する5つの新しい評価指標を提案する。
因果的観点からRSを定式化し、二元的介入として勧告を定式化する。
提案手法では,結果の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T07:21:02Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - User Tampering in Reinforcement Learning Recommender Systems [2.28438857884398]
我々は、強化学習(RL)ベースのレコメンデーションアルゴリズム -- 'ユーザ改ざん' -- で発生する、ユニークな安全性上の懸念を強調します。
ユーザタンパリング(英: user tampering)とは、RLベースのレコメンデータシステムが、長期的なユーザエンゲージメントを最大化するためのポリシーの一環として、その提案を通じてメディアユーザの意見を操作できる状況である。
論文 参考訳(メタデータ) (2021-09-09T07:53:23Z) - Recommendation Fairness: From Static to Dynamic [12.080824433982993]
推薦のための強化学習手法に公平性を組み込む方法について論じる。
我々は、推薦公正性をさらに前進させるために、マルチエージェント(ゲーム理論)最適化、マルチオブジェクト(パレート)最適化を検討すべきかもしれないと論じる。
論文 参考訳(メタデータ) (2021-09-05T21:38:05Z) - Peer Selection with Noisy Assessments [43.307040330622186]
現在最も正確なピアレビューアルゴリズムであるPeerNominationをWeightedPeerNominationに拡張します。
重み付け方式により、選択の全体的な精度が大幅に向上できることを解析的に示す。
論文 参考訳(メタデータ) (2021-07-21T14:47:11Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。