論文の概要: Ethical AI prompt recommendations in large language models using collaborative filtering
- arxiv url: http://arxiv.org/abs/2510.06924v1
- Date: Wed, 08 Oct 2025 12:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.471666
- Title: Ethical AI prompt recommendations in large language models using collaborative filtering
- Title(参考訳): 協調フィルタリングを用いた大規模言語モデルにおける倫理的AIの推奨
- Authors: Jordan Nelson, Almas Baimagambetov, Konstantinos Avgerinakis, Nikolaos Polatidis,
- Abstract要約: 大規模言語モデル(LLM)はAI開発を形作るため、倫理的なプロンプトレコメンデーションを保証することが不可欠である。
本稿では,コラボレーティブ・フィルタリング(コラボレーティブ・フィルタリング,レコメンデーション・システム)を用いて倫理的プロンプト選択を強化することを提案する。
- 参考スコア(独自算出の注目度): 0.6439761523935613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) shape AI development, ensuring ethical prompt recommendations is crucial. LLMs offer innovation but risk bias, fairness issues, and accountability concerns. Traditional oversight methods struggle with scalability, necessitating dynamic solutions. This paper proposes using collaborative filtering, a technique from recommendation systems, to enhance ethical prompt selection. By leveraging user interactions, it promotes ethical guidelines while reducing bias. Contributions include a synthetic dataset for prompt recommendations and the application of collaborative filtering. The work also tackles challenges in ethical AI, such as bias mitigation, transparency, and preventing unethical prompt engineering.
- Abstract(参考訳): 大規模言語モデル(LLM)がAI開発を形成するため、倫理的なプロンプトレコメンデーションの確保が不可欠である。
LLMはイノベーションを提供するが、リスクバイアス、公平性の問題、説明責任の懸念を提供する。
従来の監視手法はスケーラビリティに悩まされ、動的ソリューションを必要とする。
本稿では,コラボレーティブ・フィルタリング(コラボレーティブ・フィルタリング,レコメンデーション・システム)を用いて倫理的プロンプト選択を強化することを提案する。
ユーザーインタラクションを活用することで、バイアスを減らしながら倫理的ガイドラインを促進する。
コントリビューションには、プロンプトレコメンデーションのための合成データセットと、協調フィルタリングの適用が含まれる。
この研究は、バイアス緩和、透明性、非倫理的な即興エンジニアリングの防止など、倫理的AIの課題にも取り組みます。
関連論文リスト
- Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System [55.39026603611269]
公正な会話レコメンダシステム(HyFairCRS)のためのハイパーグラフコントラスト学習フレームワークを提案する。
HyFairCRSは対話型対話型レコメンダシステム(CRS)における多目的多様性フェアネスの促進を目指す
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-07-01T11:39:42Z) - Aligning Large Language Models from Self-Reference AI Feedback with one General Principle [61.105703857868775]
13B Llama2-Chatで高品質なフィードバックを提供できる自己参照型AIフィードバックフレームワークを提案する。
具体的には、まずAIがユーザーの指示に反応し、それに基づいて他の回答に対する批判を参照として生成する。
最後に、批判に応じて、どの回答が人間の好みに合うかを判断する。
論文 参考訳(メタデータ) (2024-06-17T03:51:46Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。