論文の概要: Ethical AI prompt recommendations in large language models using collaborative filtering
- arxiv url: http://arxiv.org/abs/2510.06924v1
- Date: Wed, 08 Oct 2025 12:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.471666
- Title: Ethical AI prompt recommendations in large language models using collaborative filtering
- Title(参考訳): 協調フィルタリングを用いた大規模言語モデルにおける倫理的AIの推奨
- Authors: Jordan Nelson, Almas Baimagambetov, Konstantinos Avgerinakis, Nikolaos Polatidis,
- Abstract要約: 大規模言語モデル(LLM)はAI開発を形作るため、倫理的なプロンプトレコメンデーションを保証することが不可欠である。
本稿では,コラボレーティブ・フィルタリング(コラボレーティブ・フィルタリング,レコメンデーション・システム)を用いて倫理的プロンプト選択を強化することを提案する。
- 参考スコア(独自算出の注目度): 0.6439761523935613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) shape AI development, ensuring ethical prompt recommendations is crucial. LLMs offer innovation but risk bias, fairness issues, and accountability concerns. Traditional oversight methods struggle with scalability, necessitating dynamic solutions. This paper proposes using collaborative filtering, a technique from recommendation systems, to enhance ethical prompt selection. By leveraging user interactions, it promotes ethical guidelines while reducing bias. Contributions include a synthetic dataset for prompt recommendations and the application of collaborative filtering. The work also tackles challenges in ethical AI, such as bias mitigation, transparency, and preventing unethical prompt engineering.
- Abstract(参考訳): 大規模言語モデル(LLM)がAI開発を形成するため、倫理的なプロンプトレコメンデーションの確保が不可欠である。
LLMはイノベーションを提供するが、リスクバイアス、公平性の問題、説明責任の懸念を提供する。
従来の監視手法はスケーラビリティに悩まされ、動的ソリューションを必要とする。
本稿では,コラボレーティブ・フィルタリング(コラボレーティブ・フィルタリング,レコメンデーション・システム)を用いて倫理的プロンプト選択を強化することを提案する。
ユーザーインタラクションを活用することで、バイアスを減らしながら倫理的ガイドラインを促進する。
コントリビューションには、プロンプトレコメンデーションのための合成データセットと、協調フィルタリングの適用が含まれる。
この研究は、バイアス緩和、透明性、非倫理的な即興エンジニアリングの防止など、倫理的AIの課題にも取り組みます。
関連論文リスト
- Multi-Agent LLMs as Ethics Advocates for AI-Based Systems [2.1665689529884697]
本研究では,マルチエージェント LLM 設定に倫理擁護エージェントを導入することにより,倫理要件を生成する枠組みを提案する。
このエージェントは、システム記述に基づいて倫理的問題を批判し、入力する。
この作業は、要件エンジニアリングプロセスにおける倫理の広範な採用を促進するもので、最終的には倫理的に整合した製品につながります。
論文 参考訳(メタデータ) (2025-07-11T08:04:32Z) - Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System [55.39026603611269]
公正な会話レコメンダシステム(HyFairCRS)のためのハイパーグラフコントラスト学習フレームワークを提案する。
HyFairCRSは対話型対話型レコメンダシステム(CRS)における多目的多様性フェアネスの促進を目指す
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-07-01T11:39:42Z) - AI based Content Creation and Product Recommendation Applications in E-commerce: An Ethical overview [4.6516580885528835]
本稿では,eコマースにおけるAIによるコンテンツ作成と製品レコメンデーションの倫理的意味について検討する。
バイアスを取り除き、傾きを確保するための実行可能なベストプラクティスを提案する。
コンテンツ作成や製品レコメンデーションのためのEコマースアプリケーションにおいて、AIを倫理的に活用するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2025-06-20T15:54:25Z) - Transparency, Privacy, and Fairness in Recommender Systems [0.19036571490366497]
このハビテーションは、(i)透明性と認知モデル、(ii)プライバシーと限定された嗜好情報、(iii)推薦システムにおける公正性と人気バイアスに関連する側面を精査する。
論文 参考訳(メタデータ) (2024-06-17T08:37:14Z) - Aligning Large Language Models from Self-Reference AI Feedback with one General Principle [61.105703857868775]
13B Llama2-Chatで高品質なフィードバックを提供できる自己参照型AIフィードバックフレームワークを提案する。
具体的には、まずAIがユーザーの指示に反応し、それに基づいて他の回答に対する批判を参照として生成する。
最後に、批判に応じて、どの回答が人間の好みに合うかを判断する。
論文 参考訳(メタデータ) (2024-06-17T03:51:46Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Expose Uncertainty, Instill Distrust, Avoid Explanations: Towards
Ethical Guidelines for AI [3.0534660670547864]
AI技術を使う人間を助ける最良の方法は、AIアルゴリズムの本質的な限界と問題を認識することだ、と私は主張する。
結果の提示に使用する倫理ガイドラインを3つ提案する。
論文 参考訳(メタデータ) (2021-11-29T14:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。