論文の概要: Dual Use Concerns of Generative AI and Large Language Models
- arxiv url: http://arxiv.org/abs/2305.07882v1
- Date: Sat, 13 May 2023 10:08:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 19:09:30.303946
- Title: Dual Use Concerns of Generative AI and Large Language Models
- Title(参考訳): 生成aiと大規模言語モデルの二重利用問題
- Authors: Alexei Grinbaum and Laurynas Adomaitis
- Abstract要約: 本稿では,生命科学のために設計された Dual Use Research of Concern (DURC) フレームワークを生成AIの領域に実装することを提案する。
生物学的研究における利点と欠点を実証した上で,大規模言語モデル(LLM)において,DURCの基準を効果的に再定義できると考えている。
我々は、DURCフレームワークを採用する際に課せられるバランスを認め、生成的AIの影響に対する社会的認識を高める上で、その重要な政治的役割を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We suggest the implementation of the Dual Use Research of Concern (DURC)
framework, originally designed for life sciences, to the domain of generative
AI, with a specific focus on Large Language Models (LLMs). With its
demonstrated advantages and drawbacks in biological research, we believe the
DURC criteria can be effectively redefined for LLMs, potentially contributing
to improved AI governance. Acknowledging the balance that must be struck when
employing the DURC framework, we highlight its crucial political role in
enhancing societal awareness of the impact of generative AI. As a final point,
we offer a series of specific recommendations for applying the DURC approach to
LLM research.
- Abstract(参考訳): 本稿では,生命科学のために設計された Dual Use Research of Concern (DURC) フレームワークを,Large Language Models (LLM) に特化して,生成AIの領域に実装することを提案する。
生物学的研究における利点と欠点が証明されていることから、DURCの基準はLLMに対して効果的に再定義できると考えており、AIガバナンスの改善に寄与する可能性がある。
DURCフレームワークを採用する際に課せられるバランスを認識し、生成的AIの影響に対する社会的認識を高める上で重要な政治的役割を強調します。
最後に,LLM 研究に DURC アプローチを適用するための具体的な推奨事項について述べる。
関連論文リスト
- CAUS: A Dataset for Question Generation based on Human Cognition Leveraging Large Language Models [4.962252439662465]
本稿では,大規模言語モデル,特に GPT-4 を用いて,不確実性を解決するための認知過程をエミュレートするためのCAUSデータセットを提案する。
我々のアプローチは、推論とクエリの生成を刺激するために、不確実性に埋め込まれたシーン記述を提供することである。
以上の結果から, GPT-4は, 適切な文脈や指示が与えられた場合に, 適切な質問を効果的に生成し, そのニュアンスを把握できることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T01:31:19Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - A Survey on Knowledge Distillation of Large Language Models [102.84645991075283]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Inadequacies of Large Language Model Benchmarks in the Era of Generative
Artificial Intelligence [5.454656183053655]
我々は23の最先端のLarge Language Modelsベンチマークを批判的に評価する。
私たちの研究は、偏見、真の推論を測ることの難しさなど、重大な制限を発見しました。
静的ベンチマークから動的行動プロファイリングへの進化を提唱する。
論文 参考訳(メタデータ) (2024-02-15T11:08:10Z) - FAIR Enough: How Can We Develop and Assess a FAIR-Compliant Dataset for Large Language Models' Training? [3.0406004578714008]
大規模言語モデルの急速な進化は、AI開発における倫理的考慮とデータの整合性の必要性を強調している。
FAIRの原則は倫理データのスチュワードシップに不可欠であるが、LLMトレーニングデータの文脈におけるそれらの特定の応用は未調査領域のままである。
本稿では,FAIR の原則を LLM 開発ライフサイクルに統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T21:21:02Z) - Rethinking Word-Level Auto-Completion in Computer-Aided Translation [76.34184928621477]
Word-Level Auto-Completion (WLAC) はコンピュータ翻訳において重要な役割を果たす。
それは、人間の翻訳者に対して単語レベルの自動補完提案を提供することを目的としている。
我々は、この質問に答えるために測定可能な基準を導入し、既存のWLACモデルがこの基準を満たしていないことを発見する。
評価基準の遵守を促進することによってWLAC性能を向上させる効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T03:11:46Z) - SALMON: Self-Alignment with Instructable Reward Models [80.83323636730341]
本稿では,基本言語モデルと人間の監督を最小限に整合させる新しいアプローチ,すなわちSALMONを提案する。
私たちはDromedary-2という名のAIアシスタントを開発しており、コンテキスト内学習には6つの例と31の人間定義原則しかありません。
論文 参考訳(メタデータ) (2023-10-09T17:56:53Z) - Harnessing the Power of Large Language Models for Empathetic Response
Generation: Empirical Investigations and Improvements [32.177860810612074]
本研究では,大規模言語モデル(LLM)の共感応答生成における性能について実験的に検討する。
大規模な実験により, LLMは提案手法の利点を大いに生かし, 自動評価と人的評価の両方で最先端の性能を達成できることが示されている。
論文 参考訳(メタデータ) (2023-10-08T12:21:24Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Methodological reflections for AI alignment research using human
feedback [0.0]
AIアライメントは、AI技術が人間の関心や価値観、機能と安全で倫理的な方法で一致しているかどうかを調査することを目的としている。
LLMは、予測が難しい方法で学習し、適応する能力があるため、意図しない行動を示す可能性がある。
論文 参考訳(メタデータ) (2022-12-22T14:27:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。