Перейти к содержанию

Данные

Ресурс Описание
Безопасность и конфиденциальность больших языковых моделей GitHub-репозиторий по безопасности и конфиденциальности больших языковых моделей
Взлом больших языковых моделей Данные для взлома больших языковых моделей
Системный промпт ChatGPT Репозиторий, содержащий системные промпты ChatGPT
Do Not Answer Проект, связанный с контролем ответов больших языковых моделей
ToxiGen Набор данных Microsoft
SafetyPrompts Живой каталог открытых наборов данных для обеспечения безопасности больших языковых моделей
llm-security-prompt-injection Этот проект исследует безопасность больших языковых моделей путем выполнения бинарной классификации набора входных промптов для обнаружения вредоносных промптов. Были проанализированы несколько подходов с использованием классических алгоритмов машинного обучения, обученной модели большой языковой модели и тонко настроенной большой языковой модели.