ShieldGemma to zestaw modeli dostosowanych do instrukcji służących do oceny bezpieczeństwa tekstu i obrazów na podstawie zdefiniowanych zasad bezpieczeństwa. Możesz użyć tego modelu w ramach większej implementacji aplikacji generatywnej AI, aby ocenić aplikacje generatywnej AI i zapobiec ich naruszeniu zasad bezpieczeństwa. Rodzina modeli ShieldGemma jest dostarczana z otwartymi wagami, aby umożliwić dostosowanie modelu do konkretnego przypadku użycia.
ShieldGemma 2 to model z 4 mld parametrów stworzony do etykietowania obrazów pod kątem bezpieczeństwa.
ShieldGemma 1 jest oparta na Gemma 2 w rozmiarach 2B, 9B i 27B.
verified_user
Ocena bezpieczeństwa treści
Ocena bezpieczeństwa danych wejściowych i wyjściowych na prompty pod kątem zestawu zdefiniowanych zasad bezpieczeństwa.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-06-02 UTC."],[],[]]