NSFWJS ist eine praktische JavaScript-Bibliothek, die Browser dabei unterstützt, potenziell unangemessene Bilder zu erkennen, ohne sie irgendwo hochladen zu müssen.
Im Kern basiert NSFWJS auf TensorFlowJS, einem leistungsstarken Open-Source-Tool für maschinelles Lernen, das in Ihrem Browser läuft. Was es wirklich besonders macht, ist die Fähigkeit, bestimmte Muster in Bildern zu erkennen, die unangemessen sein könnten, mit einer beeindruckenden Genauigkeitsrate von 93%.
Eine der herausragenden Funktionen von NSFWJS ist der Kameraunschärfe-Schutz. Dieses Tool verwischt automatisch Bilder, die als potenziell ungeeignet erachtet werden, und bietet den Nutzern eine Sicherheitsebene, ohne ihre Privatsphäre zu gefährden. Außerdem wird die Bibliothek ständig verbessert, mit regelmäßigen Updates und neuen Modellen, die veröffentlicht werden, um die Leistung zu steigern.
Das Beste daran? NSFWJS ist völlig kostenlos! Sie können es sogar an Ihre Bedürfnisse anpassen, da es unter der MIT-Lizenz verfügbar ist. Für diejenigen, die es ausprobieren möchten, gibt es eine mobile Demo, mit der Sie verschiedene Bilder direkt von Ihrem Telefon testen können.
Sie können NSFWJS ganz einfach von GitHub herunterladen, wo Sie auch zur Entwicklung beitragen können. Und wenn Sie auf falsche Positivmeldungen stoßen, ermutigt die Community Sie, diese zu melden, damit alle von den fortlaufenden Verbesserungen profitieren können.
∞