NSFWJS è una pratica libreria JavaScript che aiuta i browser a individuare immagini potenzialmente inappropriate senza la necessità di caricarle da nessuna parte.
Alla base, NSFWJS è costruito utilizzando TensorFlowJS, un potente strumento di machine learning open-source che funziona nel tuo browser. Ciò che lo rende davvero speciale è la sua capacità di riconoscere determinati schemi nelle immagini che potrebbero essere inappropriate, vantando un impressionante tasso di accuratezza del 93%.
Una delle caratteristiche distintive di NSFWJS è la sua Protezione CameraBlur. Questo strumento sfoca automaticamente le immagini ritenute potenzialmente inadatte, offrendo agli utenti un ulteriore livello di sicurezza senza compromettere la loro privacy. Inoltre, la libreria è in costante miglioramento, con aggiornamenti regolari e nuovi modelli rilasciati per migliorare le sue prestazioni.
La parte migliore? NSFWJS è completamente gratuito da usare! Puoi anche modificarlo per adattarlo alle tue esigenze, poiché è disponibile sotto la licenza MIT. Per coloro che sono ansiosi di provarlo, c'è una demo mobile disponibile, che ti consente di testare varie immagini direttamente dal tuo telefono.
Puoi facilmente scaricare NSFWJS da GitHub, dove puoi anche contribuire al suo sviluppo. E se ti imbatti in falsi positivi, la comunità ti incoraggia a segnalarli affinché tutti possano beneficiare di continui miglioramenti.
∞