Quando la disinformazione di superficie “buca” le difese delle IA e diventa conoscenza condivisa
Un test condotto da un giornalista della BBC, ha voluto verificare quanto fosse facile far circolare una notizia falsa attraverso i modelli di intelligenza artificiale più diffusi. L’esperimento è stato sorprendentemente semplice: ha creato una pagina web sul proprio blog personale, contenente una fake news costruita ad arte ma plausibile. Dopo averla pubblicata, ha atteso che venisse indicizzata da parte dei motori di ricerca e ha poi interrogato diversi chatbot, tra cui ChatGPT, Google Gemini e Perplexity (Cloude)(...)
La OWASP Top 10 è passata da bug tecnici (SQLi, XSS) a rischi sistemici (supply chain, design insicuro). Oggi la sicurezza non è solo codice, ma ecosistema: sviluppo, gestione e manutenzione. I CMS (WordPress, Joomla) difendono con aggiornamenti automatici, WAF e 2FA, ma le vulnerabilità si spostano su plugin e temi. I siti statici riducono i rischi, ma introducono sfide nella catena di fornitura. La sicurezza è ora un processo continuo, integrato in ogni fase.(...)
C’è stato un tempo in cui i bot erano quasi “innocui”. Visitavano i siti, leggevano pagine, indicizzavano contenuti. Erano poco più che script automatici che facevano richieste HTTP in sequenza. Oggi la parola bot evoca qualcosa di molto diverso. Non più semplici programmi di scansione, ma infrastrutture distribuite, coordinate, adattive, capaci di imitare il comportamento umano, aggirare i sistemi di difesa e perfino collaborare tra loro come vere e proprie reti federate.(...)
Da quindici anni, la OWASP Top 10 rappresenta una bussola fondamentale per sviluppatori, esperti di sicurezza e organizzazioni che vogliono proteggere le proprie applicazioni web. Ma come è cambiato il panorama delle minacce in questo periodo?(...) 
