• Privacy

    E-mail cumulativa ai dipendenti: ammonimento del Garante Privacy

    Il Garante per la protezione dei dati personali, con il provvedimento 582  del 9 ottobre 2025 (doc. web n. 10191660), è intervenuto su un caso di trattamento improprio di dati dei dipendenti all’interno di una pubblica amministrazione. L’Autorità ha valutato come illecito l’invio di una comunicazione collettiva contenente informazioni relative allo stato di avanzamento dei percorsi formativi obbligatori sulla piattaforma Syllabus con la specificazione dei nominativi dei dipendenti inadempienti .

    L’analisi condotta dal Garante ha richiamato i principi fondamentali del Regolamento (UE) 2016/679 e del d.lgs. 196/2003, in particolare i principi di liceità, correttezza, trasparenza e minimizzazione dei dati (art. 5, par. 1, lett. a) e c) del Regolamento), oltre alla disciplina sull’ammissibilità della comunicazione di dati personali da parte dei soggetti pubblici (art. 6 del Regolamento e art. 2-ter del Codice Privacy). Il provvedimento rappresenta un richiamo importante per datori di lavoro pubblici e privati, nonché per consulenti e responsabili della gestione del personale, in merito alla necessità di adottare modalità di comunicazione che tutelino la riservatezza dei lavoratori.

    Il caso: invio elenco dei dipendenti con mancata informazione

    La vicenda trae origine dal reclamo di un dipendente che aveva ricevuto, insieme ad altri colleghi, una email cumulativa proveniente dall’ufficio di segreteria dell’amministrazione  riguardante la formazione obbligatoria del personale

    Come ricostruito dal Garante nel provvedimento, l’amministrazione aveva attivato percorsi formativi obbligatori rivolti a tutto il personale e  ridosso della scadenza  l’ente aveva predisposto un elenco dei dipendenti che risultavano inadempienti  e aveva provveduto a inviare un’unica comunicazione collettiva di sollecito.

    Dagli atti istruttori emerge che l’amministrazione aveva già tentato contatti individuali e telefonici, e che la scelta di procedere con un unico invio cumulativo era stata motivata dalla volontà di accelerare l’adempimento e di garantire il buon funzionamento dell’ufficio, anche alla luce delle difficoltà organizzative e della carenza di personale.

    La comunicazione, tuttavia, rendeva reciprocamente conoscibili ai destinatari informazioni non necessarie,  integrando un trattamento di dati personali non strettamente pertinente rispetto alle finalità perseguite. 

    La decisione del garante: niente sanzioni

    Il Garante ha ritenuto che l’invio cumulativo della comunicazione fosse illegittimo, in quanto contrario ai principi di protezione dei dati richiamati dall’art. 5 del Regolamento (UE) 2016/679. L’Autorità ha rilevato che la scelta organizzativa adottata dall’amministrazione non fosse idonea a giustificare la diffusione interna di informazioni riferite ai lavoratori, poiché un invio individuale avrebbe permesso di perseguire le stesse finalità senza pregiudicare la riservatezza degli interessati.

    In particolare, il Garante ha richiamato:

    • il principio di minimizzazione, secondo cui devono essere trattati solo i dati adeguati e pertinenti rispetto alle finalità (art. 5, par. 1, lett. c) del Regolamento).
    • il  principio di liceità e correttezza, che impone al datore di lavoro di limitare l’accessibilità ai dati ai soli soggetti autorizzati (art. 5, par. 1, lett. a) del Regolamento).

    Le Linee guida del 14 giugno 2007 sulla gestione dei dati dei dipendenti in ambito pubblico, tuttora rilevanti, che raccomandano comunicazioni individualizzate e l’adozione di misure idonee a prevenire la conoscibilità ingiustificata di informazioni personali.

    L’Autorità ha inoltre escluso la possibilità di qualificare la comunicazione come una semplice informativa di servizio priva di contenuti sensibili, sottolineando che i dati riguardavano comunque l’esecuzione di un obbligo formativo individuale e potevano risultare idonei a incidere sulla percezione professionale dei lavoratori.

    Alla luce degli elementi emersi, il Garante ha dichiarato illecita la comunicazione dei dati e ha disposto l’ammonimento dell’amministrazione, ma senza sanzioni in quanto la violazione è  stata valutata  di entità contenuta e alla luce del comportamento collaborativo dell’ente  che ha emesso una  circolare interna finalizzata a prevenire il ripetersi di situazioni analoghe.

  • Privacy

    AI Act – Intelligenza artificiale e imprese: le novità della legge pubblicata in GU

    Pubblicata nella GU del 25.09.2025 n. 223, la Legge del 23.09.2025 n. 132 recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”

    Si tratta del primo intervento organico del legislatore nazionale sul tema, che si affianca e si coordina con il Regolamento (UE) 2024/1689 (cosiddetto AI Act).

    Il provvedimento introduce principi generali, misure settoriali, deleghe legislative e modifiche in ambito civile, penale e di diritto d’autore, con l’obiettivo di favorire lo sviluppo e l’utilizzo sicuro e responsabile delle tecnologie di intelligenza artificiale (IA) in Italia. La legge si apre con la definizione delle finalità (art. 1): promuovere la ricerca, lo sviluppo e l’adozione di sistemi e modelli di IA in una prospettiva antropocentrica, cioè al servizio dell’uomo, cogliendo le opportunità tecnologiche ma garantendo vigilanza sui rischi economici, sociali e sui diritti fondamentali.

    Tra i principi generali (art. 3) si confermano:

    • trasparenza, sicurezza, proporzionalità e protezione dei dati personali;
    • sviluppo basato su dati affidabili, sicuri e di qualità;
    • centralità della sorveglianza e dell’intervento umano;
    • tutela delle persone con disabilità, garantendo pieno accesso e inclusione.

    La novità principale riguarda la salvaguardia della vita democratica, ovvero l’uso di sistemi di IA non deve pregiudicare il metodo democratico né la libertà del dibattito pubblico, che va protetto da interferenze illecite, a tutela della sovranità dello Stato e dei diritti fondamentali.

    Cosa cambia per le imprese

    La legge riconosce all’IA un ruolo strategico per la competitività del sistema produttivo. Lo Stato promuove l’utilizzo delle tecnologie anche in chiave di robotica applicata e con particolare attenzione al supporto di microimprese e PMI, che costituiscono la spina dorsale dell’economia italiana.

    Viene favorito un mercato equo e concorrenziale, l’accesso a dati di qualità per imprese e ricercatori e l’utilizzo di piattaforme di e-procurement pubbliche che privilegino soluzioni con elevati standard di sicurezza e trasparenza.

    Disposizioni in materia di lavoro

    L’art. 11 stabilisce che l’IA deve essere utilizzata in ambito lavorativo per migliorare condizioni e produttività, senza violare dignità e diritti dei lavoratori. 

    Il datore di lavoro o il committente deve informare il lavoratore sull’uso dell’IA, nei casi e con le modalità già previste dall’art. 1-bis del d.lgs. 152/1997. Questo rinvio significa che l’informativa deve essere chiara, preventiva e completa, in linea con le tutele sul controllo a distanza dei lavoratori e con il diritto alla trasparenza sugli strumenti tecnologici utilizzati.

    Il comma 3 stabilisce che l’IA non può violare i diritti inviolabili del lavoratore. In particolare, deve essere esclusa qualsiasi forma di discriminazione basata su:

    • sesso e genere,
    • età,
    • origini etniche,
    • credo religioso,
    • orientamento sessuale,
    • opinioni politiche,
    • condizioni personali, sociali o economiche.

    Il principio è coerente con il diritto UE e con le direttive antidiscriminazione, l’IA non può essere usata per selezionare, monitorare o valutare i lavoratori in modo ingiusto o distorto.

    Viene istituito presso il Ministero del Lavoro l’Osservatorio sull’adozione di sistemi di IA nel mondo del lavoro (art. 12), con compiti di monitoraggio e definizione di strategie. La legge chiarisce che l’Osservatorio sarà operativo con le risorse già disponibili, senza nuovi oneri.

    Per le professioni intellettuali (art. 13), l’IA può essere impiegata solo come supporto strumentale, salvaguardando il rapporto fiduciario con il cliente.

    Investimenti e sostegno alle imprese

    L’art. 23 prevede un piano di investimenti fino a 1 miliardo di euro in PMI e imprese innovative nei settori IA, cybersicurezza e tecnologie quantistiche, anche tramite fondi di venture capital e poli di trasferimento tecnologico.

    Sono inoltre previste misure di sostegno a giovani e sport (art. 22), con particolare attenzione a studenti ad alto potenziale e all’inclusione delle persone con disabilità nello sport attraverso soluzioni basate su IA.

    Diritto d’autore e penale

    In materia di diritto d’autore (art. 25), le opere generate con l’ausilio dell’IA sono protette solo se costituiscono risultato del lavoro intellettuale umano.

    È stata introdotta la nuova eccezione dell’art. 70-septies che consente riproduzioni ed estrazioni di testo e dati tramite IA, se da fonti accessibili legittimamente.

    Sul piano penale (art. 26), si segnalano:

    • aggravanti per reati commessi mediante IA;
    • il nuovo reato di diffusione illecita di deepfake (art. 612-quater c.p.), punito con la reclusione da 1 a 5 anni;
    • aggravamenti di pena per truffa, aggiotaggio e altri reati finanziari se commessi con IA.

    Privacy, informazione e tutela dei minori

    L’art. 4 disciplina l’uso dell’IA in relazione all’informazione e alla riservatezza dei dati personali. Restano centrali i principi di libertà di espressione, pluralismo dei media e trasparenza nell’uso dei dati.
    La norma aggiorna la disciplina per i minori:

    • per i ragazzi sotto i 14 anni è richiesto il consenso dei genitori, nel rispetto del GDPR e del Codice Privacy (d.lgs. 196/2003);
    • i minori tra i 14 e i 18 anni possono prestare direttamente il consenso, purché le informazioni siano chiare e comprensibili.

    Allegati:
  • Privacy

    Dati sui social per l’intelligenza artificiale: come opporsi entro maggio

    Dal 30 maggio 2025 Meta, la società proprietaria di Facebook, Instagram e WhatsApp, inizierà a utilizzare i dati personali degli utenti per addestrare i propri sistemi di intelligenza artificiale (IA). È quanto annunciava  il Garante per la protezione dei dati personali in un comunicato di marzo 2025 invitando  tutti a informarsi e, se lo desiderano, a esercitare il diritto di opposizione entro la fine del mese.

    L’utilizzo dei dati per l’IA non riguarda solo chi ha un account sui social Meta, ma potenzialmente anche chi non è iscritto, se i propri dati sono stati condivisi da altri utenti. Per questo è importante agire subito, compilando gli appositi moduli messi a disposizione online sulle piattaforme social.

    Il termine si avvicina: vediamo piu in dettaglio di cosa si tratta.

    Cosa farà Meta con i nostri dati

    Meta ha annunciato che userà i contenuti pubblici pubblicati dagli utenti maggiorenni – come post, commenti, foto, didascalie – e anche le informazioni inserite nelle chat con i servizi di IA (ad esempio su WhatsApp), per migliorare i suoi sistemi di intelligenza artificiale. In particolare, questi dati alimenteranno strumenti come il chatbot Meta AI o i modelli linguistici come Llama.

    Questo trattamento sarà basato sul “legittimo interesse” di Meta. Tuttavia, il Garante ha sottolineato che il Regolamento europeo (GDPR) riconosce agli utenti il diritto di opporsi a questo uso dei propri dati.

    Il Garante ricorda anche che il diritto di opposizione non riguarda solo Meta. Anche altri sistemi di intelligenza artificiale – come quelli sviluppati da OpenAI (ChatGPT), DeepSeek o Google – possono essere soggetti alla stessa regola. È sempre possibile chiedere che i propri dati non vengano utilizzati per addestrare algoritmi.

    Opposizione per l’uso dei propri dati sui sociale: cosa fare

    Chi non vuole che i propri contenuti vengano utilizzati da Meta per l’IA deve compilare un modulo online che le piattaforme sono obbligate a rendere disponibili, ai seguenti link:

    ATTENZIONE : chi esercita l’opposizione entro fine maggio potrà impedire che tutti i propri dati personali vengano usati. 

    Chi invece si oppone dopo, riuscirà a bloccare solo l’uso dei dati pubblicati dopo la data dell’opposizione. I dati già raccolti fino a quel momento resteranno a disposizione di Meta per l’addestramento dei suoi sistemi.

    Va inoltre  tenuto presente che anche i dati dei non utenti e dei minori sono a rischio: anche chi non è registrato a Facebook o Instagram potrebbe vedere i propri dati coinvolti, se ad esempio appaiono in foto o testi pubblicati da altri. In questo caso si può usare il modulo per i non utenti.

    Privacy dei dati e intelligenza artificiale: cosa sta facendo il Garante

    Nel frattempo, l’Autorità italiana per la privacy sta collaborando con le altre autorità europee per valutare la legittimità del comportamento di Meta. 

    Si punta a capire se esistano le basi legali per un uso così esteso dei dati personali, e se il diritto di opposizione sia davvero garantito in modo semplice, effettivo e completo. In particolare, è stato richiesto a Meta di chiarire anche l’uso delle immagini di minorenni postate da adulti.

    In sintesi: chi utilizza Facebook, Instagram o anche solo ha la propria immagine o informazioni online, dovrebbe valutare con attenzione se desidera che i propri dati alimentino i sistemi di intelligenza artificiale. Se la risposta è no, è fondamentale agire entro fine maggio 2025.

    Ricordiamo che sul tema  già nel 2023  il Garante aveva  avviato una indagine conoscitiva  e l'anno scorso ha deliberato un provvedimento sui rischi e i possibili interventi per la tutela dei dati.

    Lo alleghiamo  qui per maggiore informazione: Web scraping ed intelligenza artificiale generativa: nota informativa e possibili azioni di contrasto

  • Privacy

    Mail dipendenti: illegittimi i controlli retroattivi

    Nell'ordinanza della Corte di Cassazione n. 807 del 13 gennaio scorso vengono chiariti ulteriormente i vincoli  che la normativa del lavoro e il Regolamento sulla privacy  pongono ai datori di lavoro in merito all'utilizzo   dei dispositivi elettronici aziendali . La nuova pronuncia si occupa in particolare di un caso di  licenziamento a seguito  di indagini sul pc di un dipendente a causa di fondati sospetti di attività illecita , nel quale la Suprema corte  conferma la decisione di merito sottolineando   che il  controllo  sui  periodi precedenti il sospetto, è vietato,  per cui le eventuali  informazioni  acquisite non sono  utilizzabili a fini  di una contestazione disciplinare verso il dipendente.

    Controllo posta elettronica : i limiti dello Statuto dei lavoratori e Jobs At

    La Cassazione afferma ancora una volta come , i controlli tecnologici sugli strumenti digitali aziendali, sebbene ammessi dallo Statuto dei lavoratori modificato dal Jobs Act del 2015, devono rispettare specifici parametri di bilanciamento tra  il rispetto della privacy del lavoratore e le esigenze di tutela degli interessi aziendali.

     In particolare, le verifiche sono ammesse:

    • solo in presenza di un fondato sospetto  di attività illecite e 
    •  devono limitarsi ai dati raccolti successivamente al suo insorgere .

     Qualsiasi verifica retrospettiva, come quella effettuata nel caso analizzato, viola l’articolo 4 dello Statuto dei lavoratori, che consente controlli unicamente ex post.

     Inoltre, viene precisato che l’informativa sulla privacy  regolarmente visionata e accettata dal dipendente , non può sanare l’illegittimità di controlli eseguiti in violazione delle norme, poiché tale adempimento ha finalità diverse. 

    La sentenza sottolinea   che l’azione disciplinare può basarsi solo su dati raccolti nel rispetto di questi limiti, impedendo al datore di lavoro di utilizzare prove raccolte in modo improprio o di cercare conferme di un sospetto esplorando dati archiviati precedentemente.

  • Privacy

    Certificati di malattia: sanzioni per mancato rispetto della privacy

    La protezione della privacy dei lavoratori e dei cittadini rimane una priorità assoluta, e le violazioni sono da sanzionare duramente.

    Lo evidenzia un nuovo  recente intervento del Garante per la protezione dei dati personali che ha comminato una sanzione da 17 mila euro per il rilascio di un certificato medico che riportava dettagli sul reparto sanitario responsabile della prestazione e per altre inadempienze.

    Vediamo ulteriori dettagli nei prossimi paragrafi

    Garante privacy no ai dati sulla salute nei certificati medici

    Il caso riguardava una paziente  che aveva segnalato una violazione da parte di un’Azienda Sanitaria Territoriale, colpevole di aver rilasciato un certificato medico che indicava dettagli specifici sul reparto ospedaliero dove era stata erogata la prestazione sanitaria. 

    Questi dettagli, come il timbro con la specializzazione del medico o il nome della struttura, costituiscono informazioni potenzialmente riconducibili allo stato di salute della persona, in violazione dei principi fondamentali di protezione dei dati personali. 

    Il Garante ha sottolineato che i certificati medici destinati a giustificare un’assenza dal lavoro o l’impossibilità di partecipare a un concorso devono contenere esclusivamente le informazioni strettamente necessarie, senza alcun riferimento che possa rivelare la natura delle condizioni di salute. 

    Questa violazione ha portato l’Azienda Sanitaria a ricevere una sanzione amministrativa di 17mila euro.

    Certificati medici e Privacy by design: un obbligo, non un’opzione

    Oltre alla violazione del principio di minimizzazione dei dati, il Garante ha accertato un mancato rispetto del principio di privacy by design.

    Questo principio richiede che, fin dalla progettazione di processi e moduli, vengano adottate misure tecniche e organizzative per garantire la protezione dei dati personali

    Nel caso specifico, l’Azienda non aveva predisposto adeguati accorgimenti per evitare la diffusione di informazioni sensibili nei certificati medici. 

    Nonostante l’intervento del Garante abbia portato l’Azienda a modificare i moduli e a formare il personale sul trattamento dei dati, il ritardo nell’adozione di queste misure ha avuto conseguenze gravi: un numero potenzialmente elevato di pazienti è stato coinvolto per un lungo periodo.

     Inoltre, l’Azienda ha aggravato la situazione non rispondendo tempestivamente alle richieste di informazioni da parte dell’Autorità, incorrendo in ulteriori violazioni del Codice della Privacy. 

    Questo caso rappresenta un monito per tutte le organizzazioni sanitarie e non , chiamate a garantire non solo la qualità dei servizi  ma anche il pieno rispetto dei diritti alla riservatezza dei cittadini, pena sanzioni rilevanti e danni alla propria reputazione.

  • Privacy

    Privacy: multa da 120mila euro per uso di software di controllo attività

    Sanzionato con multa da 120mila euro il datore di lavoro che utilizzava un software di monitoraggio puntuale dell'attività dei dipendenti ( su tempi, modalità di lavorazione e  pause)  , senza adeguata informativa,  e uno strumento per l'accesso  al luogo di lavoro tramite riconoscimento facciale. 

    Si tratta del provvedimento del Garante Privacy  338 2024 del 6 giugno 2024.

    Vediamo il caso in maggiore dettaglio.

    Utilizzo software di controllo e riconoscimento facciale: il caso

    A seguito di un reclamo presentato da un dipendente contro il proprio datore di lavoro (una officina meccanica)  per un presunto illecito trattamento dei dati personali dei dipendenti,  l'Autorità Garante per la Protezione dei Dati Personali ha esaminato la documentazione e ha effettuato ispezioni per verificare la conformità della società alle normative vigenti in materia di protezione dei dati.

    Il dipendente in particolare evidenziava che erano stati utilizzati  senza un adeguata informativa ai dipendenti :

    1. il software "Infinity DMS" per la gestione delle prestazioni lavorative di ciascun lavoratore  e 
    2. l'hardware  "X-Face 380" ,  un sistema di riconoscimento facciale,  per il controllo degli accessi sul luogo di lavoro. 

    Le ispezioni effettuate presso la società hanno confermato l'uso di questi strumenti e hanno raccolto informazioni dettagliate sul loro funzionamento e finalità.

    L'installazione del software considerata  integrata alle attrezzature di lavoro, che raccoglieva e trattava dati personali dei dipendenti senza fornire loro una adeguata informativa, era avvenuta senza accordo con la rappresentanza sindacale.

    Sono state quindi accertate  violazioni  in tema di trattamento dei dati personali   sui principi di liceità, correttezza e trasparenza previsti dal Regolamento (UE) 2016/679. 

    Software di controllo e dati biometrici vietati: la decisione del Garante Privacy

    Per quanto riguarda l'hardware che consente il riconoscimento facciale dei dipendenti, il Garante ha ribadito l'indirizzo  restrittivo già seguito in casi simili:  tali strumenti sono proibiti perché realizzano un trattamento illecito dei dati  biometrici  che appartengono alle categorie di dati  sensibili . 

    L'utilizzo è generalmente vietato, salvo quando sia necessario per adempiere obblighi e esercitare diritti specifici in materia di diritto del lavoro e protezione sociale; questa ipotesi  non si verifica nel caso in questione, mentre è giustificata ad esempio per la  compilazione delle buste paga .

     Il Garante sottolinea che, nel contesto del rapporto di lavoro, il consenso espresso dai dipendenti non può essere considerato un valido presupposto di liceità del trattamento, data l'asimmetria tra le rispettive posizioni.

    Anche l'utilizzo del software gestionale è stato duramente criticato dall'autorità in quanto il datore di lavoro aveva imposto ai dipendenti, tramite un codice a barre  individuale, la registrazione delle  diverse fasi dell'attività lavorativa, comprese le pause (con la specifica causale). 

    L'Autorità ha sottolineato inoltre la mancanza di risposte da parte del datore di lavoro sulla natura e tipologia dei dati trattati, le modalità e i tempi di conservazione dei dati, che non ha permesso di valutare l'effettiva necessità e proporzionalità del software rispetto alle finalità da perseguire.

    Ancora piu grave il fatto che  tali informazioni non fossero state comunicate nemmeno ai dipendenti,  considerando che nell'ambito del rapporto di lavoro l'obbligo di informare il dipendente è espressione del dovere di correttezza e trasparenza

    Controllo dipendenti: le sanzioni previste dal Garante Privacy

    Alla luce degli elementi sopra indicati e delle valutazioni effettuate,  è stata irrogata la sanzione amministrativa pari ad euro 120.000,00 (centoventimila).

    Inoltre in considerazione della tipologia delle violazioni accertate che hanno riguardato i principi generali e le condizioni di liceità del trattamento, che ai sensi dell’art. 166, comma 7, del Codice e dell’art. 16, comma 1, del Regolamento del Garante n. 1/2019,  è stata richiesta la pubblicazione in chiaro  del  provvedimento sul sito Internet del Garante.

    Infine il Garante ha richiesto alla Società di comunicare le iniziative intraprese  per

    • conformare il trattamento dei dati effettuato mediante il software gestionale Infinity DMS alle disposizioni e ai principi generali in materia di trattamento dei dati personali nei termini esposti in motivazione entro 90 giorni dalla data di notifica del provvedimento;
    • cessare  il trattamento dei dati biometrici dei dipendenti attraverso il sistema di riconoscimento facciale.

    e di fornire comunque riscontro adeguatamente documentato  entro il termine di 90 giorni dalla data di notifica del provvedimento;

    L’eventuale mancato riscontro può comportare l’applicazione della ulteriore sanzione amministrativa prevista dall’art. 83, par. 5, lett. e) del Regolamento.

  • Privacy

    Cybersicurezza e reati informatici: la legge pubblicata in Gazzetta Ufficiale

    Pubblicata in GU n. 153 del 02.07.2024, la Legge del 28.06.2024 n. 90, in vigore dal 3 luglio 2024, che introduce una serie di disposizioni per il rafforzamento della cybersicurezza nazionale e la prevenzione dei reati informatici, al fine di migliorare la resilienza delle infrastrutture pubbliche e private italiane, nonché a coordinare meglio le risposte agli incidenti cibernetici. 

    In breve sintesi alcune delle misure previste.

    Capo I: rafforzamento della cybersicurezza nazionale

    Il Capo I reca disposizioni concernenti la cybersicurezza nazionale finalizzate a conseguire una più elevata capacità di protezione e risposta di fronte a emergenze cibernetiche.

    Obblighi di notifica di incidenti

    Viene previsto un obbligo di segnalazione e notifica di alcune tipologie di incidenti aventi impatto su reti, sistemi informativi e servizi informatici in carico ai seguenti soggetti:

    • pubbliche amministrazioni centrali incluse nell’elenco annuale ISTAT delle pubbliche amministrazioni;
    • regioni e province autonome di Trento e di Bolzano; 
    • città metropolitane;
    • comuni con popolazione superiore a 100.000 abitanti e comunque i comuni capoluoghi di regione;
    • società di trasporto pubblico urbano con bacino di utenza non inferiore a 100.000 abitanti;
    • società di trasporto pubblico extraurbano operanti nell’ambito delle città metropolitane;
    • aziende sanitarie locali;
    • società in house degli enti fin qui richiamati che siano fornitrici di servizi informatici, dei servizi di trasporto sopra indicati, dei servizi di raccolta, smaltimento o trattamento di acque reflue urbane, domestiche o industriali ovvero servizi di gestione dei rifiuti.

    Nucleo per la Cybersicurezza
    Viene previsto un Nucleo per la cybersicurezza con la possibilità di convocare rappresentanti di enti rilevanti, come la Direzione nazionale antimafia, la Banca d'Italia e altri, per affrontare questioni di particolare rilevanza.

    Coordinamento Operativo
    Viene rafforzato il coordinamento tra i servizi di informazione per la sicurezza e l'Agenzia per la cybersicurezza nazionale, permettendo interventi tempestivi in caso di incidenti informatici significativi.

    Misure di Sicurezza dei Dati
    Le strutture competenti devono verificare che i programmi e le applicazioni informatiche rispettino le linee guida sulla crittografia e non presentino vulnerabilità note.

    Funzioni dell’Agenzia per la Cybersicurezza Nazionale
    L'Agenzia assume il ruolo di Autorità nazionale per la cybersicurezza, coordinando soggetti pubblici e privati per assicurare la sicurezza e la resilienza cibernetiche a livello nazionale.

    Capo II: prevenzione e contrasto dei reati informatici

    Il Capo II reca "Disposizioni per la prevenzione e il contrasto dei reati informatici nonché in materia di coordinamento degli interventi in caso di attacchi a sistemi informatici o telematici e di sicurezza delle banche di dati in uso presso gli uffici giudiziari".

    In particolare, si segnalano numerose modifiche al codice penale volte a rafforzare le previsioni in materia di prevenzione e contrasto dei reati informatici, da un lato, prevedendo inasprimenti di pene o ulteriori circostanze aggravanti rispetto alle fattispecie di reati informatici previste a legislazione vigente e, dall'altro, introducendo nuove fattispecie delittuose quali, ad esempio, l'estorsione mediante reati informatici di cui al novellato articolo 629 c.p.. 

    Al fine di rafforzare gli strumenti di contrasto dei reati informatici, viene prevista l'estensione del termine ordinario di conclusione delle indagini preliminari qualora i reati informatici siano commessi in danno di sistemi informatici o telematici di interesse militare o comunque di interesse pubblico.

    La speciale disciplina delle intercettazioni prevista per i fatti di criminalità organizzata, viene estesa ai reati informatici rimessi al coordinamento del procuratore nazionale antimafia e antiterrorismo.

    Allegati: