jump to navigation

L’App di Google ed Apple per il Contact Tracing Covid-19 venerdì 8 maggio 2020

Posted by andy in Information Security, Internet e società, privacy, tecnologia, Uncategorized.
Tags: , , , , , , , , ,
add a comment

Google ed Apple sono sempre in prima linea per aiutare gli utenti, rigorosamente gratis perché, come è noto, sono sono organizzazioni no-profit di beneficenza.

Ed anche con l’emergenza CoronaVirus non hanno perso tempo, e (pur essendo concorrenti) sono riuscite a mettersi d’accordo in un instante su uno standard di interoperabilità per realizzare un’app di contact tracing per tracciare i contatti da CoronaVirus.

Occorre intanto fare una precisazione: Android (Google) ed iOS (Apple) si spartiscono praticamente la totalità del mercato mondiale dei dispositivi mobili (circa i tre quarti del mercato per Android, un quarto per iOS, ed un misero 1% ad altri sistemi operativi).

E veniamo agli aspetti inerenti la privacy, tanto cari alle persone (che su FaceBook, WhatsApp, Instagram, etc. raccontano ogni istante della propria vita, cosa fanno, dove sono, i propri pensieri ed i propri gusti e le proprie preferenze).

In nessun caso le app prescelte potranno raccogliere informazioni sulla geolocalizzazione dei soggetti: ciò significa che chi gestirà i sistemi di raccolta e correlazione delle informazioni non avrà accesso a tale informazione.

È invece vero che Google ed Apple conosceranno tutti gli utenti che hanno installato l’app (per poterla installare occorre un account Google / Apple), e la loro posizione (come pensate che queste aziende possano conoscere in ogni istante lo stato del traffico di ogni strada del pianeta ed offrirvi informazioni pertinenti alla vostra posizione?).

Devo deludere coloro che pensano che la geolocalizzazione di un dispositivo si possa fare soltanto mediante il GPS: può essere fatta in vari altri modi che, se usati in combinazione, possono aumentare la precisione ottenuta con un singolo approccio; è possibile geolocalizzare un dispositivo mediante la celle telefoniche a cui si aggancia, le reti Wi-Fi a cui si connette, il suo indirizzo IP, nonché eventuali connessioni Bluetooth.

Esistono poi altri attori ‘trasversali’, che si possono inserire nel mezzo, tra l’app e Google/Apple: tanto per non fare nomi, scegliamo un produttore a caso: Xiaomi (altrettanto vale per altri produttori, in relazione alla loro aggressività commerciale).

Chi ha acquistato uno smartphone Xiaomi avrà certamente notato che ogni app preinstallata sul dispositivo chiede l’accettazione della politica per la privacy di Xiaomi (che naturalmente l’utente legge per filo e per segno fino all’ultima riga!) e di concedere a tali app un mare di autorizzazioni.

Grazie a tali autorizzazioni il vostro smartphone invierà al produttore un mare di informazioni, ed anche se qualche informazione non viene inviata oggi, potrà essere inviata dopo il prossimo aggiornamento delle app (ad esempio, quali app sono installate, quali dispositivi Bluetooth vengono incrociati, la vostra posizione, etc.).

Passiamo ad un’altra considerazione: Google ed Apple si sono affrettate provveduto a sviluppare e rendere disponibili le librerie software che servono per sviluppare le applicazioni, fornendo anche esempi di codice, per facilitare il lavoro degli sviluppatori.

La disponibilità di queste librerie implica che le applicazioni di tracciamento utilizzeranno software e servizi sviluppati da altri, su cui non vi è controllo, e addirittura, per la legge sulla protezione della proprietà di ingegno, è vietato ed è un reato effettuare il reverse engineering del codice per capire cosa effettivamente faccia …

Quindi, anche se chi sviluppa l’applicazione ed il servizio che riceverà i dati non potranno raccogliere informazioni sull’identità e sulla geolocalizzazione dell’app e dell’utente, questo non è necessariamente vero per Google ed Apple, che in ogni istante dispongono dell’identità del dispositivo e dell’utente che lo utilizza (oltre ad un mare di altre informazioni – si veda sopra).

L’idea poi che il memorizzare le informazioni soltanto localmente sul dispositivo dell’utente serva a garantire la privacy, in realtà serve soltanto a non rendere disponibile centralmente ai governi l’informazione, mentre Google ed Apple (almeno per i propri ecosistemi) già la possiedono, grazie al fatto che grazie alla geolocalizzazione ed alle reti di contatti già possedute possono sapere chi è stato vicino a chi (non stupitevi: già anni fa FaceBook inferiva conoscenze tra persone grazie al ripetersi di situazioni in cui due o più persone con account FB si trovassero nel medesimo luogo nello stesso momento …).

Se poi il sistema centrale che raccoglie le informazioni delle app è il loro, e non uno predisposto ad hoc da ogni governo, ci si rende conto che Google ed Apple disporranno (come società private) di una mappa mondiale dei possibili contagi mentre i singoli governi potranno accedere probabilmente soltanto ad un sottoinsieme di tali informazioni.

E questo potrebbe spiegare la fretta con cui questi due colossi, pur essendo concorrenti,  si sono messi d’accordo: sapere chi è potenzialmente infetto (o lo è stato) e chi è potenzialmente interessato a vaccini e farmaci per la cura dell’infezione rappresenta un mercato praticamente infinito per le case farmaceutiche.

Utilizzi ancora peggiori di queste informazioni possono includere l’ostracizzazione di persone risultate positive, la discriminazione nell’accesso ad aziende o territori, o anche nella selezione del personale da parte delle aziende.

Inoltre, mentre gli Stati si impongono dei termini per la conservazione di queste informazioni, chi potrà mai andare a controllare se Google ed Apple le distruggeranno veramente, e quando?

Ed in conclusione, visto che queste considerazioni le può fare qualsiasi cittadino, ritengo che il problema meriti un serio approfondimento da parte del Garante per la Privacy, tenendo conto che è in ballo una questione di trattamento di dati personali e sanitari.

Qualche riferimento:

Il SW, lo Stato e l’Esportazione in USA delle Tasse dei Cittadini venerdì 1 maggio 2020

Posted by andy in FLOSS, Information Security, Miglioramento, Pubblica Amministrazione, tecnologia.
Tags: , , , , , , , , , , ,
add a comment

Premessa

Penso che siano pochi (sempre che esistano!) i paesi in cui tutti i contribuenti siano felici di pagare le tasse nella misura in cui le pagano: sorgono sempre dubbi sulle capacità dello Stato di spendere al meglio le risorse raccolte.

Con questo mio pensiero provo a sollevare anch’io qualche dubbio, proponendo naturalmente anche una soluzione (mai lamentarsi se non si ha qualcosa di meglio da proporre!).

Mi concentrerò in questo post su come vengano spesi i soldi per l’acquisto di software commerciale da parte della PA, suggerendo delle ipotesi per impiegare meglio almeno parte di tali fondi.

Una stima della spesa per il SW da parte della PA

Prendiamo il tema degli acquisiti di software commerciale da parte della Pubblica Amministrazione, dove la parte dei leoni la fanno sempre i soliti grandi nomi (Microsoft, Oracle, VMware, Adobe, etc.)

Escludo quindi qualsiasi software ‘custom’ sviluppato ad hoc per la PA, nonché qualsiasi servizio di assistenza, configurazione, etc.

Al paragrafo 3.2.3 (La spesa ICT per macrovoci hardware e software, pag. 32) della relazione di AgID sulla spesa ICT nella PA italiana, possiamo osservare che la spesa effettiva dal 2016 in poi, e previsionale per il 2019, è sempre stata superiore ai 700 milioni di Euro (addirittura 850 nel 2018).

Stiamo parlando di circa 12 Euro per cittadino italiano (inclusi infanti e pensionati) e di circa 64 Euro per ogni contribuente (escludendo quindi infanti, pensionati, persone con reddito minimo non soggetto a tassazione, disoccupati, etc.).

Dove vanno a finire tutti questi soldi? nella maggioranza dei casi, negli Stati Uniti.

È davvero necessario esportare tutti questi capitali, impoverendo lo Stato ed i contribuenti?

A cosa serve tutto questo SW?

Intanto chiediamoci a cosa serve tutto questo software di cui acquistiamo licenze d’uso.

In generale, possiamo suddividere tutto questo software in tre categorie principali:

  • software ‘server side’, ovverosia sistemi di virtualizzazione (VMware, …), sistemi operativi server (Microsoft, e parzialmente RedHat, ora IBM), e motori di database (Oracle, Sybase, …);
  • sistemi operativi lato client (Microsoft);
  • software di office automation e programmi di utilità (Office, Skype, Teams della Microsoft, Acrobat Pro della Adobe, etc.)

È importante anche chiederci cosa effettivamente acquistiamo: si tratta di licenze d’uso, e non della proprietà dei prodotti: acquistiamo quindi la sola possibilità di utilizzare un prodotto, sottostando alle condizioni commerciali imposte dai fornitori.

 

Una stima della spesa per il SW da Parte della PA

Ho provato a cercare il numero di dipendenti pubblici in Italia, ed ho trovato varie stime, più o meno aggiornate, ma il numero supera sempre i 3.000.000 di persone.

Non so se quella che vado a fare sia una stima corretta, ma nell’era dell’informatizzazione ipotizzerò che circa 1.000.000 utilizzi un computer per svolgere almeno parte delle proprie attività; tenendo conto dei numeri dei ministeri, oltre a quelli delle regioni e dei comuni, credo che la stima possa essere considerata ragionevole.

Naturalmente non dispongo dei numeri effettivamente contrattati dalla PA, ma sono stime ragionevoli quelle di 84$/anno per Windows 10 Enterprise (volume licensing), mentre al dettaglio Office 2019 Professional viene 440$: farò una stima di 116$/anno con una licenza analoga a quella di Windows (tanto per fare una cifra tonda di 200$/anno).

Il tutto senza contare che molto spesso i computer vengono acquistati già dotati di una licenza Microsoft, a cui occorre aggiungere quella ministeriale acquistata nei contratti quadro tra PA e fornitore

L’importo non è esatto, ma certamente non si discosta molto dalla realtà; in ogni caso, se così fosse, 1.000.000 PC x 200$ / anno = 200 milioni di dollari all’anno per Microsoft.

Se ad ogni utente viene dato un PC con Windows ed Office, ed ipotizzando che CONSIP sia riuscita ad ottenere mediamente dei prezzi di mercato, una postazione di lavoro viene a costare, come software di base, circa 200$/anno – si vadano i conti precedenti.

Non entro nel merito dell’hardware, che purtroppo in alcuni contesti non viene aggiornato in relazione alle esigenze degli utenti, ma troppo spesso viene sostituito troppo presto nonostante la possibilità di funzionare egregiamente ancora per anni.

Le licenze server di Microsoft vengono al dettaglio circa 1.000$ / processore – ipotizziamo che per la PA vengano soltanto 600$/processore, che ripartite su un periodo di 3 anni fanno 200$/anno/processore.

Quanti server e quanti microprocessori avrà la PA? Ipotizziamo (e sto facendo l’ottimista) 10.000 server e 2 core ciascuno, per un totale di 20.000 core, e quindi 20.000 core x 200$/core/anno = 4.000.000$/anno.

Veniamo ora alla virtualizzazione: quante saranno le istanze di virtualizzazione attive in Italia? Al momento non sono riuscito a reperire (e penso che sia impossibile) un numero certo.

Utilizzerò come stima il valore di una istanza ogni 10 server, che dovrebbe ottimisticamente mediare tra le installazioni con un più elevato livello di consolidamento dei server e quelli ancora non virtualizzati (senza contare tutte le installazioni di disaster recovery, che di fatto raddoppiano il numero di istanze e quindi di licenze).

La licenza per un’istanza con il servizio di assistenza e supporto per tre anni viene circa 3.000€/anno, per un totale di circa 10.000 server / 10 x 3.000€/anno = 3.000.000€/anno.

E poi ci sono Oracle, RedHat ed altri software server side di produzione, con i relativi contratti di assistenza e supporto business.

Per Oracle, ipotizzando anche soltanto 1.000 installazioni in tutta Italia (in generale su sistemi con un discreto numero di processori), ipotizzando anche soltanto 10.000$/processore/anno e 4 processori/server, troviamo 1.000 x 4 x 10.000$/anno = 40.000.000$/anno.

Ed in quanto sopra riportato non sono stati conteggiati tutti i pacchetti e moduli software aggiuntivi per l’amministrazione, il monitoraggio, l’integrazione, l’alta affidabilità, etc. etc. etc.

Come potete vedere, facendo dei conti assolutamente conservativi, emergono rapidamente le centinaia di milioni di Euro all’anno, che regolarmente vengono trasferiti negli States.

Tutto questo software commerciale è realmente indispensabile?

Chiediamoci ora se realmente tutto il software di cui acquistiamo la licenza d’uso sia indispensabile, o se possa essere sostituito da altro più economico.

Per la parte server, esistono due tipi di sistemi: quelli cosiddetti ‘di produzione‘, e quelli di sviluppo, di test, o dedicato ad applicazioni non critiche.

Per la parte client (ovverosia il computer, fisso o portatile) assegnato agli utenti, occorre chiedersi quali siano le attività che vengono principalmente svolte dagli utenti, che sostanzialmente sono:

  • consultazione della posta elettronica;
  • navigazione su Internet mediante un browser;
  • condivisione di file tra utenti;
  • office automation (redazione di documenti, gestione dati mediante fogli elettronici, e qualche presentazione …)
  • comunicazioni e videoconferenze (questo è vero soprattutto da quando si è iniziato a fare smart working in seguito alla pandemia di Codiv-19).

Naturalmente gli usi sopra descritti sono riferibili soltanto alla grande maggioranza di utenti, e non a quelli che svolgono attività particolari).

È importante ora fare una considerazione: il pianeta (inteso come infrastrutture e servizi informatici) funziona sostanzialmente utilizzando software libero (libero nel senso di open source, e non di gratuito): il fatto che un software sia libero non esclude che si possano pagare servizi di assistenza e supporto:

Perché questa considerazione?

Perché la stragrande maggioranza delle esigenze delle aziende e degli utenti possono essere soddisfatte con software libero, sia lato server che lato client.

Ciò che conta, in un ambiente di produzione, non è il ‘possesso’ di un prodotto (o almeno del diritto di utilizzarlo), ma un servizio di supporto che supporti il cliente nella risoluzione dei problemi che si presentano (e naturalmente di una consulenza per progettare e far evolvere i propri sistemi informativi).

Se leggete le condizioni di licenza dei diversi prodotti commerciali citati, noterete che sono previsti due tipi di importi da pagare: uno (obbligatorio) per acquisire il diritto di utilizzare il prodotto (alle condizioni imposte dal produttore), e l’altro (facoltativo) per avere il diritto di chiamare qualcuno chiedendo aiuto se qualcosa va storto …

Ecco, il software libero vi libera dalla prima voce, lasciandovi naturalmente la libertà di decidere se pagare un servizio di supporto o no per le applicazioni che ritenete più critiche.

Un aspetto interessante è che mentre nel caso di software proprietario, sia il costo della licenza che quello per i contratti di supporto vanno al produttore, nel caso di software libero avete (appunto!) la libertà di rivolgervi a chiunque riteniate sufficientemente qualificato per gestire i vostri potenziali problemi.

Un altro aspetto, fondamentale, che differenzia il software libero da quello proprietario, è la sua apertura: non è possibile trovarsi in situazioni di ‘lock-in’, ovverosia di essere costretti a mantenere un prodotto o un fornitore, perché le modalità in cui il produttore ha implementato alcune funzioni rende il prodotto incompatibile o non interoperabile con altri prodotti, liberi o di altre parti (limitando persino la possibilità di sviluppare in house del software di adattamento).

E concludo questo paragrafo sintetizzando il fatto che non è indispensabile utilizzare software proprietario: naturalmente esistono prodotti commerciali che sono migliori di prodotti liberi (così come è vero il contrario!); per applicazioni specifiche, in cui si ritiene che un prodotto commerciale sia più appropriato, è corretto selezionarlo ed utilizzarlo.

Ma ciò non è vero nella stragrande maggioranza dei casi.

Sicurezza nazionale

A parte ogni considerazione sugli aspetti economici, è da considerare anche l’aspetto della sicurezza nazionale; infatti come può lo Stato essere certo che non vi siano backdoor all’interno del software acquistato (anzi: licenziato) e che non vi siano meccanismi che possono consentire a ‘qualcuno’ di bloccare il funzionamento del software?

Di fatto il solo meccanismo dell’attivazione del software è un meccanismo simile: se il software non viene riconosciuto come valido dalla casa produttrice (o da un suo sistema installato nelle reti aziendali), il software smette di funzionare.

E c’è di peggio: l’utilizzo sconsiderato che si è recentemente iniziato a fare in occasione dello smart working di tecnologie quali Skype, Teams, WebEx, GSuite, Google Drive, OneDrive, (Dropbox?), ha di fatto messo in mano ad aziende private statunitensi una quantità smodata di documenti e conversazioni riservate ad ogni livello istituzionale.

C’è qualcuno che ha fatto un’analisi dei rischi? Ritengo di no, altrimenti si sarebbero prese altre strade da molto tempo.

Adozione del software libero nella PA

Con il CAD, la PA si è imposta delle regole finalizzare a razionalizzare la spesa e ridurre gli sprechi (e, perché no? anche l’impoverimento dello Stato con esportazione continua di capitali all’estero), imponendo la predilezione del software libero, a meno di motivatissime e documentate ragioni.

Ulteriore aspetto fondamentale è che la PA si è imposta l’obbligo dell’adozione di standard aperti, che garantiscono l’interoperabilità tra piattaforme di qualsiasi tipo: ciò di fatto esclude ogni software proprietario che implementa funzioni, o formati di dati, o protocolli, non interoperabili con le omologhe implementate mediante standard aperti.

Quanto sopra porta al fatto che la PA deve utilizzare soltanto software libero, a meno di specifiche e giustificate ragioni, e che qualsiasi software sviluppato per la PA deve conformarsi soltanto a standard aperti (per i formati dei dati, dei file, per i protocolli di comunicazione, etc.), e deve essere rilasciato sotto licenza libera.

Limiti e problemi nell’adozione del software libero nella PA

Quanto esposto al punto precedente è un ideale (speriamo che non sia un’utopia).

Cosa limita la PA nel rispetto del CAD che essa stessa si è data?

Le ragioni sono tante, e non penso di riuscire ad identificarle tutte in questo post; tuttavia, tra le tante, vediamo:

  • mancanza di informazione: se ogni dipendente statale venisse informato sul costo del software che pretende di utilizzare al posto di quello libero, e di quanto soldi ogni anno gli vengono trattenuti sullo stipendio per le tasse, probabilmente accetterebbe più favorevolmente l’evoluzione;
  • disinformazione diffusa: troppo spesso gira la voce che il software libero non è all’altezza di quello libero, ma se gli utenti sapessero che i propri smartphone utilizzano software libero, così come FaceBook, Google ed il proprio router Internet di casa, probabilmente proverebbero a considerare la cosa con maggior obiettività;
  • direttori e dirigenti non sufficientemente competenti, responsabili e motivati, che spesso vedono in queste attività soltanto la fatica immediata, le seccature derivanti nel breve termine, e qualche responsabilità da assumersi con scelte a volte non comode;
  • mancanza di adeguate competenze di committenti e responsabili di sistema, e dell’eventuale supporto specialistico, senza le quali non è possibile preparare adeguati capitolati e specifiche di collaudo;
  • … e (perché no?) potenziali interessi (visti i numeri in gioco) che esulano da quelli dello Stato (come si dice, a pensar male si fa peccato, ma spesso ci si azzecca …).

Cosa si può (e lo Stato dovrebbe) fare …

Premetto che so che lo Stato ha tempi lunghi, ed il CAD lo dimostra: è del 2005, ma a distanza di 15 anni ancora il software e le comunicazioni sono in mano agli Stati Uniti (si colga ora l’occasione per rileggere il paragrafo sulla sicurezza nazionale …).

Cosa si potrebbe fare? occorre agire almeno sui seguenti fronti:

  • tecnico / legale: predisporre specifici allegati standard, sia tecnici che legali, che devono essere acclusi ad ogni bando di gara per forniture software, chiarendo quali sono gli standard (aperti!) adottati dalla PA e quali sono le modalità standard per l’interoperazione e collaborazione tra sistemi; tali documenti devono definire anche in modo chiaro e formale come devono essere predisposte le specifiche di collaudo ed accettazione, in modo da evitare situazioni in cui la PA è costretta ad accettare delle forniture inadeguate perché i requisiti progettuali sono stati prodotti da persone non competenti o senza cognizione della destinazione d’uso del prodotto da realizzare;
  • formazione delle stazioni appaltanti: è indispensabile formare e fornire gli strumenti alle stazioni appaltanti per verificare la conformità normativa delle richieste di acquisto per software commerciale e per lo sviluppo di software applicativo per la PA;
    per il primo, deve esistere la necessaria analisi prevista dal CAD, sottoscritta da una persona competente e responsabile per il progetto da realizzare, e
    per il secondo, occorre accludere ai bandi gli allegati standard di cui sopra per tutte le commesse di sviluppo software, in cui sia chiarito che qualunque prodotto che non si conformi a standard aperti, e che non si conformi alle architetture ed ai requisiti standard definite dalla PA non potrà essere collaudato né accettato;
  • client: questa è la nota dolente: l’utente finale è estremamente refrattario ai cambiamenti; tuttavia piattaforme client non standard lasciano aperta la strada ai fornitori per lo sviluppo e la fornitura di sistemi che mantengono il lock-in del cliente; occorre pertanto fare un censimento incrociato delle applicazioni utilizzate e degli utenti che le utilizzano (non tutti usano tutto), ed iniziare a riconfigurare tutte le postazioni che non hanno requisiti particolari con postazioni basate interamente su software libero;
    mano a mano che si procede emergono le applicazioni non standard, per cui la PA dovrà appaltare l’adeguamento), ed il cosiddetto shadow software, ovverosia tutti quei programmi sviluppati autonomamente dagli utenti e dagli Uffici, in mancanza di strumenti previsti e realizzati dall’Amministrazione; per tutti questi occorrerà procedere all’adattamento a software libero (e meglio ancora all’assimilazione del software trasversalmente più utile a livello nazionale), e quindi al conseguente aggiornamento a software libero dei computer degli utenti;
  • server: pur essendo vero che per alcune applicazioni possono essere necessari prodotti commerciali specifici, ciò non è necessariamente vero per tutte le applicazioni e per tutti i contesti; molte volte viene utilizzato software proprietari (e molto costoso) dove in realtà non vengono utilizzate funzionalità specifiche, ma soltanto quelle standard (penso ad esempio al file management, o al linguaggio SQL per i database); inoltre anche per gli ambienti di sviluppo e prova è spesso possibile utilizzare software libero (penso ad esempio agli ambienti di virtualizzazione, ai sistemi operativi ed ai database).
    Esistono inoltre piattaforme di amministrazione e gestione (software libero) che consentono di amministrare e gestire in modo uniforme ambienti e piattaforme liberi e non, così da non richiedere la duplicazione di know-how, competenze e persone per la gestione dei sistemi.
  • middleware: software legacy, datato, non conforme agli standard e che presuppone l’esistenza di software non standard lato server o, peggio, lato client, deve essere rapidissimamente aggiornato o sostituito, in quanto è un anello chiave nella catena che tiene legato il cliente ai produttori di software proprietario;
  • educazione: praticamente in tutte le scuole i docenti utilizzano software proprietario (si legga, Windows e MS Office), privando gli allievi della necessaria informazione per scegliere liberamente, e costringendo i genitori a spendere soldi per acquistare qualcosa che non è necessario (e di questi tempi i soldi non piovono dal cielo …); se poi una famiglia ha più figli, le licenze per il sistema operativo e per la suite di office automation si moltiplicano ….
    I genitori stessi non sanno di avere una scelta: lo Stato deve fare informazione.
  • divulgazione: lo Stato dovrebbe provvedere all’informazione e all’educazione dei cittadini; un semplice spot della Pubblicità Progresso, anche trasmesso non frequentemente, potrebbe iniziare a far girare la voce che esistono delle alternative …

Approccio economico

L’obiettivo di questo mio post non è quello di portare a tagli sconsiderati e ad un risparmio selvaggio: in medio stat virtus, diceva Aristotele (ovviamente lo diceva in greco antico) …

Ritengo che un buon obiettivo potrebbe essere quello di mantenere una spesa di 200 milioni per il software critico o per cui non vi è un’adeguata alternativa libera (e questo include principalmente il software server side).

Dei restanti circa 500 milioni, se ne potrebbero dedicare inizialmente 200 per l’adeguamento e la normalizzazione di tutti gli applicativi non conformi al CAD, ed i 300 rimanenti potrebbero essere ripartiti con un piccolo risparmio per lo Stato (100) ed un investimento (200) in formazione del personale della PA e per la creazione di posti di lavoro per un nuovo ecosistema di persone ed aziende italiane specializzate nel supporto al software libero ed al supporto agli applicativi della PA.

A tendere (nell’arco di 3-4 anni) su può puntare ai soliti 200 milioni per software critico, 250 di risparmi per lo Stato, e 250 di investimenti nell’ecosistema del software libero e delle aziende specializzate nel supporto ed evoluzione dello stesso.

Nel suo piccolo, quest’idea porterebbe ad un risparmi di 1 miliardo di Euro ogni quattro anni, e ad un investimento analogo nella creazione di posti di lavoro.

Conclusioni

L’Italia soffre oggi di un retaggio derivante dal periodo delle ‘vacche grasse’ del boom economico, della lottizzazione politica e degli interessi particolari posti sopra a quelli dello Stato.

L’inerzia delle Istituzioni, la mancanza di competenze e la deresponsabilizzazione ad ogni livello (ed attualmente anche la pandemia Covid-19) hanno portato l’Italia ad accumulare un debito spaventoso.

Non esiste una soluzione unica che possa risolvere questo problema, ma anche un rapido intervento sul risparmio sul software potrebbe portare lo Stato a ridurre il continuo impoverimento dei cittadini mediante esportazione dei capitali, riducendo al contempo le spese, ed investendo almeno parte delle risorse recuperate nella creazione di posti di lavoro.

Riferimenti

 

Come ridurre molto il consumo degli aerei martedì 6 novembre 2018

Posted by andy in tecnologia.
add a comment

Anni fa, durante un volo intercontinentale, ho fatto quattro chiacchiere con il comandante.

Per curiosità, gli ho chiesto quanto consuma un aereo, e la risposta mi ha lasciato alquanto sconcertato: mentre io ragionavo in litri/chilometro, lui utilizzava come unità di misura la tonnellata/ora di carburante.

Ed i numeri erano ancor più stupefacenti: l’MD11, con cui stavo volando, in fase di decollo ha un consumo di 11 tonnellate/ora di combustibile, per ogni motore.

E l’MD11 ne ha tre …

Potrebbe quindi essere interessante adottare negli aeroporti le medesime tecnologie che si utilizzano sulle portaerei: delle catapulte che accelerano l’aereo portandolo alla velocità di decollo (o almeno aiutandolo a raggiungere tale velocità) sfruttando energia disponibile a terra, invece che combustibile di bordo.

L’energia di terra costa molto meno di quella prodotta a bordo, e tutto il combustibile che si può risparmiare e non trasportare riduce il peso dell’aereo e quindi il consumo durante il tragitto.

Pubblicate in G.U. le Regole tecniche: arriva il nuovo “sistema di conservazione” dei documenti informatici sabato 15 marzo 2014

Posted by andy in Information Security, tecnologia.
Tags: , , , ,
add a comment

Sono state pubblicate in G.U. le Regole tecniche per il nuovo “sistema di conservazione” dei documenti informatici.

Una delle novità riguarda il concetto di “sistema di conservazione“, che viene definito come un sistema che, in tutto il ciclo di vita del documento, deve assicurarne la conservazione con i metadati a essi associati, tramite l’adozione di regole, procedure e tecnologie idonee a garantirne le caratteristiche di autenticità, integrità, affidabilità, leggibilità e reperibilità.

Non intendo qui entrare nel merito delle caratteristiche di autenticità, integrità, affidabilità e reperibilità, che sono di fatto da anni oggetto degli obblighi derivanti dalla Legge sulla Privacy (d.Lgs. 196/2003), e successive integrazioni e modifiche.

Grazie alla redazione del DPS, tali obblighi hanno in sostanza portato all’attenzione del top management delle aziende ed anche dei professionisti la necessità di gestire la sicurezza delle informazioni in tutto il loro ciclo di vita.

Desidero invece concentrarmi su uno dei termini invece ha delle implicazioni che probabilmente sfuggono ai più: la ‘leggibilità‘.
Supposto che siamo in grado di assicurare una lunga vita al documento informatico, siamo altrettanto in grado di garantirne la sua leggibilità?
Già oggi è estremamente difficile trovare del software che sia in grado di aprire documenti realizzati con le prime versioni di Word, Access, etc. (per non parlare di quelli redatti con i programmi di office automation che giravano prima su DOS e su altre piattaforme (Commodore, Sinclair, etc.).
E se anche inseriste nel vostro ciclo di vita di gestione delle informazioni anche la preservazione del software necessario, il giorno che vi occorresse, sareste ancora in grado di utilizzarlo?
Potrebbe essere definitivamente scaduta la licenza d’uso, o non essere più supportato dall’ultima versione del sistema operativo che avete adottato a livello aziendale …
Senza voler fare dell’allarmismo, già oggi esistono parecchie criticità nell’utilizizare all’interno di WIndows 7 applicativi scritti per versioni precedenti di Windows e del DOS – vedi il workaround del XPmode).
Windows 8.1 prevede l’utilizzo del DRM: il che significa che Microsoft avrà il controllo sul software che utilizzerete; a fronte di una licenza scaduta, il produttore del software potrebbe impedire l’esecuzione del programma, o addirittura forzarne la disinstallazione.
In sostanza, garantire la leggibilità di un documento potrà divenire potenzialmente impossibile.

Ovviamente esistono anche gli standard aperti ed il software libero, ma queste sono scelte strategiche che in pochi sono in grado di affrontare.

 

A proposito …
visto che per poter rendere ‘leggibile’ un documento possono essere necessari dell’hardware obsoleto ed anche una o più licenze di software anch’essi potenzialmente obsoleti, in caso di giudizio quale delle parti ha l’onere di fornire la piattaforma per poter presentare il documento?

Ed il giudice stesso, volendo consultare gli atti del processo può avere necessità di fare accesso al documento stesso; anche nell’ottica della dematerializzazione deve andare da una delle parti e farsi stampare tutto?
O si fa mettere a disposizione una copia del sistema informatico necessario per poter leggere il documento?

Self-Assessment per la migrazione verso i servizi ‘in the cloud’ sabato 9 febbraio 2013

Posted by andy in tecnologia.
Tags: , , , ,
add a comment

Attraverso il CSA – Italy Chapter, sono venuto a conoscenza di uno strumento messo on-line da Microsoft per valutare il proprio stato di preparazione ad accedere al cloud

Descrizione dello strumento

Il sito http://technet.microsoft.com/en-us/security/jj554736 offre uno strumento web-based di self-assessment per valutare sia il gap esistente rispetto alle normative prese a riferimento, sia i vantaggi derivanti da una migrazione verso servizi cloud-based.
In particolare lo strumento si definsce come un Cloud Security Readiness Tool for Cloud Adoption, e quindi specificamente orientato a valutare gli aspetti inerenti la sicurezza delle informazioni.
Lo scopo, così come traspare intuitivamente già al primo accesso, è quello di fornire alle organizzazioni non ‘cloud-aware‘ uno strumento semplice ed intuitivo per valutare la prorpia situazione ed i vantaggi che il cloud può offrire.
L’interfaccia consiste in un unico form da compilare, diviso in una sezione iniziale di informazioni generali per inquadrare la dimensione e la tipologia dell’organizzazione, ed una seconda specifica per il self-assessment, composta da 27 quesiti.
Una volta compilato il form, viene richiesta una semplice registrazione (basta un indirizzo di e-mail, senza fornire ulteriori informazioni) per poter scaricare il documento di assessment prodotto; la registrazione consente inoltre di tornare a rivedere, correggere e modificare le proprie valutazioni per aggiornare il rapporto.

Metodo di valutazione

Per quanto riguarrda il metodo di valutazione, ho valutato due casi ragionevolmente ai limiti in Europa (un’organizzazione governativa con parecchie migliaia di PC, e una di produzione con pochissimi PC), e per entrambe ho compiilato il form fornendo la configurazione e quella migliore.

Pro

  • semplicità d’uso: le informazioni generali richieste per la categorizzazione dell’utilizzatore sono veramente poche e chiare; anche i quesiti per l’assessment sono molto semplici e chiari, e le risposte possibili (quattro) consentono di inquadrare molto facilmente il contesto effettivamente in essere presso la propria realtà;
  • semplicità di registrazione e non invasività della propria privacy;
  • il report è ben schematizzato, sintetico e chiaro;
  • può essere un interessante strumento per iniziare ad approcciare in poco tempo il tema del cloud e della possibilità di valutare la possibilità di appoggiarvi alcuni servizi;
  • lo strumento consente di salvare più analisi, con la possibilità di modificarle e riesaminarle in momenti successivi;
  • lo strumento non è di parte, nel senso che non evidenzia vantaggi e specificità dell’offerta del realizzatore.

Contro

  • Lingua: al momento il sito è soltanto in lingua inglese, così come il report generato; questo potrebbe costituire un fattore limitante soprattutto per le piccole imprese;
  • Tipologia di servizi cloud: al momento, lo strumento offre come unica scelta l’opzione SaaS; le opzioni IaaS e PaaS sono indicate ma non selezionabili;
  • Il report è forse un po’ troppo astratto ed orientato ad un dettaglio di controlli troppo formale (NIST SP800-53), e quimdi fruibile più da uno specialista della sicurezza, piuttosto che da un’organizzazione che vuole capire quanto il cloud possa essere o meno una soluzione per elevare i propri livelli di sicurezza;
  • dato che la norma di riferimento in Europa è la ISO27001, sarebbe apprezzabile avere riferimenti per il mapping dei controlli (anche) rispetto a questa norma;
  • manca una presentazione intuitiva dei risultati dell’assessment e del gap esistente rispetto ad una possibile migrazione verso i servizi nel cloud;
  • vengono presentati soltanto i vantaggi derivanti da una migrazione verso il cloud, omettendone invece i problemi ed i rischi.

Conclusioni

Nel complesso lo strumento appare interessante, sopratutto nell’approccio.
Tuttavia il sito appare essere molto orientato all’utente americano, sia per la mancanza di internazionalizzazione, sia per i riferimenti al solo standard NIST SP800-53.
Essendo realizzato dalla Microsoft, non stupisce che il sito tratti soltanto il modello SaaS, dovendo promuovere il reale business dell’azienda (software ed applicazioni), piuttosto che infrastrutture e piattaforme (modelli IaaS e PaaS).
Il livello di chiarezza, semplicità ed intuitività del report generato non sono al livello di quelli del form iniziale di self-assessment, ma potrà essere facilmente migliorato integrando rappresentazioni grafiche dei risultati; tuttavia ad oggi esso potrebbe non essere sufficientemente in linea con l’obiettivo di facilitare le organizzazioni che non dispongono di capacità interne evolute a comprendere dove si posizionino nel panorama della sicurezza e quale possa essere il gap che può essere coperto migrando verso servizi nel cloud.
Lo strumento è ‘monodirezionale’, nel senso che, qualunque sia il risultato dell’assessment, evidenzia soltanto gli aspetti positivi di una migrazione verso il cloud, e quindi non può essere considerato completamente obiettivo in sede di valutazione; non vengono in nessun modo presentati i problemi derivanti dalla necessità di riqualificare o riconvertire le competenze del proprio personale, dei possibili rischi e dei costi nascosti.

Lo strumento è ‘asimmetrico’, nel senso che, qualunque sia il risultato dell’assessment, evidenzia soltanto gli aspetti positivi di una migrazione verso il cloud, e quindi non può essere considerato completamente obiettivo in sede di valutazione; non vengono presentati in nessun modo i problemi derivanti dalla necessità di riqualificare o riconvertire le competenze del proprio personale, dei possibili rischi e dei costi nascosti.

OneShares: la nuova trovata per raccogliere informazioni riservate giovedì 16 febbraio 2012

Posted by andy in Information Security, tecnologia.
add a comment

Ne hanno inventata un’altra: il servizio OneShare (https://oneshar.es) consente di inviare ‘messaggi che si autodistruggono dopo la prima ed unica consultazione’ .
Qui (https://oneshar.es/about) le indicazioni sulla sicurezza implementata.
Si dimenticano di dire che il messaggio a loro arriva in chiaro, prima che lo criptino (con una loro chiave, e quindi lo possono anche decrittare), e che quindi è in loro potere leggerne il contenuto.
Si dimenticano anche di dire che il browser che legge il messaggio può fare caching, e quindi l’ipotesi dell’autodistruzione del messaggio vale solo lato server.

Insomma, una nuova trovata per raccogliere informazioni dichiaratamente sensibili (altrimenti che senso avrebbe utilizzare il servizio) al popolo sprovveduto della Rete.

La notizia, con un’impostazione un po’ promozionale, la si può trovare sul Fatto Quotidiano.

Come al solito, il marketing promuove come oro un’idea, ma si dimentica di raccontare come stanno in realtà le cose.

E certamente nessuno viene a raccontare quale sia il reale scopo del nuovo business …

L’evoluzione dei motori di ricerca lunedì 6 febbraio 2012

Posted by andy in Internet e società, tecnologia.
Tags: , , , ,
add a comment

Oggi nasce un nuovo motore di ricerca: Volunia, dopo una ragionevole gestazione.

Parto di una mente italiana (la medesima che ha ideato il cuore di Google), il suo obiettivo è quello di stare al passo con i tempi.

E questo mi ha portato a riguardare indietro, ai primi grandi motori di ricerca su Internet, ad Altavista

E ripercorrendo con il pensiero questi ultimi anni ho razionalizzato quella che è la sostanza dell’evoluzione della tecnologia alla base dei motori di ricerca:

  • i primi motori di ricerca erano content-based: il loro scopo era quello di indicizzare i contenuti e di fornire dei rimandi a tutte le pagine che contenevano le parole chiave ricercate;
  • con il tempo si è puntato anche a migliorare la qualità della comprensione, da parte del motore, delle parole chiave, puntando anche a comprendere (per quanto possibile) anche interrogazioni in linguaggio naturale;
  • ulteriore passo: si è dato valore alle relazioni ed ai link (in sostanza, quanto i contenuti risultavano ‘gettonati’), ed i motori hanno iniziato a fare del ‘ranking‘ evoluto, e quindi non solo a dire quali pagine contengono più parole chiave, ma quali sono le pagine di qualità superiore, ovverosia quelle più visitate e quindi ritenute più autorevoli;
  • a corredo, oltre che all’indicizzazione dei contenuti, si è iniziato ad indicizzare anche le immagini ed i contenuti multimediali, offrendo anche meccanismi di base per effettuare ricerche non solo per parole chiave ma anche per analogia;
  • siamo al terzo step: il motore di ricerca diventa ‘social’, proprio come il nuovo Volunia; il web diventa social? Ed il motore di ricerca diventa user-centrico;

…e lungo tutto questo percorso si è sempre parlato del web semantico, cercando anche di farsi aiutare da una migliore strutturazione del linguaggio HTML, passato attraverso varie versioni, ed infine attraverso XML; un’utopia? Certamente no, ma prematura rispetto alle attuali potenzialità della Rete (per quanto incredibili esse già siano).

E come sarà la prossima generazione di motori di ricerca?

Nella mia visione, la prossima generazione di motori di ricerca si baserà su paradigmi distribuite, basati su tecnologie P2P.

Non sto inventando l’acqua calda, o almeno non oggi: ho iniziato a formarmi questa idea già anni fa, e forse se ne trova traccia in qualche mio vecchio post.

La cosa interessante è che tecnologie di questo tipo sono già in fase di sviluppo, ed alcune sono anche già state rilasciate.

Ma perché il futuro dei motori di ricerca dovrebbe essere basato su tecnologie di questo genere?

Ritengo principalmente per due motivi:

  1. i netizen iniziano a rendersi conto di quante informazioni su di se circolano in Rete senza il proprio controllo, e diventano sempre più attendi alla propria privacy;
  2. la quantità di informazione presente in Rete cresce ad una velocità vertiginosa, con la conseguente necessità di far crescere di pari passo la ‘dimensione’ dei motori di ricerca, con le relative implicazioni di infrastruttura, costi, consumi, impatto ambientale, rischi …

Tutto sommato un sistema di indicizzazione e di ricerca distribuito (ed in qualche modo localizzato con i dati da indicizzare) avrebbe il vantaggio di ridurre la quantità di informazione duplicata, distribuendo e delegando costi ed infrastrutture ai proprietari dei dati, e di lasciare al proprietario degli stessi (e dei relativi indici) il controllo sugli stessi.

QR Codes e cartamoneta giovedì 22 dicembre 2011

Posted by andy in tecnologia.
Tags: , , , , , , ,
add a comment

La fantasia nel trovare applicazioni sempre nuove, più interessanti ed utili per la tecnologia che di giorno in giorno ci viene messa a disposizione non ha limiti.

Proviamo ad immaginare l’applicazione dei QR Codes alla carta moneta.

Di fatto, si tratta soltanto di scrivere il numero di serie anche in una forma diversa, meglio intelleggibile ai dispositivi elettronici.

Ma il QR Code sarebbe così quasi sprecato: può contenere molta più informazione, e quindi perché non inserire anche l’importo della banconota ed il tipo di valuta, la data, il paese e la zecca di emissione?

Con tale informazione riportata sulla banconota cosa potremmo fare?

Ad esempio potremmo tracciare la circolazione della moneta, se ogni esercizio commerciale si dotasse di un lettore (di fatto, ad oggi quasi tutti sono già dotati di ‘lettori’ per verificare l’autenticità della banconota.

Tutto sommato si preserverebbe l’anonimato degli utilizzatori (in nessun modo verrebbe associata esplicitamente al QRcode della banconota un’informazione identificativa di chi la spende o la riceve; sarebbe tuttavia molto più facile tracciare il movimento della banconota nel tempo ed incrociare questo con altre informazioni, come la contemporanea presenza di telefoni cellulari.

Utilizzando uno smartphone si potrebbe in ogni momento avere il controvalore nella propria valuta (funzione molto utile per i turisti, che spesso hanno difficoltà a rapportare il valore del denaro straniero rispetto al proprio).

Sarebbe anche più facile identificare banconote contraffatte, se la lettura del codice viene segnalata in tempo reale ad un sistema centralizzato: la stessa banconota non può essere spesa contemporaneamente in due o più posti.

Per assicurare l’autenticità della banconota si potrebbe utilizzare un hash del codice con un numero casuale inserito in filigrana, generato con un certificato della zecca emittente: per contraffare le banconote occorrerebbe inserire in filigrana un codice diverso per ogni banconota, cosa che aumenterebbe a tal punto il costo di produzione da rendere meno appetibile la falsificazione del denaro.

Idea per un motore di ricerca Etico giovedì 25 agosto 2011

Posted by andy in Etica, Information Security, Internet e società, tecnologia.
Tags: , , , ,
1 comment so far

Leggo oggi una (nuova) notizia sul tracciamento pervasivo che i motori di ricerca fanno della nostra navigazione in Rete (Lo scandalo “supercookies”
Utenti pedinati senza saperlo
).

Microsoft ha appena fatto ‘marcia indietro’, ma il problema è stato solo rimandato: saranno già alla ricerca di nuovi modi per fare la medesima cosa.

Dovrei scandalizzarmi? Assolutamente no: l’intero business dei motori di ricerca si basa proprio sulla raccolta sempre più precisa di informazioni sul profilo degli utenti da rivendere (come minimo) per scopi di advertising (non voglio addentrarmi sugli interessi che esistono per tali informazioni da parte di enti governativi e non).

Il problema è certamente sentito dai cittadini della Rete, che sono alla ricerca di motori di ricerca non traccianti (provate a fare una ricerca di ‘non tracking search engine‘ per farvi un’idea …); qui trovate una ‘Top 5’ di motori di ricerca anonimi.

Ma se leggete bene i commenti in Rete, i netizen non si fidano, ed a ragione: di fatto, cosa cambia utilizzando un motore di ricerca diverso da quelli tradizionali? Semplicemente che i propri dati finiscono in mano ad altri (ed in ogni caso sarebbe interessante scoprire chi realmente c’è dietro ad ogni motore di ricerca).

Faccio un paio di semplici considerazioni:

  1. i motori di ricerca costano, e tanto: lo storage, la banda per la connettività, la corrente, la manutenzione dei data center e lo sviluppo e la manutenzione del software hanno un costo (per non parlare del supporto da fornire agli enti governativi per l’estrazione di dati e per la rimozione di contenuti vietati);
  2. visto che i comuni motori ricerca non chiedono soldi, chi è così disinteressato da investire centinaia di milioni o addirittura miliardi senza una prospettiva di rientro (e possibilmente di utile)?

NOTA: ci tengo a fare una precisazione prima che intervenga qualche ‘misunderstanding’ (o cielo! … sto diventando anglofono? Avrei anche potuto utilizzare il termine ”incomprensione’ …!): il fatto che un motore di ricerca sia ‘anonimo’ non significa che non raccolga ed analizzi dati; l’importante è capire quali dati possono essere raccolti e quali no; sostanzialmente non devono essere raccolti dati che consentano la profilazione del singolo utente; un metro che utilizzi qualsiasi dato che consenta di capire quali siano le ricerche più ‘gettonate’ e da quale paese vengano, le fasce orarie di utilizzo, etc. può essere utilizzato senza mettere a rischio la privacy delle persone.

Ciò detto, proviamo a chiederci quali siano i requisiti minimi che un motore di ricerca deve soddisfare per poter realmente non aver bisogno di profilare gli utenti per sostentarsi:

  1. deve essere finanziariamente autonomo;
  2. deve poter dimostrare che nel proprio codice non sono implementate regole di profilazione.

Vediamo ora come sia possibile pensare di soddisfare tali requisiti:

  1. autonomia finanziaria:
    1. un contributo (simbolico) di 1 Euro all’anno, per 1 miliardo di utenti, sono 1 miliardo di Euro, che consentono il sostentamento di una struttura più che ragguardevole .. (questo implica ovviamente che gli utenti devono essere registrati);
    2. riduzione o eliminazione del contributo per coloro che non si vogliono registrare, per i quali verrà effettuata una limitata e ragionevole, e soprattutto dichiarata, profilazione; i dati così raccolti potranno essere utilizzati per finanziarsi anche con entrate per pubblicità mirata;
    3. entrate derivanti dalla rivendita di analisi dei dati raccolti (per scopi di studio o commerciali);
    4. eventuale licensing del codice del motore di ricerca, per la realizzazione di motori proprietari;
    5. probabilmente si
  2. trasparenza per dimostrare che non viene effettuata la profilazione degli utenti:
    1. apertura del codice (Open Source – che non significa necessariamente ‘gratuito e liberamente copiabile’);
    2. verifiche indipendenti di  parte terza sul rispetto della policy sulla privacy (forse potrebbe starci anche una certificazione ISO27001 …)

L’Internet Kill Switch sta diventando un problema sempre più serio … Domani toccherà anche an noi? lunedì 21 febbraio 2011

Posted by andy in Information Security, Internet e società, tecnologia.
Tags: , , , ,
add a comment

Riprendo il tema di una discussione avviata altrove sul fatto che una democrazia reale non può basarsi su infrastrutture che possano divenire dei SPOF (Single Point Of Failure) – in sostanza, su infrastrutture che consentano a pochi di controllare la disattivazione (completa o selettiva) delle comunicazioni.

Questo include la Rete, le compagnie di telecomunicazioni, ma anche siti sociali quali FaceBook e Twitter.

I casi di oscuramento di Internet e delle telecomunicazioni si stanno facendo sempre più frequenti; poco tempo fa in Egitto; ora anche la Libia.
In passato la Cina, Cecenia, Lituania. …
Senza contare leggi italiane e non per mettere sotto controllo chi pubblica ed i contenuti, ai fini della censura.
E gli americani si stanno preoccupando di inserire un Internet Kill Switch in tutte le infrastrutture critiche di comunicazione (ISP, carrier, etc.)

Da sempre chi controlla il potere o vuole fare un colpo di stato mette tra gli obiettivi primari le telecomunicazioni.

La legge non difenderà certo la libertà delle persone.
Occorre che se ne (pre)occupino le persone stesse.

Stanno maturando i tempi per pensare a qualche soluzione.

A parer mio, ogni possibile soluzione deve avere, come minimo, le seguenti caratteristiche:
– non appoggiarsi su infrastrutture verticali che possono concretizzare dei SPOF (carrier, telecom, …)
– essere distribuite, e quindi non attaccabili se non con uno sforzo / costo immane;
– consentire l’anonimato (questo forse è un corollario, ma con IPv6 imminente, ove anche i frigoriferi avranno un proprio indirizzo pubblico …)