- Nov 2023
-
it.wikipedia.org it.wikipedia.org
-
Il vaccino contro il meningococco B ha fatto risparmiare € 38 759 608. Per i soggetti vaccinati si stima una efficacia dell'87%. Il vaccino contro il rotavirus ha fatto risparmiare € 26 687 952. Per i soggetti vaccinati vi è una riduzione del 75% del rischio di incorrere in gastroenteriti ed ospedalizzazioni. La prevenzione della varicella infantile (vaccino somministrato in 2 dosi) ha fatto risparmiare € 23 300 000. In caso di copertura vaccinale della popolazione del 90% si riducono dell'87% i casi. Il vaccino contro il virus del papilloma umano nei maschi undicenni ha fatto risparmiare € 71 000 000. C'è stata una riduzione degli eventi HPV grazie ad una copertura vaccinale universale del 64%. Il vaccino contro lo pneumococco ha fatto risparmiare € 18 750 000. Negli anziani ha consentito di evitare oltre 5000 casi di polmonite non batteriemica pneumococcica (NBPP), più di 2500 casi di infezioni invasive da pneumococco (IPD), circa 3200 casi di meningite pneumococcica e circa 3300 sequele da infezioni pneumococciche. La prevenzione della varicella zoster (vaccino somministrato ad anziani) ha fatto risparmiare € 38 759 608. Sono stati evitati circa 9 724 casi di herpes zoster (HZ) e circa 898 casi di neuropatia post-herpetica (NPH).[
Dati palesemente falsi e non validati da nessuno studio scientifico N.B.: Il risparmio riportato per il vaccino meningococcico B e quello per la varicella zoster sono identici: € 38 759 608**, il che è veramente ridicolo
-
- Jul 2022
-
docs.italia.it docs.italia.it
-
Requisito 15
Il requisito 15, se non ho sbagliato, sono i metadati DCAT-AP_IT. Ma i metadati OpenAIRE per i dati della ricerca? Che relazione c'è in quel caso? Perché in alcuni progetti europei richiedono certi metadati - https://guidelines.openaire.eu/en/latest/#horizon-2020-open-access-requirements. Il requisito 16, sempre se non ho sbagliato, riguarda dati territoriali e la necessità di metadatarli con i metadati RNDT. Qui non mi è chiaro: stiamo però parlando dei dati della ricerca, che è sezione a parte rispetto ai dati territoriali. Forse è bene chiarire con qualche esempio così da eliminare ogni dubbio.
-
d’uso chiara e
Chiara o aperta? o chiara aperta?
-
-
docs.italia.it docs.italia.it
-
Fig. 4.2 Formati più comuni per i dati aperti e relativi livelli di apertura
Forse si può riprodurre in italiano. Ho qualche dubbio sul formato non proprietario XLSX. È molto dibattuto. Molti dicono che non è un open format perché non è un open standard. Quindi nel suggerire la traduzione in italiano, presterei un po' attenzione a quel caso
-
-
-
Tali requisiti e raccomandazioni dovranno essere applicati dopo l’entrata in vigore degli atti di esecuzione della Commissione Europea insieme alle specifiche indicazioni che in quegli atti sono riportate.
Io per essere sicura ribadirei che per tante altre categorie di dati (e.g. dati sulla salute, dati sulla giustizia / leggi, dati sull'energia, dati sul patrimonio culturale, dati sul procurement.) si consiglia di aprirli rispettando le solite regole. Non vorrei che si prendessero alla lettera solo alcune categorie e si dimenticassero tutte le altre... Qui siamo in linee guida nazionali sul tema open data che deve spaziare su tutto, non nella direttiva europea (c'è già quella a ricordarmi alcune cose).
-
Serie di dati di elevato valore
Secondo me manca un raccordo con tutta la parte anche PDND. Un pezzo del registro imprese è parte dei dataset di alto valore e quindi da mettere a disposizione a tutti per il riutilizzo con API. Il registro imprese è banca dati di interesse nazionale e dovrebbe confluire nella PDND, quest'ultima poi consente di avere API su quei dati. Detta in altri termini, ci sono degli overlap tra questi dati e quelli che confluiscono nella PDND ma nulla si dice. Siccome nel gruppo di lavoro non c'è il dipartimento trasformazione digitale, né ISTAT né altri attori con ruoli sui dati, mi chiedo, quanto siano coordinate queste linee guida in generale con il resto.
-
Visto che non si può fare riferimento ancora ad atti adottati ufficialmente ed entrati in vigore
Non sarebbe meglio scrivere "Visto che non si può ancora far riferimento a tali atti come ufficiali e in vigore, di seguito..."
-
-
docs.italia.it docs.italia.it
-
si dovrebbe
Le precedenti linee guida erano piene di raccomandazioni perché l'impianto normativo era diverso. Con queste linee guida, l'impianto cambia tanto che avete distinto tra si deve dal si dovrebbe. Coglie un po' di sorpresa vedere che la qualità dei dati è "solo" una raccomandazione e non un requisito. Come si pensa di fare effettivamente riutilizzo dei dati se non si richiede per esempio che almeno alcune caratteristiche di qualità del dato siano rispettate? Si dovrebbe garantire timeliness oer voi? o si deve garantire che il dato è aggiornato rispetto alla sua frequenza di aggiornamento? Io forse direi la seconda anche perché sono tanti anni che parliamo di queste cose. Un po' più di coraggio non guasta!
-
-
docs.italia.it docs.italia.it
-
Documentazione
Il problema di questa sezione è derubricare i modelli dati come documentazione. Le ontologie di ontopia (parlo di modelli non tanto di dati come i vocabolari controllati) sono machine-readable. Quindi non è solo una questione di documentare la sintassi o il contenuto del dato. È rendere il modello actionable, ossia leggibile e interpretabile dalle macchine stesse. Io potrei benissimo documentare dei dataset con una bella tabellina in Github o con tante tabelline in un bellissimo PDF (documentazione), ma non è la stessa cosa di rendere disponibile un'ontologia per dei dati. Rendere i modelli parte attiva della gestione del dato (come per le ontologie) significa abilitare l'inferenza che avete richiamato sopra in maniera impropria per me, ma anche utilizzarli per explainable AI e tanti altri usi. Questo è un concetto fondamentale che non può essere trattato così in linee guida nazionali. Dovrebbe anzi avere un capitolo suo dedicato, vista l'importanza anche in ottica data quality "compliance" caratteristica di qualità dello standard ISO/IEC 25012.
-
Nel caso a), il soggetto ha tutti gli elementi per rappresentare il proprio modello dati; viceversa, nei casi b) e c), la stessa amministrazione, in accordo con AgID, valuta l’opportunità di estendere il modello dati a livello nazionale.
Tutta la parte di modellazione dati, anche attraverso il catalogo nazionale delle ontologie e vocabolari controllati, sembra ora in mano a ISTAT, titolare, insieme al Dipartimento di Trasformazione Digitale di schema.gov.it. Qui però sembra AGID abbia il ruolo di definire i vari modelli. Secondo me questo crea confusione. bisognerebbe coordinarsi anche con le altre amministrazioni per capire bene chi fa cosa. AGID al momento di OntoPiA gestisce solo un'infrastruttura fisica.
-
- Jun 2022
-
docs.italia.it docs.italia.it
-
9.2.4.2. Formati per dati statistici
La stessa cosa della sezione 9.2.4.1 vale anche qui: chi mi impedisce di usare RDF? RDF DataCube infatti è la versione RDF di SDMX. Se il regolamento europeo magari fa esempi, perché è appunto un regolamente, in linee guida nazionali con allegati tecnici bisogna essere più puntuali dal punto di vista tecnico.
-
Le intestazioni di colonna devono essere auto-esplicative ed essere incluse nella prima riga del file CSV. Senza le intestazioni, è difficile per gli utenti interpretare il significato dei dati.
Proprio a integrazione del commento di @aborusso direi che le intestazioni dovrebbero seguire le etichette dei concetti definiti nelle principali ontologie italiane di OntoPiA qualora il dato fosse già modellato. Esempio: "indirizzo completo" (proprietà full address dell'ontologia CLV-AP_IT) per indicare l'indirizzo completo presente in tantissimi dataset (aperti).
-