Warning: Array to string conversion in /web/htdocs/www.fondazioneluigigaeta.it/home/wp-content/themes/eventchamp/include/header.php on line 745

Warning: Array to string conversion in /web/htdocs/www.fondazioneluigigaeta.it/home/wp-content/themes/eventchamp/include/header.php on line 691

Warning: Array to string conversion in /web/htdocs/www.fondazioneluigigaeta.it/home/wp-content/themes/eventchamp/include/header.php on line 691

PROGETTO “Mezzogiorno: Strategie e azioni per un cambiamento eco-sostenibile” L’esperto risponde

Con l’ avvio dello sportello on – line “l’esperto risponde: il servizio in pillole” Si è pensato di potenziare ulteriormente il servizio di consulenza.La procedura per l’invio di una domanda/quesito all’esperto è semplice e gratuito. Per poter scrivere “l’esperto risponde” è necessario registrarsi compilando un form, oppure se già registrati effettuando il log-in. Nello scrivere il quesito, non indicare dati personali a parte nome e cognome e inviare una sola domanda formulata in maniera chiara e comprensibile, che non superi i 500 caratteri tipografici. Indicare inoltre, in modo completo eventuali riferimenti a domande già pubblicate nella sezione creata. Le risposte alle domande di interesse generale inviate saranno pubblicate entro 15 giorni dalla richiesta nella sezione dedicata del sito.La consultazione on-line è ad accesso libero; si precisa che le risposte dell’esperto hanno esclusivamente lo scopo di fornire informazioni di carattere generale. L’elaborazione dei quesiti, per quanto curata con scrupolosa attenzione, non può comportare responsabilità da parte degli esperti e/o dell’editore per errori o inesattezze.

 

    CATEGORIE DOMANDE

    Ambiente

    Category: Ambiente

    Il dato certo è che la concentrazione di gas serra, espressa come anidride carbonica equivalente, supera del 41% quella esistente all’inizio della rivoluzione industriale (1750).
    La 
    temperatura media del pianeta è aumentata di 1,1 gradi centigradi. Essendo una media vuol dire che in altre parti del pianeta, per esempio al Polo Nord, la temperatura è aumentata di 4/5 gradi.

    Dibattiti, discussioni, incontri tra capi di Stato non hanno prodotto risultati concreti sulla riduzione delle emissioni, che generano riscaldamento e cambiamento climatico. Il clima è sempre cambiato per cause naturali (macchie solari, comete, meteoriti, asteroidi, raggi cosmici, vulcani) ma l’uomo si conferma come attore ecologico globale, in grado di influenzare il clima.

    Tutto il XIX secolo si caratterizza con emissioni di carbonio dovute all’uomo per centinaia di milioni di tonnellate. Nel 1920 raggiungono il miliardo di tonnellate e nel 1960 le emissioni risultano triplicate: 3 Gt nel 1970, che diventano 4 Gt nel 1970, 5 Gt nel 1980, 6 Gt nel 1994, 7,2 Gt nel 2005 e 11 Gt oggi. Il 70% di queste emissioni sono dovute all’uso di combustibili fossili, il 30% a deforestazione e coltivazioni.

    La velocità di crescita della concentrazione del carbonio in atmosfera non ha uguali, quantomeno negli ultimi ventimila anni. Il gruppo internazionale sui cambiamenti climatici (IPCC) ha utilizzato una serie di dati e assunzioni messi dentro i modelli di previsione ed estrapolato una serie di scenari con previsione di una temperatura media che continuerà a crescere con un andamento legato alla emissione di gas serra prodotti dalle attività dell’uomo.

    Oggi le emissioni di gas serra sono aumentate del 50% rispetto al 2000. La temperatura aumenterà in maniera diversa tra le varie parti della Terra. La temperatura crescerà di più ai poli, nell’emisfero nord e sui continenti e meno alle basse latitudini, nell’emisfero sud e sugli oceani. Tutti gli scenari prevedono un aumento della temperatura del pianeta. Quattro anni fa IPCC propose dei limiti di aumento delle temperature fissato in due gradi come limite massimo da non superare e un grado e mezzo come limite preferibile di aumento rispetto al 1750.

    Quali le conseguenze?

    La temperatura media è già aumentata di 1,1 gradi centigradi e resta quindi un margine di 0,4°C e 0,9°C per l’obiettivo massimo. Quanta CO2 possiamo ancora emettere per non superare i limiti di temperatura consigliati da IPCC? La risposta ci viene dall’Institute for Climate Change and the Environment di Londra e da altri ricercatori.

    Abbiamo due possibilità su tre di arrivare a un aumento di un grado e mezzo se le emissioni di CO2 (una CO2 equivalente per tenere conto di tutti i gas serra) non superano i 320 miliardi di tonnellate (Gton). Una possibilità su due se le emissioni sono 480 Gton e una su tre con 740 Gton. Le emissioni lo scorso anno sono state 42 GTon e se continueranno a essere tali nel 2026 raggiungeremmo il limite di 320 Gton e non potremo immettere nemmeno un kg di CO2 per evitare che la temperatura aumenti di 0,4°C. Una possibilità su due entro il 2031 restando sempre a emissioni come lo scorso anno la si raggiungerebbe nel 2031 e una su due nel 2037.

    Non c’è molto tempo per discussioni, urla e cortei. Bisogna agire. Gli esperti della sicurezza e molte agenzie di intelligence affermano che gli effetti economici e sociali dei cambiamenti climatici saranno causa di conflitti politici e persino militari.

    L’ONU considera i cambiamenti climatici come una minaccia per la pace. La Central Intelligence Agency (CIA) degli Stati Uniti già 10 anni fa considerava i cambiamenti climatici la più grave minaccia per la sicurezza nazionale. Addirittura più pericolosa del terrorismo. Azioni di contrasto? All’interno del Global Energy and CO2 Status Report dell’International Energy Agency (IEAI) si legge che Cina, Stati Uniti e India hanno rappresentato circa il 70% dell’aumento della domanda di energia in tutto il mondo. Alla crescita del 2,3% della domanda di energia corrisponde anche un aumento pari all’1,7% delle emissioni globali di CO2. Praticamente a livello globale non è stato fatto nulla.

    Category: Ambiente

    Un’Italia piena di emergenze riassunte alla perfezione nel caso Sicilia

    Il dato complessivo è questo: 200 mila morti dall’Unità d’Italia a oggi, sotto le macerie dei terremoti o nel fango delle alluvioni, e 7 miliardi di spesa all’anno dal dopoguerra, per risarcimenti e ricostruzioni.

    Nel 1966 una frana ad Agrigento e 66 famiglie senza casa hanno ricevuto il risarcimento 41 anni dopo. Anno 2006 e il ministro dell’ambiente Pecoraro Scanio che dichiara “la difesa del suolo è l’opera pubblica più importante. Significa salvare vite umane, difendere l’ambiente, le città.

    Le emergenze italiane spiegate

    Pecoraro istituì l’Osservatorio Nazionale per la Difesa del Suolo e la Tutela delle Acque con compito di monitoraggio economico e tecnico degli interventi e opere, di verificare la capacità di spesa degli enti sui finanziamenti, concessi. Quindi? Non se ne fece nulla!

    Arriva la Prestigiacomo e dichiara “La prevenzione del dissesto idrogeologico è una scelta di difesa della vita”. Programmò 1.647 interventi. Cantieri aperti? Pochissimi. Diventa ministro Clini e quantifica in 40 miliardi di euro un Piano contro il dissesto dichiarandolo “urgente e prioritario”.

    Addirittura il Comitato Interministeriale per la Programmazione Economica (CIPE) inserì nelle linee strategiche il dissesto idrogeologico come adattamento ai cambiamenti climatici. E cosa dire della quasi estinzione dei geologi? La Gelmini ha soppresso e accorpato senza ritegno i dipartimenti universitari, che formavano gli studiosi del suolo e del sottosuolo.

    Dal 2000 al 2014 i docenti ordinari di Scienza della Terra sono diminuiti del 44,4% e i dipartimenti sono passati da 38 a 27 e al 2015 all’8%, e per legge oggi al 5%. Dissesto idrogeologico, e cosa dire del problema idrico e dei trasporti regionali? L’esempio più drammatico è quello siciliano.

    La piaga della siccità, e cosa dire delle dighe incompiute? Lo scandalo dell’invaso di Blufi? Un bacino di 12 milioni di metri cubi di acqua, a 900 metri di altitudine. Doveva servire gli abitanti delle province di Agrigento, Caltanissetta ed Enna. Opera iniziata nel 1989 e stoppata nel 1995 e lavori mai più ripresi. Costi di intervento per ultimazione? 260 milioni più 160 milioni per il collegamento con gli invasi di Fanaco e Ancipa.

    Ha inciso come causa reale il grande business della privatizzazione dell’acqua in Sicilia? Affari d’oro per Veolia, la famiglia Pesenti? Non solo l’invaso di Blufi, ma anche la diga fantasma di Pietrarossa con lavori iniziati alla fine degli anni 80 e fermi dal 1997.

    Il mese scorso la Regione ha aggiudicato la gara, per il completamento della diga che doveva servire 21 mila ettari di terreno agricolo e dove tre consorzi di bonifica non riescono a garantire il servizio agli agricoltori della zona, Canicattì quartieri con l’acqua per poche ore al giorno e così a Licata, Ravanusa, Aragona, Montevago, San Giovanni Gemini Casteltermini, Favara.

    Invasi, dighe incompiute, perdite dagli acquedotti che arrivano fino al 50%. La società Girgenti Acque gestisce il servizio idrico in provincia di Agrigento e la Procura le ha tolto la gestione di 6 impianti di depurazione. Esistono paesi della Sicilia, dove gli impianti sono sempre rotti e l’acqua arriva ogni 15 giorni.

    Il massimo dell’assurdo accade, a Niscemi in provincia di Caltanissetta, dove l’acqua arriva ogni 8 /10 giorni, ma dove si pagano bollette altissime. L’assurdo è che gli italiani hanno fatto un referendum per l’acqua pubblica, ma qua se ne sono fregati. Nessun partito o movimento, vecchio o nuovo denuncia quest’abuso di potere. Un sistema assurdo!

    La Regione ha dato in concessione tutte le sorgenti a Siciliacque Spa per 40 anni e che ha versato alla regione 7 milioni di euro. Siciliacque posseduta al 75% da Idrosicilia, controllata dalla multinazionale francese Veolia.

    Situazione assurda quella dei trasporti in Sicilia e che rappresenta il paradigma dell’incoscienza del decisore pubblico perché si somma al dissesto idrogeologico e al dramma idrico.

    Strade che crollano sulle Madonie, frane sull’autostrada A18 Messina/Catania all’altezza di Letojanni, corsia unica sulla statale per Sciacca. Il viadotto Himera crollato nel 2015 e forse riapre a settembre! Tempo di viaggio in treno tra Trapani e Siracusa 13 ore e 50 minuti mentre da Trapani a Palermo ci vogliono 5 ore e 34 minuti con una velocità commerciale di 17,9 Km all’ora.

    Ogni giorno in Sicilia si muovono 486 treni, contro i 2.560 della Lombardia cioè 5,3 volte meno treni pur avendo la metà degli abitanti. I Km a doppio binario sono miserrimi, 193 contro i 929 della Puglia, i 736 della Campania e i 1.002 del Lazio. Età media convogli 19,3 anni contro i circa 12 del Nord.

    Situazione strana se solo si pensa a quanto dichiarò l’allora ministro Delrio, cioè che erano stati stanziati 18 miliardi di euro e altri 9,8 mld erano pronti. Infine fino alla condanna, il Prof. Universitario, siciliano Lo Bosco è stato presidente di Rete Ferroviaria Italiana (RFI). Questa la precarissima situazione siciliana, ma loro vogliono il Ponte, tra l’altro con parere negativo di compatibilità ambientale del Ministero dell’Ambiente.

    Category: Ambiente

    La spesa per investimenti pubblici è passata dai 54.163 milioni del 2009 ai 35.541 del 2019 con una contrazione del 34%.

    Il dibattito sugli investimenti appare quasi tutto concentrato su quelli ferroviari (130 mld di investimenti) e in particolar modo sull’alta velocità.

    Incredibile che l’impostazione politica poggi su convinzioni economiche dove ogni euro investito in qualsivoglia impiego determina un effetto moltiplicativo del reddito, però nello stesso tempo gli euro investiti non sono considerati tutti di uguale “importanza”, per cui investire in azioni contro il dissesto idrogeologico, verificare lo stato di conservazione delle infrastrutture, gli impianti di depurazione e valutare come poter raggiungere i cogenti obiettivi del “PNIEC 2030” (piano energia clima), pari a 172 mld di euro diventa quasi un lusso.

    Io vorrei evidenziare uno struzzismo ancora più inaccettabile. Un assurdo, in un paese disposto a sperperare 108 milioni di euro a Km per il progetto alta velocità di Vicenza o per quello Verona/Brescia o i 280 milioni sempre a Km del tunnel in Val di Susa. Oggi con grande amaro in bocca apprendiamo che il battage mediatico lobbystico sugli investimenti pubblici in infrastrutture classificate prioritarie sembra aver generato i suoi effetti.

    Brescia/Verona/Padova: un via libera discrezionale

    Fonti informali e dichiarazioni danno il disco verde per la Brescia/Verona/Padova. Almeno 10 miliardi di investimento deliberati con scelta discrezionale. Infatti prescindere dall’analisi economica significa scegliere discrezionalmente.

    Prescindere dalla analisi a valore aggiunto comparativa vuol dire che dei famigerati investimenti che generano più sviluppo vale solo come slogan. In tutta sincerità soprattutto per la Brescia/Padova un segnale di trasparenza, di prevalenza delle scelte della buona politica sull’attività delle lobby a cui si legano in maniera organica interessi di società dello Stato lo aspettavamo.

    Brescia uno dei siti industriali più inquinati d’Italia. Nel 2002 il Governo ha riconosciuto lo stato di emergenza ambientale e il sito “Caffaro” è tra i siti di interesse nazionale (SIN). Una “Caffaro” che si legge nel libro “Un secolo di cloro e PCB. Storia delle industrie Caffaro di Brescia” ha disperso una quantità pari a 100 tonnellate di Pcb (policlorobifenile classificato cancerogeno dallo IARC di Lione) e diossine.

    Sul sito dell’Arpa Lombardia si legge:

    Nell’area dello stabilimento gli inquinanti – quali policlorobifenili (PCB), policlorobenzodiossine e dibenzofurani (PCDD/F), mercurio, arsenico, solventi si sono spinti nel sottosuolo fino a una profondità di oltre 40 mt, determinando di conseguenza anche la contaminazione della risorsa idrica sotterranea”.

    Un SIN quello Caffaro di 260 ettari di terreni e 2100 ettari di falda! Chi paga questo immane disastro? Lo Stato perché l’azienda che ha inquinato è in procedura fallimentare. Quanti soldi? 3,4 miliardi di euro (art 304 Dlgs 152/2006). Soldi per la vita, per disinquinare acqua, aria e suolo da sostanze pericolosissime invece si privilegia l’alta velocità, che ha un costo quasi uguale alla bonifica. Business contro vita! Questa è la politica del terzo millennio. Una biopolitica.

    I dati

    Qualche dato quantitativo aiuta più di tanti discorsi. La spesa complessiva del settore trasporti è pari a 28,7 mld di euro distinta nel 71% in spesa corrente e 29% in investimenti. La parte da leone è fatta proprio dalle ferrovie con 10,5 miliardi a cui si sommano 4,48 mld di fondo pensioni.

    Gli investimenti di Fs ammontano 4,3 miliardi di euro. Gli investimenti per strade e autostrade ammontano a 3,8 mld di euro. Relativamente alle entrate per lo Stato sono pari a 55,5 mld al netto di iva (con iva diventano 72 mld!) per il trasporto su strada e 6,3 mld di euro per le ferrovie (2,3 da contratti con le Regioni e 1,28 dallo Stato per servizi infrastrutture).

    Quasi 57 euro su 100 di ricavi delle ferrovie derivano da soldi pubblici. La sindrome “a spendere”, che in particolare si concentra sul settore delle autostrade, superstrade e alta velocità, utilizza come strumento di pressione i media e il presunto grave deficit infrastrutturale.

    Bufala smentita dalla ricerca della Banca d’Italia “Le infrastrutture in Italia: dotazione, programmazione, realizzazione”. Ma quali “numeri” misurano i trasporti e la ripartizione secondo la modalità (ferro o gomma)? Le ferrovie nel trasporto merci hanno perso in termini di tonnellate più del 55% di quanto trasportavano nel 2001 (ultimo dato CNT 38,9 milioni di tonnellate) con una percorrenza media di 306 Km. Traffico merci su strada 901 milioni di tonnellate!

    Ferrovie che hanno emesso un bond per 1,75 mld sulla Borsa di Dublino e dove la vera motivazione è il completamento del finanziamento della Bs/Vr! Il segnale del cambiamento doveva partire proprio dalla “riscrittura” degli investimenti pubblici, che sul versante dell’alta velocità hanno sempre rappresentato un costo abnorme per la collettività.

    Il segnale non è ancora pervenuto e sembra quindi che nel campo degli investimenti pubblici tutto continua come prima. Il prof. Pellegrino, Direttore del Dipartimento di Ingegneria civile, edile e ambientale dell’università di Padova, ha affermato:

    Dopo i recenti terremoti è emerso il problema della gestione e della vulnerabilità del patrimonio edilizio infrastrutturale italiano. La maggior parte degli edifici sono stati realizzati prima del 1974, anno in cui è stata pubblicata per la prima volta una legge sismica che prevede delle regole di progettazione specifiche per le costruzioni in zona sismica”.

    Nel 2019 sono state pubblicate nuove norme tecniche per le costruzioni che prevedono una serie di regole e dettagli costruttivi specifici per le costruzioni in zona sismica. Al progredire delle conoscenze sismiche è stato riclassificato il livello di pericolosità sismica di molte zone del territorio nazionale.

    La questione sismica riguarda proprio l’incredibile vicenda del progetto av Brescia/Verona dove nella progettazione si sono usate le Norme Costruttive del 1996, quindi non considerando quelle del 2008 e ancor meno quelle del 2018.

    Il decreto sblocca cantieri

    Ora con il decreto cosiddetto sblocca cantieri si ritorna a usare la figura del commissario straordinario con poteri speciali (assumere ogni determinazione ritenuta necessaria per l’avvio ovvero la prosecuzione dei lavori; l’approvazione dei progetti da parte dei Commissari straordinari, d’intesa con i Presidenti delle regioni e delle province autonome territorialmente competenti, è sostitutiva di ogni autorizzazione, parere, visto e nulla-osta occorrenti per l’avvio o la prosecuzione dei lavori, fatta eccezione per quelli relativi alla tutela di beni culturali e paesaggistici e per quelli di tutela ambientale.

    In materia di tutela di beni culturali e paesaggistici viene peraltro stabilito il principio del silenzio-assenso; In materia di tutela ambientale i termini dei relativi procedimenti sono dimezzati!; La valutazione d’impatto ambientale (artt. 19/29), che per i progetti presenti nell’allegato II è di competenza statale e per i progetti indicati nell’allegato III è di competenza regionale o delle Province autonome, prevede in via ordinaria un termine di 15 giorni – presentazione istanza, avvio procedimento – un termine di 60 giorni).

    La questione ambientale appare palesemente subordinata al “fare presto se no il pil non cresce”. Un dogma costoso, devastante e privo di fondamento logico, razionale e scientifico.

    Category: Ambiente

    Esiste un rapporto diretto tra le emissioni di gas serra, in particolare di biossido di carbonio che incide per il 55% sul totale delle emissioni, e la costruzione delle grandi opere – come i treni ad alta velocità (Tav) – caratterizzate da viadotti, gallerie e tunnel. Molti rapporti tra cui quelli di IPPC (Prevenzione e riduzione integrata dell’inquinamento) l’organismo scientifico ONU sui cambiamenti climatici, il “Net Zero by 2050” dell’Agenzia Internazionale per l’Energia (IEA), il Pacchetto UE “Fit for 55”, prevedono una massiccia riduzione di gas serra con obiettivo del taglio del 55% al 2030 e saldo zero al 2050, ovvero emissioni uguali agli assorbimenti.

    Questi report scientifici introducono anche un vincolo, che dovrebbe essere il riferimento fondamentale per rendere coerenti le scelte con gli obiettivi climatici: il cosiddetto “spazio” o “budget” del carbonio, che vincola a limitare fortemente l’uso delle fonti fossili nei prossimi 14 anni se si vuole contenere l’incremento della temperatura media globale entro un grado e mezzo, rispetto alla temperatura esistente in epoca preindustriale ovvero 1840/1860. Incremento di temperatura che consente di gestire gli effetti sull’ambiente. Facendo riferimento al caso italiano significa ridurre le emissioni dai 519 milioni di tonnellate (Mton) di gas serra del 1990, a circa 233 Mton del 2030. Lo sforzo è immenso se si pensa che tra il 1990 e il 2019 le emissioni di gas serra, in Italia sono diminuite del 19%, ovvero di 100 Mton, in 30 anni. Negli ultimi anni l’Italia non è riuscita a scendere al di sotto del livello raggiunto nel 2014. Problematico arrivarci, se solo si pensa che il massimo contributo arriva dalle fonti energetiche rinnovabili. Per raggiungere gli obiettivi del 2030 dovremmo installare circa 70 milioni di KW di rinnovabili nei prossimi 10 anni, il che significa installare circa 7 mila KW all’anno, ma l’anno scorso siamo rimasti a circa 800 MW.

    Dai summit ufficiali arrivano roboanti dichiarazioni che puntualmente sono smentite dalle scelte politiche. Non abbiamo scelte diverse dalla riduzione massiccia della CO2, quindi bisogna ridurre i processi di combustione alimentati da fossili e, come affermano IPCC e IEA lasciare nel sottosuolo metano, petrolio e carbone nei limiti previsti dal budget carbonio. Se questo è vero e, riscontrato dagli unici organismi internazionali competenti, allora bisogna iniziare a tagliare partendo dai progetti più energivori cioè quelli delle grandi opere, a partire dalla Tav. Milioni di tonnellate di cemento e ferro entrambi, che richiedono enormi quantità di energia.

    Ogni tonnellata di cemento utilizzato ha prodotto 900 Kg di CO2. Il paradigma di tutte le follie italiane è rappresentato, dall’alta velocità Verona/Vicenza. Viadotti e gallerie richiedono enormi fabbisogni di energia soddisfatti da un sistema energetico, per quattro quinti fondato su combustibili fossili e quindi su emissione di CO2. Inoltre l’analisi costi benefici, tanto magnificata dal Presidente del Consiglio lo scorso anno a Rimini è negativa per circa 1,83 miliardi di euro, per la Verona/Padova, come spiegano in un’analisi i professori Crozet e Ponti; e risulta sempre negativa, per 504 milioni di euro nell’analisi prodotta da Rete Ferroviaria Italiana. Non è finita: l’appalto di queste tratte è illegittimo in quanto incompatibile con gli accordi europei come sostiene l’Avvocato Generale della Corte di Giustizia Ue, Verica Trstenjak.

    Lo scrive nelle conclusioni presentate l’11 settembre 2008 e riferite agli appalti alta velocità in Lombardia, Veneto e Liguria valutati i contratti incompatibili con il Trattato Ue. Contratti assegnati a trattativa privata per cui è stata richiesta l’immediata cessazione e correzione. In ultimo non possiamo non citare la cosiddetta variante di San Bonifacio, che nei fatti distrugge un modello imprenditoriale di Massimo Marcolungo segnato da reale sostenibilità.

    La sua azienda svolge la funzione su 20 ettari di terreno. Funzione consistente nell’allevamento di decine di migliaia di tacchini alimentati con cereali e patate coltivate nel fondo. Un modello di economia circolare implementato con criteri di sviluppo sostenibile di cui troppi oggi parlano in maniera strumentale.

    A quest’azienda sono stati sottratti attraverso l’esproprio 11 ettari su 20 pregiudicandone la sopravvivenza e facendo a pezzi un modello di economia circolare citato quotidianamente sia sui media sia in ambito istituzionale. Assurdo che, di fatto, si espropri del terreno per dichiarata pubblica utilità di un progetto la cui analisi costi benefici ne smantella l’utilità sociale, economica e ambientale. Un paese assurdo

    Category: Ambiente

    Un dibattito italiano tutto focalizzato sulla ragazzina svedese Greta Thunberg, che parla ai leader mondiali colpevoli di mettere in discussione il futuro e i sogni di milioni di ragazze e ragazzi.

    Uno sciopero oggi di milioni di ragazzi e non che condivido. Gli impatti del riscaldamento globale e dei cambiamenti climatici sull’umanità e sui sistemi socio-economici sono molto ingenti già oggi.

    Il riscaldamento globale è qui

    Uno dei tanti riscontri è in casa nostra. È a rischio di crollo il ghiacciaio Planpincieux sul versante italiano del massiccio del Monte Bianco, in Valle d’Aosta. Scivola a una velocità di 60 cm al giorno verso la valle Ferret. Quasi tutti i ghiacciai del Monte Bianco, delle Alpi e del mondo sono in forte ritiro. Sentiamo lontano i problemi dello scioglimento dei ghiacciai sui poli ora il fenomeno lo abbiamo in casa.

    Il riscaldamento globale ha fatto salire la temperatura rispetto all’era pre-industriale. La conseguenza è un oceano più caldo, più acido e meno produttivo. Lo scioglimento dei ghiacciai e delle calotte polari causa un aumento del livello dei mari. La conseguenza sarà la crescita, in frequenza, di eventi meteorologici estremi.

    Questa l’osservazione di uno scienziato di IPCC

    I ghiacciai, le calotte polari artiche e antartiche sembrano luoghi esotici per la maggior parte delle persone. In realtà, siamo influenzati tutti direttamente e indirettamente da essi per il clima, il tempo meteorologico, il cibo, l’acqua, l’energia, il commercio, il turismo, la salute e l’identità culturale”.

    Leggendo il Rapporto “Ghiacciai, neve e il permafrost si stanno riducendo drasticamente e continueranno a farlo”. Questo aumenterà il rischio di slavine, frane e inondazioni.

    Si prevede che i piccoli ghiacciai in Europa, Africa dell’Est, delle Ande tropicali e in Indonesia perderanno più dell’80% della loro massa attuale da qui al 2100”

    .

    Quali conseguenze?

    E il ritiro del permafrost delle aree di alta montagna produrrà anche conseguenze sul piano economico e turistico. Non solo: con la diminuzione dei ghiacciai si andrà incontro a una variazione delle quantità idriche con conseguenze sul settore agricolo e su quello di produzione di energia idroelettrica.

    Rispetto a questo siamo o dovremmo essere obbligati ad aprire gli occhi davanti a una realtà che è talmente vicina e che ci induce a farci domande, a informarci sui rischi del riscaldamento globale.

    Le strategie di azione in questo ambito attengono alla mitigazione delle cause, agendo sulla riduzione delle emissioni di prodotti climalteranti e sul recupero e riuso dei materiali, oltre che alla definizione di soluzioni di adattamento ai cambiamenti.

    Sono anni che nei “Sommari per i decisori politici” e poi nel Rapporto finale IPCC compaiono i punti principali dello stato del clima globale! Le concentrazioni di anidride carbonica e degli altri gas serra sono le più alte mai verificatesi negli ultimi 800 mila anni durante i quali il massimo valore di anidride carbonica atmosferica si era mantenuta inferiore a 290 ppm (290 grammi per tonnellata di atmosfera). Una variazione oggi si circa il 44%!

    IPCC afferma che a partire dal 1750 l’aumento dei gas serra in atmosfera non è naturale, ma deriva dalla combustione di petrolio, metano, carbone, dall’agricoltura e dai cambiamenti di uso del suolo. Normalmente si parla di un effetto serra naturale (è in pratica la differenza tra la radiazione solare ricevuta dalla Terra e quella che la Terra riflette verso lo spazio. Effetto serra dovuto ai gas serra come l’anidride carbonica, il metano, il vapore acqueo e altri).

    Dal 1750 l’uomo ha continuato ad emettere in atmosfera gas serra generando un aumento dell’effetto serra naturale. IPCC ha determinato l’effetto serra aggiuntivo causato dalle attività umane e quantificato in 3 watt a metro quadrato (il watt misura la quantità di energia solare che in un secondo si “deposita” su un metro quadrato di superficie).

    Altri 0,12 watt/mq sono dovuti alla attività del Sole. Quale? Le macchie solari sono il riferimento per valutare l’attività del Sole. È l’argomento usato da alcuni negazionisti. Sono regioni della fotosfera, la superficie del Sole, che presenta una forte attività magnetica. Macchie che variano ogni 11 anni. Oggi il Sole è al minimo delle macchie solari.

    Infine un effetto raffreddante di circa 1.6 watt/mq dovuto agli aerosol. L’incremento totale di effetto serra è stato di poco più di un watt e mezzo a mq. Alcuni negazionisti fanno riferimento alle cause astronomiche quali responsabili del riscaldamento. Cause che sono state le responsabili delle ere glaciali;

    eccentricità dell’orbita terrestre considerato che non è un cerchio ma un ellisse e varia ogni 92 mila anni;

    variazione dell’inclinazione dell’asse terrestre che varia ogni 42 mila anni;

    precessione degli equinozi che semplificando è un lento movimento dell’asse secondo la generatrice di un cono.

    Evidente che la modificazione del clima iniziata nel 1750 è incompatibile con i tempi delle cause astronomiche. Questo effetto serra aggiuntivo ha avuto conferma in alcuni indicatori sperimentali quali temperatura, acidificazione degli oceani, ghiacci polari che diminuiscono. Tutto il mondo dovrebbe oggi gridare verso i decisori pubblici la richiesta di intervento reale sulle cause del riscaldamento. Una rivoluzione culturale profonda o i rischi saranno rilevantissimi.

    Category: Ambiente

    Cambiamento climatico: la lettera degli scienziati negazionisti che spera di creare dubbi

    Una campagna pianificata di disinformazione sul clima. Un documento denominato ’Non c’è emergenza climatica’. La tesi sui cambiamenti climatici “Comportamento ciclico del sistema climatico” e che non vi è «nessuna prova» che l’anidride carbonica è una delle principali cause del riscaldamento globale.

    L’altro scopo dichiarato è quello di opporsi all’obiettivo della Unione Europea di avere una quantità di emissioni al 2050 pari agli assorbimenti operati da boschi, foreste e suolo.

    Obiettivo bloccato al Consiglio europeo di giugno da Polonia, Ungheria, Repubblica Ceca ed Estonia praticamente i paesi del Visegrad che generano l’80% della loro energia dal carbone. L’obiettivo sarà ridiscusso nella riunione del Consiglio europeo di questo mese.

    I negazionisti del cambiamento climatico

    L’offensiva di questi sedicenti esperti sul clima è la reazione al movimento attivato da Greta Thunberg, diventata popolarissima e, diciamola tutta, stimolato una risposta dei giovani di tutto il mondo costringendo i media a interessarsi dei cambiamenti cimatici e dei preoccupanti effetti che genera.

    Una campagna questa dei negazionisti, che mira ad attenuare gli effetti prodotti da Greta ma aggiungo soprattutto dal rapporto speciale di IPCC di ottobre 2017 dl titolo “Riscaldamento globale di 1,5°C” e aggiungo dl Nobel a William Nardhaus per essere stato il primo economista a tener conto dei costi dei cambiamenti climatici nei modelli macroeconomici.

    Uno studio fatto ad Harvard ha dimostrato come la Exxon ha usato il New York Times per distruggere la fiducia del cittadino sui cambiamenti climatici. Studio coordinato da Geoffrey Supran, un ricercatore associato all’Università di Harvard, che in marzo di questo anno ha testimoniato al Parlamento Europeo su come la Exxon Mobil operasse per la negazione delle scienze del clima.

    La lettera degli scienziati, dove quelli sul clima sono una manciata, sperano di creare dubbi e fare da sponda ai giornali di destra e soprattutto verso creduloni e ignari giornalisti.

    La Climate Intelligence Foundation

    La campagna è guidata da un nuovo gruppo olandese che ha come obiettivo la negazione delle scienze del clima. Il suo nome è Climate Intelligence Foundation (CLINTEL) e guarda caso è nato in aprile con il finanziamento di tal Niek Sandmann, un miliardario immobiliarista. L’altro fondatore è un professore della facoltà d’ingegneria, Guus Berkhout, che ha lavorato alla Shell. Ha anche creato un Consorzio di nome Delphi 30 anni fa per sviluppare nuovi metodi di esplorazione per l’industria petrolifera e del gas.

    Tra i 500 uno solo è un autorevole climatologo. Si chiama Richard Lindzen. “Faceva ricerca al MIT di Boston con i finanziamenti delle industrie del carbone” (Coyaud). Questi scienziati negazionisti dovevano presentare una petizione da far conoscere al pubblico in conferenze stampa da tenersi a Bruxelles, Roma e Oslo prima del Summit sul clima di fine settembre. Non hanno fatto nulla!

    Questi sono i nomi dei 13 firmatari più autorevoli, autoproclamatisi ambasciatori alle Nazioni Unite. Professor Richard Lindzen, già Distinguished Senior Fellow presso il Cato Institute (USA), Viv Forbes, presidente della Carbon Sense Coalition (Australia), il Professor Fritz Vahrenholt, relatore presso l’Istituto europeo per il clima e l’energia (Germania), Professor Jeffrey Foss, collaboratore del Centro di frontiera per le politiche pubbliche (Canada), Jim O’Brien, presidente e co-fondatore dell’Irish Climate Science Forum (Irlanda), Terence Dunleavy, presidente fondatore della Coalizione internazionale per la scienza del clima (Nuova Zelanda).

    Tra i firmatari, solo pochi hanno una formazione in scienze del clima, la maggior parte invece sono scrittori, ingegneri e geologi senza alcuna competenza diretta nel settore climatico. I firmatari “ ambasciatori” che rappresentano i più autorevoli? La prima firma Professor Guus Berkhout, 79 anni, ex dirigente della Shell, ex professore di geologia.

    Lindzen lo abbiamo già citato. Il canadese Reynald Du Berger, 80enne, ex professore di sismologia. Odia gli ambientalisti. Lo svedese Professor Ingemar Nordin, 70 anni, ex professore di filosofia. Il neozelandese giornalista Terry Dunleavy, fondatore della associazione olio, gas e carbone.

    L’ing. Jim O’Brien, lobbysta a favore delle fonti fossili. L’australiano Ing Forbes, presidente della Carbon Sense Coalition, l’italiano prof. Prestininzi geologo ed e già componente del Comitato Scientifico per il Ponte sullo Stretto. Il canadese prof. di filosofia Jeffrey Foss autore di libri contro gli ambientalisti.

    Un prof francese di matematica Rittaud. Un biologo consulente dello Heartland Big Oil & Coal Institute. Un prof di chimica, Fritz Vahrenholt, ex dirigente della Shell e di altri produttori di energia. Un ingegnere belga Lemeire.

    Aggiungo che furono 26.800 le firme di ricercatori e scienziati in appoggio al movimento dei giovani e pubblicate sulla prestigiosa Science e tantissime su Scientists for Future.

    Category: Ambiente

    Cambiamento climatico: pur conoscendo i rischi da esso derivanti, l’azione ad oggi continua a scarseggiare

    Il fallimento incorso nel comunicare con efficacia, sia da parte politica che forse da parte della scienza, il grande rischio sempre più evidente dei cambiamenti climatici.

    Verifichiamo l’inazione della politica, dalle scelte da fare, e la presa d’atto che pur conoscendo razionalmente il rischio non si attiva, a livello di cittadini, quella necessaria risposta emotiva che ci porta ad agire.

    La conoscenza scientifica si nutre di “eventi certi” nel senso che sono stati misurati, che sono verificabili e infine dimostrabili cioè necessitano di una teoria che li spieghi coerentemente e li irrobustisca sul piano logico. Una teoria insomma che spiega gli eventi.

    Cambiamenti climatici: un po’ di storia

    Sui cambiamenti climatici circa 123 anni fa uno svedese di nome Arrenhius giunse alla conclusione che vapore acqueo e anidride carbonica fanno aumentare la temperatura perché trattengono parte dei raggi solari riflessi dalla Terra verso lo spazio.

    Egli formulò un’equazione con la quale derivò che a un raddoppio di concentrazione di CO2 la temperatura dell’atmosfera aumentava di 5 gradi °C, corretta poi a 3 o 4 °C. Oggi IPCC quantifica questa variazione, in un intervallo tra 2 e 4.5 °C.

    Arrivò poi il climatologo Lorenz che riprese la teoria di Poincarè sul caos deterministico, che svolge un ruolo fondamentale sul clima. Fu Lorenz a creare il “Basta il battito d’ali di una farfalla in Amazzonia per scatenare una tempesta inattesa in Texas”, per evidenziare che un sistema caotico come quello climatico dipende dalle condizioni iniziali, e che basta modificare un po’ uno dei suoi parametri per far sì, che il sistema cambi completamente (biforcazione).

    Computer e modelli matematici

    Computer, satelliti e stazioni di rilevazioni con sensori per raccogliere dati hanno concorso a contenere la difficoltà propria dei sistemi complessi come quello climatico nel prevedere come andrà, nel senso di come evolverà il clima.

    Si misero a punto nella prima metà del secolo scorso modelli matematici denominati di circolazione globale (General Circulation Models; GCM) che fanno riferimento a leggi fisiche (fluidodinamica e termodinamica) e chimiche. In tal modo si definisce la circolazione dei gas in atmosfera e delle acque che circolano negli oceani.

    Sono modelli matematici che fondamentalmente per descrivere la termodinamica dei fluidi (gas e acqua) usano le equazioni di Navier-Stokes messe a punto nel secolo scorso. Banalizzando queste equazioni (sono equazioni differenziali applicate a leggi fisiche che riguardano il moto dei fluidi) si può far riferimento a più parametri e a dati empirici raccolti.

    La metodologia usata è quella di dividere le atmosfere in celle quadrate con lato pari a 80 km e altezza definita. Con queste celle si studia come varia l’evoluzione del tempo meteorologico che verificato in almeno un trentennio fornisce dati su quello che chiamiamo clima. Clima, che è la “sintesi” o meglio la somma dei parametri delle celle tridimensionali.

    Nelle celle viene valutata la temperatura di partenza, la pressione, i venti, la radiazione solare, il trasferimento di calore, l’umidità, l’idrologia di superficie, l’interazione con le celle vicine. Avere computer sempre più potenti equivale a ridurre sempre più le dimensioni delle celle (il pc quantistico risolverà i problemi?).

    Telegiornali e Financial Times un mese fa hanno dato notizia della realizzazione di un computer, che sfrutta i principi della seconda grande rivoluzione del secolo scorso “la meccanica quantistica”. Una collaborazione NASA / Google sul lavoro “Quantum supremacy using a programmable superconducting processor”. Un pc quantistico capace di fare calcoli complessi in 3 minuti e 20 secondi.

    Il pc più potente (di IBM) ci impiega 10.000 anni per fare le stesse operazioni!). Oggi i modelli accoppiano atmosfera, oceani, ghiacci marini, vegetazione. Questi modelli consentono di elaborare scenari di evoluzione del tempo anche su scala regionale. L’affidabilità? Applicati al clima passato (ultimo secolo) hanno dato buoni risultati.

    Un climatologo italiano Pasini ha usato un metodo completamente diverso (a reti neurali) ottenendo gli stessi risultati. Abbiamo certezza assoluta sulle simulazioni dei computer? Il clima futuro descritto dai modelli fatti girare sui computer è di un futuro probabile, ma non con certezza assoluta. Quali sono i dati inequivocabili per affermare che il clima è cambiato?

    L’aumento delle concentrazioni in atmosfera di alcuni gas serra (anidride carbonica, metano, protossido di azoto, clorofluorocarburi) e l’aumento di temperatura dell’atmosfera. Questi due eventi sono legati da una relazione di causa ed effetto come ci dice la teoria dell’effetto serra.

    Il problema potrebbe essere l’identificazione certa di chi è la causa e chi l’effetto. Secondo IPCC abbiamo moltissimi e forti indizi, per affermare che accanto alle cause naturali c’è l’azione dell’uomo che ha “scaricato” sul sistema climatico (atmosfera, oceani, terra, ghiaccio) dal 1750 in poi una serie di gas ad effetto serra come in particolare anidride carbonica, metano, protossido di azoto, alocarburi, aerosol (che non sono gas, ma particelle).

    L’appello della scienza

    Undicimila scienziati da 153 diversi paesi del mondo hanno firmano un appello su ciò che sta accadendo al nostro clima. Appello pubblicato su Bioscience e che inizia così

    “Gli scienziati hanno l’obbligo morale di avvertire chiaramente l’umanità di ogni minaccia catastrofica e di dire le cose come stanno. Sulla base di questo obbligo e degli indicatori grafici presentati di seguito, insieme a oltre 11.000 scienziati firmatari da tutto il mondo, dichiariamo in modo chiaro e inequivocabile che il pianeta Terra sta affrontando un’emergenza climatica”.

    Category: Ambiente

    Emissioni e cambiamento climatico: il rapporto delle Nazioni Unite parla di una situazione drammatica. La situazione è drammatica. I numeri questa volta sono delle Nazioni Unite. Riguardano le emissioni di gas, che aumentano il riscaldamento del pianeta con i conseguenti effetti negativi del cambiamento climatico.

    Oggi, a Madrid inizia la venticinquesima conferenza tra le parti, cioè tra le delegazioni di 191 Stati, per concordare tagli alle emissioni di gas serra e strumenti per raggiungere gli obiettivi.

    Il rapporto ONU: c’è rischio catastrofe

    Un dato è certo. Bisogna assumere decisioni forti se si vuole contenere il rischio di una seria catastrofe. I dati delle Nazioni Unite “Emissions gap. Report 2019” del 26 novembre scorso sono peggiori di quelli forniti da IPCC. Il totale delle concentrazioni ha raggiunto un picco record nel 2018, di 55,3 GtCO2 (miliardi di tonnellate di CO2), mentre le emissioni di CO2 derivanti da fonti fossili per la produzione di energia e l’uso industriale sono aumentate del 2% nel 2018, raggiungendo il record di 37,5 GtCO2 per anno.

    Il Rapporto afferma che è assolutamente necessario che le emissioni, da qui al 2030, siano più basse del 25 o del 55%, per consentire alla Terra di rimanere nel percorso meno impattante e di limitare il riscaldamento globale al di sotto, rispettivamente, di 2 o di 1,5 gradi. Tradotto significa, che le emissioni devono diminuire del 7,5% all’anno tra il 2020 e il 2030.

    Stando al Rapporto delle Nazioni Unite, senza interventi netti e rigorosi le temperature rischiano di aumentare di 3,2 gradi rispetto all’inizio dell’era industriale. Un rischio di catastrofe. Il Rapporto sollecita tutti i paesi del mondo a impegnarsi nello sforzo di ridurre le emissioni di gas serra già a partire dal 2020.

    Invita i Paesi tecnologicamente avanzati, cioè quelli del G 20, a mettersi a capo di questo sforzo per evitare conseguente drammatiche sul clima. I Paesi del G20 generano emissioni di CO2 pari al 78% e solo cinque di questi Stati hanno messo in campo azioni per raggiungere un obiettivo a lungo termine di zero emissioni di gas climalteranti.

    Il Rapporto afferma che comunque è possibile esistendo le tecnologie per contenere le emissioni ma la cosa che manca è la volontà politica congiunta a quella di cittadini e imprese. Il Parlamento Europeo ha dato un importante segnale in settimana. Una dichiarazione di emergenza climatica e ambientale approvata con 429 voti a favore, 225 contrari e 19 astensioni. Non un plebiscito ma comunque un deciso passo avanti.

    La risoluzione del P.E. prescrive di mettere in atto politiche che prevedano che le proposte legislative e di bilancio pertinenti siano “pienamente in linea con l’obiettivo di limitare il riscaldamento globale al di sotto di 1,5 gradi centigradi”.

    Con una seconda risoluzione si esorta l’UE a presentare alla Convenzione delle Nazioni Unite sui cambiamenti climatici una strategia per raggiungere la neutralità climatica al più tardi entro il 2050. I parlamentari europei chiedono inoltre a Ursula von del Leyen di includere nel Green Deal europeo “un obiettivo di riduzione del 55% delle emissioni di gas serra entro il 2030”.

    Ulteriore richiesta riguarda il trasporto marittimo e aereo, che deve ridurre le emissioni, includendo il settore marittimo nel Sistema UE di scambio delle quote di emissione (ETS). La giornata odierna di apertura a Madrid e fino al 13 dicembre della COP 25, la Conferenza delle Nazioni Unite dovrebbe produrre segnali seri e forti. Il clima sta cambiando molto velocemente e una riduzione del 7,5% all’anno appare come una utopia visti i dati del Report ma il rischio è immenso.

    Category: Ambiente

    in arrivo Global Strike For Future, lo sciopero globale per il clima, arriva lo sciopero globale per il futuro, Global strike for future, organizzato dalla “Youth for climate” (gioventù per il clima) che fa riferimento a una rete internazionale di organizzazioni giovanili che mirano a ispirare e mobilitare i giovani affinché siano intraprese azioni utili a contrastare il riscaldamento del pianeta. Un’organizzazione di giovani di 100 Paesi.

    In tutto il mondo, ci sono organizzazioni giovanili che hanno formato coalizioni per intraprendere azioni positive sui cambiamenti climatici. Dieci anni fa fu lanciata, in particolare dal Movimento giovanile europeo, la campagna “Quanti anni hai nel 2050?”, che è poi diventata punto di riferimento per la “Giornata delle giovani generazioni future” e che ha l’obiettivo di sottolineare la necessità di ridurre le emissioni di gas serra dell’80% entro il 2050 rispetto al 1990.

    Sciopero globale: la tutela del clima prima di tutto

    Le decisioni assunte oggi peseranno sul mondo in cui vivranno fra 30 anni. Eccome se peseranno. Venerdì 15 sarà una giornata storica per la Terra. I giovani del Pianeta protesteranno, fondatamente, giustamente, con l’obiettivo di riprendere in mano il futuro della Terra, che è il loro.

    Lotta per un futuro sostenibile, di contrasto degli effetti del riscaldamento globale affinché si smuovano istituzioni e politici attuando provvedimenti idonei a contrastare i rischi sempre più evidenti e periodicamente sottolineati dai Rapporti della Organizzazione delle Nazioni Unite sui Cambiamenti Climatici (IPCC) e rappresentando 181 Stati.

    Tutto è partito dalla Svezia

    La miccia è stata innescata in Svezia, che lo scorso anno ha registrato un’eccezionale ondata di calore. Una ragazzina di nome Greta Thunberg ha iniziato la lotta esponendo ogni venerdì mattina davanti al Parlamento svedese un cartello con su scritto “Skolstrejk för limate” (sciopero scolastico per il clima) che è stato fatto proprio dai giovani del pianeta.

    Lo slogan #fridayforfuture ha trasformato Greta nel simbolo di milioni di giovani, che vogliono contrastare i rischi legati ai cambiamenti climatici che minacciano il loro futuro. Anche l’obiettivo n° 8 dell’Agenda 2030 per lo Sviluppo Sostenibile “Un programma d’azione per il pianeta” firmato nel settembre 2015 dai governi dei 193 Paesi membri dell’ONU persegue obiettivi di salute del pianeta e di chi ci abita.

    L’Agenda riguarda 17 Obiettivi per lo Sviluppo Sostenibile (Sustainable Development Goals; SDGs). Obiettivi inclusi in un grande programma d’azione per un totale di 169 ‘target’ o traguardi. Obiettivi per lo Sviluppo Sostenibile, che guidano il mondo sulla traiettoria da seguire fino al raggiungimento degli stessi entro il 2030.

    Questi obiettivi al 2030 danno continuità agli Obiettivi di Sviluppo del Millennio (Millennium Development Goals) e rappresentano obiettivi comuni su un insieme di questioni importanti per lo sviluppo: la lotta al cambiamento climatico e alla povertà, solo per citarne alcuni.

    Volendo fare una “foto” su come è messo il Mondo oggi e l’Italia in particolare non c’è da gioire e plaudo alla iniziativa di questi giovani che hanno capito che non devono dare deleghe a nessuno per difendere il loro futuro. Tantomeno alle gerontocrazie globali, sia politiche che imprenditoriali.

    dati dell’Agenzia Internazionale dell’Energia nel suo rapporto annuale dimostrano che poco è cambiato nella produzione energetica a cui è legata la emissione di gas che alterano il clima. Carbone, gas e petrolio continueranno a svolgere un ruolo determinante nella produzione di energia e, si legge nella sintesi dell’Agenzia, relativamente alla produzione di energia

    non si concilia per nulla con quella che, secondo il mondo scientifico, sarebbe necessario percorrere per contrastare il cambiamento climatico”.

    Il caso Italia

    Riguardo all’Italia bastano pochi parametri per misurare la nostra falsa coscienza ecologista e ancor più di chi politicamente o associativamente afferma di battersi per l’ambiente. Rispetto alla lotta al riscaldamento globale l’Italia ha tagliato le emissioni rispetto al 1990 del 17%, il Regno Unito del 36%, la Germania del 28% mentre la media UE a 28 è pari a un taglio del 24% (fonte: UNFCC 2015).

    L’Italia non è affatto su un sentiero di sviluppo sostenibile! È il ministero dell’ambiente con Galletti ministro a certificarlo a seguito dell’analisi svolta sui 17 SDGs: nel 21% dei casi la situazione è negativa, nel 48% insoddisfacente.

    La conclusione dell’analisi? L’Italia è molto distante dagli obiettivi fissati per l’energia, la qualità dell’ambiente, la salute, le disuguaglianze, le performance economiche. Un quadro desolante. Il grido di Greta “Voi dite di amare i vostri figli sopra ogni cosa, ma state rubando loro il futuro davanti agli occhi” diventi il grido di milioni di giovani il prossimo venerdì.

    Il messaggio di Greta per i politici gridato a Katovice per la conferenza sul clima di dicembre scorso:

    Dovete agire come se la vostra casa fosse in fiamme (…) Ci avete ignorato in passato e ci ignorerete di nuovo. Abbiamo finito le scuse e stiamo finendo il tempo. Siamo venuti qui per farvi sapere che il cambiamento sta arrivando che vi piaccia o no. Il vero potere appartiene alle persone”

    sia condiviso da tutti. I giovani hanno paura del futuro, vogliono vivere i propri sogni e hanno mille ragioni da condividere.

    Category: Ambiente

    Il motivo che molto seriamente porterà alla crisi di questo Governo non si chiama né flat tax, né tav e nemmeno regionalismo differenziato o contestazioni della Commissione Ue.

    Il motivo sarà la pubblicazione dei siti idonei per la costruzione del deposito unico di scorie nucleari. Fornirò gli argomenti sui quali si fonda questa congettura, in un prossimo articolo.

    Il deposito unico di scorie nucleari

    Lo annunciò Galletti, poi Calenda, ma ora il tempo è scaduto e dopo le elezioni europei si conosceranno i siti idonei. Nella prima decade di giugno la documentazione sarà sul tavolo di Costa e Di Maio. Un dossier, che aggiunge ben poco alle proposte di alcuni anni fa elaborate da Gruppo Stato-Regioni e fatte proprie da SOGIN (Società di Gestione Impianti Nucleari) riprendono gran parte del contenuto della Relazione della Commissione Bicamerale sui Rifiuti del 1999.

    Consistono nella creazione di due strutture: un deposito superficiale definitivo dei rifiuti a bassa attività (elementi radioattivi che diventano non più pericolosi dopo 300 anni), e una struttura per l’immagazzinamento temporaneo dei rifiuti ad alta attività (la pericolosità cessa dopo alcune centinaia di migliaia d’anni).

    Il deposito superficiale è costituito da una serie di locali in cui sono depositati i contenitori d’acciaio (una lega di nichel, cromo e molibdeno), contenenti rifiuti inglobati in matrici cementizie, dotate di particolare resistenza e durabilità.

    Il deposito fonda la sua affidabilità sul sistema delle multi barriere: la prima barriera di confinamento è costituita dalla matrice di cemento e dal contenitore metallico. Ulteriori materiali sono interposti tra la prima barriera e i contenitori. Il principio che governa lo smaltimento dei rifiuti radioattivi, è che, una volta condizionati (ovvero cementificati se rifiuti di seconda categoria e vetrificati se di terza), non possano venire in contatto con l’ambiente animale o vegetale (biosfera), per tutto il periodo in cui i rifiuti sono pericolosi.

    Considerato che l’acqua è l’unico mezzo che può portare all’esterno i rifiuti nucleari, attraverso il trascinamento o lo «scioglimento» in essa (solubilizzazione), le barriere hanno, in pratica, la finalità di evitare che rifiuti e acqua vengano in contatto, in qualsiasi condizione, comprendendo quindi gli incidenti.

    La disposizione in serie delle barriere deve comunque assicurare una linea di contenimento nel caso scompaia, o s’indebolisca, la barriera antecedente. Al termine uno spessore d’alcuni metri è frapposto tra il rifiuto radioattivo e l’esterno.

    Un sistema di monitoraggio assicura la sicurezza radiologica nel senso dell’efficienza delle barriere. Un’ulteriore barriera, di riserva, è costituita dalle caratteristiche geomorfologiche e idrogeologiche del sito. Il deposito avrà una vita di circa 300 anni.

    La struttura d’immagazzinamento è costituita da un edificio di 240.000 mc, con capacità iniziale pari all’attuale inventario italiano dei rifiuti di terza categoria. Un edificio in calcestruzzo, diviso in tre aree con esigenze diverse di schermaggio, confinamento e termoregolazione: area rifiuti vetrificati, area combustibile irraggiato e area rifiuti di terza categoria.

    La considerazione da farsi è che nessun Paese al mondo ha costruito un deposito centralizzato e unico di confinamento geologico! Le osservazioni che facciamo riguardano diversi aspetti. Il primo è relativo alla qualificazione delle barriere. Il secondo è tenere conto, nell’identificazione dell’area, degli aspetti legati alle modificazioni che produrranno i cambiamenti climatici. Il terzo aspetto è il sistema di monitoraggio.

    Non credo che generi gran fiducia constatare che la centrale di Caorso fu costruita all’interno dell’area golenale del Po. Inoltre, Scansano Ionico, un’area con un profilo geologico sicuramente adatto (uno spessore di argilla di 600 m, uno starato di salgemma di 250 m, e poi ancora 100 m di letto di argilla e ancora sale), risultò sismica e soggetta ad alluvioni.

    Anni fa alcune indiscrezioni riferivano che nella lista dei territori candidati ad ospitare le scorie nucleari c’era una zona del Viterbese, della Maremma, un’area di confine tra la Puglia e la Basilicata, le colline emiliane, e alcune zone del Piacentino e del Monferrato.

    Nel deposito saranno stoccate scorie, combustibile esausto, materiale radioattivo prodotto nella ricerca, nell’industria e nel settore sanitario. La stima è che, con lo smantellamento delle centrali, i rifiuti d’origine nucleare ammonteranno a 200.000 metri cubi, compresi 1400 Kg di plutonio.

    L’elemento più inquietante del problema nucleare è il plutonio. Resta radioattivo per 240.000 anni! Un po’ meno del tempo trascorso tra l’Homo di Neanderthal, membro del genere homo vissuto nel pleistocene, e noi. Il plutonio scomparso dalla Terra miliardi di anni ed è ricomparso con i reattori nucleari. Il plutonio o si stocca o si distrugge. Parleremo in un prossimo articolo le soluzioni approntate in altri Stati.

    Category: Ambiente

    Il World Economic Forum dopo mezzo secolo d’incontri annuali quest’anno annuncia che concorrerà alla necessaria svolta che coniuga capitalismo responsabile e sostenibilità.

    Le intenzioni ci sono se diventano linee guida per le imprese e indicazioni come appaiono nel nuovo Manifesto “Davos Manifesto 2020: The Universal Purpose of a Company in the Fourth Industrial Revolution”.

     

    Il manifesto di Davos 2020

    Nel Manifesto un elemento che emerge con forza è proprio la responsabilità degli imprenditori nei confronti della società in cui operano. Si afferma che l’obiettivo primario delle imprese non deve essere solo il profitto, ma anche la protezione della biosfera, la giustizia sociale, la promozione di un benessere diffuso e condiviso.

    Sostenibilità è concetto ampio, che oltre alla dimensione ambientale comprende anche quella sociale ed economica. La necessità di presentare un nuovo Manifesto (il primo fu nel 1973) deriva dalla questione dei cambiamenti climatici, dal come farvi fronte, dalla crescita delle disuguaglianze sociali, l’aumento dell’instabilità sociale, l’opposizione alle modifiche del welfare.

    Sarà vera svolta e non atteggiamento di greenwashing? Certamente nessuno ha intenzione di delegare agli imprenditori il raggiungimento di obiettivi ambientali e sociali essendo questi compiti della politica, ma rendere compatibile il capitalismo con la necessità di tutela della Natura, della biodiversità, equivale a preservare la sopravvivenza della vita sul pianeta.

    A Davos viene riesumato il concetto del Manifesto di 47 anni lo ‘stakeholders’, ovvero che le aziende devono servire gli interessi dell’intera società e non solo dei loro azionisti. Il Manifesto tratta anche altri temi importanti come la lotta alla corruzione, i limiti agli stipendi dei grandi manager, l’intelligenza artificiale, i diritti umani e l’equa tassazione soprattutto dei giganti come Google, Amazon, Facebook e Apple.

    Sarà lanciata anche l’iniziativa di piantare mille miliardi di alberi in 10 anni e far uscire dalla ignoranza digitale un miliardo di persone. Le intenzioni sono buone, ma non mi aspetterei molto da questi annunci, anche se l’accresciuta sensibilità ambientale dei consumatori obbliga le aziende a cambiare.

    Osservo che comunque la storia delle grandi corporation è storia di saccheggio, di predazione di beni ambientali attraverso il mancato rispetto proprio degli standard ambientali e delle delocalizzazioni, in paesi con assenza di legislazione ambientale e bassi livelli di tassazione.

    Infine le imprese grandi e piccole restano società che hanno come obiettivo il risultato economico e concorreranno al raggiungimento degli obiettivi economici e sociali se questi non pregiudicheranno la loro competitività e i loro profitti. Intanto resta invariata a livello globale la quota delle fonti fossili per la produzione di energia

    Category: Ambiente

    L’informazione globale oggi è prevalentemente e a ragione concentrata sugli incendi nella foresta pluviale amazzonica, che ha una superficie di circa 5,91 milioni di Kmq, circa 20 volte la superficie italiana.

    Gli incendi riguardano l’Amazzonia brasiliana che occupa il 60% della foresta. Giustamente si evidenzia il contributo che la foresta pluviale fornisce nell’assorbimento di diossido di carbonio – maggiore responsabile dell’aumento di temperatura del pianeta – e anche quella CO2 che emette una vota bruciata.

    Incendi Amazzonia: occhio alle emissioni

    Nulla o poco viene detto sulle concessioni petrolifere, che riguardano circa il 10,5% dell’Amazzonia (621 mila kmq, ossia un’area che è il doppio della Gran Bretagna) e del fenomeno del gas flaring ai fini delle emissioni. Nell’intera Amazzonia ci sono 5.065 pozzi per l’estrazione di petrolio e gas. Il 67% del territorio amazzonico dell’Ecuador e il 35% dei territori amazzonici di Bolivia e Colombia sono coperti da concessioni di petrolio e gas. In Perù circa il 24% dei territori indigeni ricade in concessioni di petrolio e gas.

    Nella Conferenza di Parigi sul clima di due anni fa, a ottobre 2018 con il Rapporto speciale IPCC sui cambiamenti climatici e, infine, su Nature si richiedono politiche di superamento dei combustibili fossili per contenere l’effetto serra sotto i 2°C entro il 2050. Questo obiettivo richiede che circa l’80% delle riserve di carbone, il 50% di quelle di gas ed il 30% delle riserve di petrolio rimangano inutilizzate, stoccate nel sottosuolo.

    Addirittura il limite di sicurezza dell’incremento di temperatura è stato abbassato a 1.5 C°, rispetto rivoluzione industriale (1750/1800). Sicurezza che vuol dire possibilità di gestione degli effetti prodotti dal cambiamento climatico. Lo stato dell’Ecuador occupa lo 0,02 per cento della superficie del pianeta ma ospita circa il 10 per cento della biodiversità mondiale. Questo quasi unico patrimonio naturalistico si concentra in particolare nell’Amazzonia ecuadoriana.

    Il gas flaring

    Quest’area di stupefacente biodiversità abitata dalla popolazione indigena Waorani, è sempre più minacciata dalle attività di estrazione di petrolio e gas e dal fenomeno del gas flaring. Letteralmente gas flaring” è “ combustione di gas” e consiste nel bruciare a cielo aperto gas naturale ed è un fenomeno che si verifica quando, al momento dell’estrazione del petrolio, il gas associato non viene sfruttato, né reinterrato nel terreno, ma viene lasciato fuoriuscire liberamente, provocando alte fiamme e il rilascio nell’aria di sostanze tossiche.

    Un fenomeno – questo del gas flaring – che perdura da 20 anni e contribuisce in maniera rilevante al riscaldamento globale e nessuno nei negoziati internazionali ha trattato il problema e soprattutto ha introdotto norme vincolanti. Il dato ultimo di alcuni anni fa parla di 170 mld di metri cubi che è una quantità enorme equivalente al consumo di gas di tre Italia.

    Le emissioni di CO2 associate sarebbero di 340 milioni di tonnellate e conteggiando anche il metano liberato in atmosfera senza combustione (gas venting), arriveremmo a 400 milioni di tonnellate equivalenti di CO2. Questa enorme quantità di gas sarebbe sufficiente a soddisfare il fabbisogno di energia elettrica dell’intero continente africano.

    Category: Ambiente

    L’Italia è un paese fragile segnato da dissesto idrogeologico con alluvioni, frane, smottamenti ed erosione costiera. Il cambiamento climatico determina lo sconvolgimento del territorio.

    Un susseguirsi di eventi estremi quali bombe d’acqua, esondazioni di fiumi, grandinate che compromettono i raccolti, venti violenti che provocano la caduta di alberi. Un’Italia pestata a sangue dagli effetti della crisi climatica, ma anche e soprattutto dalla scelta politica del non fare intervenendo, in maniera gerarchizzata sulle emergenze, bilanciando costi e benefici sociali, ambientali ed economici.

    Rapporti annuali di Ispra, quinquennali di IPCC, ricerche e articoli scientifici pubblicati su Science, Nature nulla riescono a smuovere. Un climatologo autorevole come Antonello Pasini da anni spiega che gli eventi estremi sopra richiamati provengono dall’anticiclone africano che quando risale impedisce all’anticiclone delle Azzorre di difenderci come normalmente fa. Entrano le correnti fredde da Nord e gli eventi estremi diventano frequenti. Una condizione cui dovremo abituarci, ma attrezzandoci preparando le difese.

    L’Italia è un paese fragile segnato da dissesto idrogeologico con alluvioni, frane, smottamenti ed erosione costiera. Il cambiamento climatico che tende alla tropicalizzazione in un territorio segnato da sfruttamento del suolo, abusivismo e infrastrutture inadeguate rispetto alle necessità di un paese moderno determina lo sconvolgimento del territorio.

    La necessità della prevenzione, agendo sulla vulnerabilità del territorio cozza con la marginalizzazione del combinato disposto consumo di suolo, abusivismo edilizio. L’indifferenza della politica per la difesa e la tutela del patrimonio naturale hanno determinato, per esempio, l’abbandono dei territori montani e collinari che, privati della presenza dell’uomo, si sono molto indeboliti e diventati ancor più oggetto degli eventi del dissesto idrogeologico.

    Il 91,1% dei comuni italiani sorge in un’area in cui il rischio di dissesto idrogeologico è notevole. La superficie delle aree classificate a pericolosità da frana medio-alta e/o idraulica di media intensità ammonta complessivamente a 50.117 chilometri quadrati, ed è pari al 16,6% del territorio nazionale.

    Si tratta di zone in cui, a seguito di precipitazioni molto abbondanti, possono verificarsi frane o alluvioni, anche di ampie dimensioni. A dirlo sono i dati nel rapporto Ispra sul dissesto idrogeologico. S’ignora irresponsabilmente che l’Italia è tra i paesi maggiormente interessati da fenomeni franosi in Europa. Un’area a pericolosità da frana alta, media, moderata e di attenzione pari al 19,9% del territorio nazionale (59.981 chilometri quadrati). Per quanto riguarda, invece, le alluvioni, la superficie interessata con più frequenza ammonta a 12.405 chilometri quadrati (4,1% del territorio nazionale), mentre le aree a pericolosità media raggiungono i 25.398 chilometri quadrati (8,4%). Dal punto di vista del rischio 7 milioni di persone risiedono in territori vulnerabili, stima fatta su dati demografici di 9 anni fa.
    Il primo rapporto ISPRA sul dissesto idrogeologico è stato pubblicato nel 2015, e già aveva sottolineato quali fossero le zone e i rischi per il nostro Paese.

    E nemmeno prima si viveva nell’ignoranza: si calcola che dal 1944 al 2012 i danni per dissesto idrogeologico sono costati più di 61 miliardi di euro. Il Veneto può essere assunto come paradigma dell’irresponsabilità della politica sul versante della “tutela del territorio”. Appena due mesi fa fenomeni intensi come forti piogge e grandinate hanno colpito il Nord-Est provocando danni al territorio. Eventi meteorologici estremi che negli ultimi anni sono diventati sempre più frequenti. Basti pensare, solo per fare un paio di esempi noti, alla straordinaria acqua alta a Venezia nell’autunno del 2019, la seconda marea più alta della storia (187 centimetri), sostenuta da raffiche di vento che hanno superato i 100 km/h. O, ancora, all’uragano Vaia nell’ottobre del 2018 con venti che hanno superato i 200 km/h e si sono abbattuti sui versanti e nelle valli del nord Italia, colpendo 494 municipalità tra Veneto, Trentino Alto Adige, Friuli Venezia Giulia, Lombardia e, in modo più marginale, Valle d’Aosta e Piemonte. Il Presidente del Veneto è velocissimo a dichiarare lo stato di emergenza, ma i dati di Ispra raccontano una storia diversa per interpretare gli effetti prodotti dagli eventi estremi. Il Veneto secondo il Rapporto di Ispra detiene il primato della cementificazione al 12,21% del proprio territorio. La media italiana di consumo di suolo è del 7,6% ed europea del 4,5%. Un ettaro non cementificato trattiene fino a 3,8 milioni di litri d’acqua.

    Sempre da Ispra si apprende che la capacità del suolo di immagazzinare acqua del Veneto è diminuita dal 2012 al 2015 di 2,4 miliardi di litri, che volendole trasportare richiederebbero più di 90 mila Tir. Sulle percentuali di suolo consumato 240 comuni veneti, su 540 sono sopra il 15% di suolo consumato e, fra questi, ben 23 comuni sono oltre il 30% (Padova 49,2%, Treviso 39,7, Venezia 45,1, Vicenza 31,8, Noventa Padovana 43,9%, Spinea 42,8%).

    Se analizziamo i dati della Regione (fonte: allegato B Delibera di Giunta in applicazione della Legge regionale. 14 del 6 giugno 2017) lo scenario è ancora più preoccupante. La superficie urbanizzata è pari a 259.064 ettari, il 14,06% del territorio regionale (dato Ispra 12,2 %). Questi sono dati che dovrebbero indurre a interventi immediati e fa irritare l’incompleta attuazione del Piano del Prof. D’Alpaos per la messa in sicurezza idraulica del territorio veneto. Cementificazione spinta, infrastrutture ad altissimo impatto, legge sul consumo dei suoli di fatto operativa tra tre decenni e piena di deroghe, in un territorio super cementificato e fragile non può che diventare dramma e rischio di tragedia nel tempo dei cambiamenti climatici

    Category: Ambiente

    Invece di spendere soldi nella TAV senza un’analisi costo-beneficio, l’Italia avrebbe potuto investire nella sicurezza per evitare le stragi da terremoto.

    L’ultimo baluardo per evitare gli sprechi di una classe politica che ha condotto il paese sull’orlo del default è caduto. La TAV, nei termini in cui è stata realizzata e riproposta, rappresenta l’emblema della sciatteria e dell’assenza di visione strategica del decisore pubblico. Assenza di visione strategica vuol dire decidere di spendere risorse pubbliche sempre più scarse, prescindendo dalla utilità sociale e soprattutto dalle gravi emergenze che gravano, fonti di morte e distruzione in questo paese.

    TAV rappresenta anche il paradigma della “discrezionalità del Principe tuttologo” e che nel contesto attuale rappresenta la continuità del sacco alle svuotate casse dello Stato. Nessuna delle opere pubbliche italiane è stata mai assoggettata a qualsivoglia valutazione.

    Dopo la legge del 2012 di Monti, che obbligava alla valutazione, si arrivò al punto che bisognava anche calcolare nell’analisi economica il costo opportunità marginale dei fondi pubblici (linee guida analisi economica Ministero delle Infrastrutture anno 2015). Un parametro che consente a chi decide di optare per il progetto più utile. La doccia fredda però giunse subito dopo con il documento “Connettere l’Italia”, dove manca l’analisi di impatto prodotta da 120 mld di investimenti in opere pubbliche, quanta crescita e occupazione generano questi investimenti, e infine la bestemmia della assenza di qualsiasi previsione di traffico.

    L’alta velocità italiana è il paradigma di un nuovo ossimoro, “l’anarchia istituzionale”. Le aporetiche di TAV, che rendono incredibile la decisione? La bocciatura della Corte dei Conti UE, “A European high-speed rail network: not a reality but an ineffective patchwork”, l’avv della Corte di Giustizia UE, l’Anticorruzione UE, il valore negativo delle analisi economiche, i 3,5 miliardi di perdite sui derivati sottoscritti a copertura dei prestiti TAV, l’esigenza indifferibile di usare i pochi fondi pubblici sulla grande emergenza sismica, idrogeologica e di adattamento dei territori agli effetti dei cambiamenti climatici.
    Invece, l’inconsistenza di azione su questi settori, che si coniuga con la reiterazione delle bugie propalate sia per il tunnel in Val di Susa, che per la Genova/Milano e la Brescia/Padova: almeno 20 miliardi di investimenti.

    Soldi che un decisore con la vista lunga e conscio della necessità di spendere le poche risorse ordinando le emergenze italiane avrebbe dovuto bloccare. Almeno su quelle che generano morti.

    Negli ultimi ‘30 anni la Rete Sismica Nazionale ha registrato 45 terremoti di magnitudine superiore a 5.0 della scala Richter. L’Italia possiede il primato europeo per fenomeni sismici e su 1.300 sismi dagli effetti distruttivi (superiori all’ottavo grado della scala Mercalli) che sono avvenuti nell’area mediterranea, oltre 500 hanno colpito il nostro Paese. Il punto fondamentale della questione sismica italiana riguarda la fragilità del patrimonio edilizio e infrastrutturale.

    L’Italia possiede tutti i dati e le conoscenze per ridurre la vulnerabilità sismica del territorio. L’emergenza primaria italiana è quella di mettere in sicurezza gli edifici che già esistono. Sappiamo che faglie e movimenti tettonici non si possono annullare, ma un’azione di messa in sicurezza diventa prioritaria. Terremoti di magnitudo superiore a 7 scala Richter in Giappone e California generano danni minimi.
    La California è una delle zone a maggior rischio sismico del mondo, si trova lungo la cosiddetta cintura di fuoco del Pacifico, una zona caratterizzata da frequenti terremoti ed eruzioni vulcaniche estesa per circa 40.000 km tutto intorno all’oceano Pacifico.

    L’Italia ha un patrimonio edilizio e infrastrutturale estremamente vulnerabile perché realizzato senza seguire criteri antisismici. Nel corso degli anni vi è stata una riclassificazione del territorio italiano in zone di alta, media e bassa sismicità. Per questo motivo abbiamo infrastrutture realizzate con criteri non sismici, perché al momento della progettazione si trovavano in una zona considerata non a rischio, ma che ora si ritrovano situate in zone di media pericolosità, e di conseguenza non rispettano le norme attuali collegate alla progettazione antisismica.

    In Italia il 24 agosto 2016 un sisma di magnitudo 6.0, con epicentro vicino Amatrice, porta la morte di 298 persone oltre a danni ingentissimi alle cose. Abruzzo, 6 aprile 2009, terremoto di magnitudo 5.9 colpisce L’Aquila e muoiono 308 persone e la città de L’Aquila viene completamente distrutta. Elevato rischio sismico ed idrogeologico dovrebbero indurre a investire le scarse risorse pubbliche in questi settori, ancor più se si apprende che uno studio di Save the Children dal titolo “Ancora a rischio: Proteggere i bambini dalle emergenze” quantifica in circa quattro milioni e mezzo gli studenti soggetti all’obbligo scolastico che vivono in aree ad alta o medio-alta pericolosità sismica. 76 province su 110 nelle quali si trovano 17.180 edifici scolastici.

    La sicurezza degli edifici scolastici non riguarda solo le strutture in zone sismiche: secondo i dati del Ministero dell’Istruzione, dell’università e della ricerca, solo il 53,2% delle strutture possiede il certificato di collaudo statico e il 53,8% non ha quello di agibilità/abitabilità. Queste le emergenze colpevolmente ignorate nel mentre si distribuiscono risorse su infrastrutture non assoggettate ad alcuna valutazione. Prendiamo infine atto che il tunnel di base in Val di Susa lungo 57,5 km interessa l’Italia per 12,5 Km. La Francia pagherà il 42,1% del costo totale del tunnel e l’Italia il 57,9%. Tale iniqua attribuzione comporterà un regalo ai francesi da parte dei contribuenti italiani di 2,2 miliardi di euro e un costo unitario a km pari a 280 milioni di euro per l’Italia e 60 milioni per la Francia.

    Category: Ambiente

    Il rilancio del Ponte sullo stretto da parte del ministro Franceschini riflette tutta l’arretratezza culturale di una classe politica che concepisce le infrastrutture solo in termini d’investimenti che generano domanda di consumi e falsa occupazione.

    Motivazioni datate e smentite dall’erosione delle ragioni che potevano giustificare l’opera quattro decenni fa. Un’infrastruttura, il Ponte inutile, pensata per il traffico di lunga distanza dalla Sicilia e verso la Sicilia.

    Traffico che oggi ha delle migliori alternative per muoversi. Le merci per spostarsi hanno un costo notevolmente inferiore se movimentate per mare invece che per terra. Imbarcano il semirimorchio (tecnica Ro-Ro) e fanno Genova o Trieste porti Siciliani. Minore costo e minore inquinamento.

    I passeggeri che vanno al Nord o a Roma usano l’aereo. Le economie di Calabria e Sicilia non sono complementari ma simili e pertanto lo scambio di merci è minimo. La diminuzione del numero dei passeggeri tra Messina e Villa è stata significativa negli ultimi due decenni. La Sicilia da due aeroporti e tre piste che aveva è passata a sei aeroporti e dodici piste con un incremento esponenziale del traffico aereo. Ha inoltre una decina di porti industriali sottoutilizzati.

    Ponte sullo stretto: inutile e deturpante per l’ambiente

    Chi studia economia dei trasporti si è lasciato scappare questa espressione pensando al ponte: “Credevamo di studiare un’infrastruttura, invece studiavamo un monumento”.

    Un’infrastruttura “con attraversamento aereo, caratterizzato all’attacco delle due sponde da un sistema di torri dell’altezza di 392 mt, appoggiate su coppie di pilastri il cui diametro alla fondazione è di 55 e 48 metri, rispettivamente in Calabria e in Sicilia, nonché dei collegamenti ai massicci blocchi di ancoraggio, di 291.000 mc in Sicilia e di 230.000 in Calabria e ancora colossali rampe di accesso, in aggiunta agli elementi dell’attraversamento aereo vero e proprio (ingombro longitudinale della struttura sospesa a campata unica, della lunghezza di 3.300 con impalcato corrente, stradale e ferroviario, della lunghezza di 60 metri) è quello del ridisegno radicale dello scenario che assume adesso più i contorni della Baia che quelli dello Stretto” (Zipari).

    Nel 2011 la Concessionaria Stretto di Messina ha reso pubblico il progetto definitivo, elaborato dal general contractor Eurolink. Gravissimo l’approfondimento d’indagine sismica e incredibilmente nella relazione geologica si rimanda al progetto esecutivo l’aggiornamento dei profili sismici del progetto preliminare.

    In una delle zone più sismiche del pianeta, si rinvia al progetto esecutivo l’aggiornamento sismico! Inesistente, in termini di rimando ad altri soggetti, la progettazione sia dello scalo ferroviario dalla parte siciliana, che del raccordo alla rete ferroviaria lato Calabria.

    Altri elementi oggetto di riflessione sono i seguenti:

    a) Il bando di gara prodotto dal ministero chiedeva non una analisi costi benefici, ma una analisi economica. Assolta attraverso la comodissima analisi multicriteria.

    b) Il contratto del ponte (vincitore gara Eurolink tra i cui soci Salini Impregilo) non è pubblico e vale 3,8 mld di euro. Nella delibera Cipe n 136/2012 il costo invece è pari a 8 miliardi e 549,9 milioni. Comprensivo delle opere di accesso e degli oneri finanziari? Da reperire comunque 7322 milioni di euro essendo disponibili 1227 mln contrariamente a quello che pensano molti asini sull’esistenza del finanziamento;

    c) Falso lo slogan di intrallazzatori e costruttori che gli investimenti in infrastrutture di trasporto rilanciano la crescita perché creano occupazione. Nei cantieri operano efficienti macchine e si arriva alla prefabbricazione con ferro e cemento d’interi manufatti. Si dice relativamente agli occupati infatti che il settore è ad alta intensità di capitale in luogo della alta intensità di lavoro;

    d) Oggi lo sviluppo del Sud non può che venire dalle bellezze naturalistiche e paesaggistiche da valorizzare, dal food, oltre che diventare un hub delle energie rinnovabili nel tempo della decarbonizzazione dei cicli economici come deliberato dal Clean Act della UE;

    e) Di estrema importanza diventa la rimodulazione degli investimenti di Terna, sulle reti di trasmissione e di distribuzione oltre che una ridefinizione del piano per la banda larga funzionale allo IoT e all’uso delle tecnologie digitali. Il Ponte è un’opera inutile e deturpante per l’ambiente. Il Mezzogiorno ha bisogno di ben altre opere in luogo di questo monumento antico e costoso.

    Category: Ambiente

    Un problema fondamentale che dovrebbe essere oggetto della massima discussione è quello relativo al cosiddetto regionalismo differenziato (art. 116 Costituzione) in materia di ambiente.

    Non tanto per il totale delle risorse economiche eventualmente trasferite che ammontano a meno di due centinaia di milioni di euro, ma per l’importanza delle competenze di cui si chiede il trasferimento.

    Regionalismo differenziato introdotto in Costituzione attraverso la riforma del Titolo V nel 2001.
    Ulteriori forme e condizioni particolari di autonomia, concernenti le materie di cui al terzo comma dell’articolo 117 e le materie indicate dal secondo comma del medesimo articolo alle lettere l), limitatamente all’organizzazione della giustizia di pace, n) e s), possono essere attribuite ad altre Regioni, con legge dello Stato, su iniziativa della Regione interessata, sentiti gli enti locali, nel rispetto dei principi di cui all’articolo 119”.

    Regionalismo differenziato: materie e settori da gestire

     

    Le materie da gestire in forma autonoma sono 23, ma la tutela dell’ambiente, dell’ecosistema e dei beni culturali (ed è questo l’elemento di preoccupazione) rientra nella potestà esclusiva dello Stato insieme a istruzione e organizzazione della giustizia di pace.

    Emilia Romagna, Lombardia e Veneto hanno sottoscritto a febbraio 2018 con il Governo Gentiloni delle intese per la differenziazione, intese che riguardano 16 materie per l’Emilia Romagna, 20 per la Lombardia e 23 per il Veneto. Altre 7 regioni hanno attivato la procedura per il regionalismo differenziato. Sono: Campania, Lazio, Liguria, Marche, Piemonte, Toscana e Umbria.

    settori dell’ambiente su cui le tre regioni vogliono una autonomia totale sono: rifiuti e tutela delle acque. Scendendo nei particolari la gestione differenziata regionale riguarda aspetti molto seri. Rilevante è eguagliare i rifiuti urbani a quelli industriali, la distinzione tra rifiuti e sottoprodotti che diventano materiale da riutilizzare. E ancora i criteri affinché un rifiuto cessi di essere tale (End of Waste).

    Strano che proprio ora,che il ministero dell’ambiente si è impegnato a produrre decreti per riciclare 51 milioni di tonnellate di rifiuti l’anno. Il rifiuto costa mente il non rifiuto diventa un ricavo o mancato costo. Un lavoro questo dei decreti che doveva essere già stato prodotto se solo si considera che prima il Consiglio di Stato (1229/2018) e poi la Corte di Giustizia (C-60/18 del 2019) hanno vietato alle regioni di autorizzare gli impianti senza decreti del Governo.

    Fiumi di chiacchiere sull’economia circolare, che si impantana sull’inerzia della produzione dei decreti. Emilia, Lombardia e Veneto producono il 43% (57,6 milioni di tonnellate) sul totale dei rifiuti speciali. La Lombardia esporta 881 mila tonnellate di rifiuti speciali, seguita dalla Puglia con 388 mila tonnellate, dal Veneto con 361 mila e dall’Emilia Romagna con 247 mila.

    Altra materia, sempre nell’ambito dei rifiuti, che vorrebbero gestire le 3 regioni sono l’utilizzo dei fanghi di depurazione in agricoltura e la firma di accordi tra regioni per la gestione dei rifiuti urbano non differenziati. Utile sapere che la Regione Lombardia, con una delibera di giunta regionale annullata dal TAR aveva aumentato il valore di concentrazione di certi inquinanti nei fanghi di depurazione per consentirne il riutilizzo in agricoltura.

    Ulteriori accordi riguardano procedure semplificate, controlli e altro. Alcuni commentatori ritengono positivo questo regionalismo differenziato. A me sembra invece di una gravità estrema confortato in questo da numerose sentenze della Corte Costituzionale sulla trasversalità della materia ambiente e la competenza esclusiva dello Stato.

    Inquietante il silenzio su questa importantissima questione da parte delle associazioni ambientaliste e di partiti politici che assumono la questione ambientale come centrale.

    A me sembra molto grave nel paese che inserisce nel suo Documento di Economia e Finanza 12 indicatori di “Benessere Equo e Sostenibile” (BES) e che l’ultimo rapporto “ASviS 2018” (Alleanza Italiana per lo Sviluppo Sostenibile) fotografa un’Italia in grave ritardo rispetto i 17 Obiettivi di sviluppo sostenibile e gli impegni presi nel settembre del 2015 con la sottoscrizione dell’Agenda 2030 dell’ONU.

    Peggiorano povertà, disuguaglianze e qualità dell’ambiente. Uso le parole del portavoce di ASviS, l’ex ministro Enrico Giovannini:

    Si sono già persi tre anni per dotarsi di una governance che orienti le politiche allo sviluppo sostenibile. Il 2030 è dietro l’angolo e molti Target vanno raggiunti entro il 2020. Oltre all’immediata adozione di interventi specifici in grado di farci recuperare il tempo perduto sul piano delle politiche economiche, sociali e ambientali, l’ASviS chiede al Presidente del Consiglio di attivare subito la Commissione nazionale per l’attuazione della Strategia per lo Sviluppo Sostenibile, di trasformare il CIPE in Comitato Interministeriale per lo Sviluppo Sostenibile e di avviare il dibattito parlamentare sulla proposta di legge per introdurre il principio dello sviluppo sostenibile in Costituzione, al fine di garantire un futuro a questa e alle prossime generazioni”.

    L’Italia sta perdendo la sfida dello sviluppo sostenibile. In particolare, tra il 2010 e il 2016 è peggiorata in cinque aree: povertà (Goal 1), condizione economica e occupazionale (Goal 8), disuguaglianze (Goal 10), condizioni delle città (Goal 11) ed ecosistema terrestre (Goal 15).

    Per quattro la situazione è rimasta invariata: acqua e strutture igienicosanitarie (Goal 6), sistema energetico (Goal 7), condizione dei mari (Goal 14) e qualità della governance, pace, giustizia e istituzioni solide (Goal 16). Il regionalismo differenziato in tema di ambiente a me sembra che determinerebbe definitivamente il fallimento dell’Italia sulla strada dello sviluppo sostenibile.

    Category: Ambiente

    La transizione energetica sarà abbastanza veloce da evitare gli scenari catastrofici prospettati dalla comunità scientifica? Che ruolo avrà la fusione nucleare?

    La domanda chiave è: la transizione energetica sarà abbastanza veloce da evitare gli scenari catastrofici prospettati dalla comunità scientifica? Più semplicemente, faremo in tempo?

    Una cosa è certa la fusione nucleare non darà nessun contributo al processo di decarbonizzazione che ha come target il 2030 con taglio delle emissioni di gas che alterano il clima al 55% e saldo zero al 2050.

    La fusione nucleare: rinnovabile delle rinnovabili

    Il Ministro della Transizione energetica ha classificato la fusione nucleare come “la rinnovabile delle rinnovabili” omettendo di considerare che tra le varie criticità c’è la questione della radioattività generata anche se a basso tempo di decadimento.

    Forse un giorno e comunque non prima del 2050, se tutto andrà bene, il sogno dell’uomo di avere energia illimitata e a basso prezzo si realizzerà. La fusione nucleare che si tenta di realizzare, solo come meccanismo, è uguale a quella che si verifica nel sole e nelle stelle per generare calore, luce, energia. Il principio di base è ottenere energia unendo due elementi leggeri.

    L’unione si realizza avvicinandoli a una distanza di un millesimo di miliardesimo di millimetro. Questa condizione limita la possibilità della fusione a elementi leggerissimi come i “cugini” dell’idrogeno, cioè il deuterio e il trizio, tramite i quali si ottiene l’elio, e particelle nucleari dette neutroni, in cui è presente la maggior parte dell’energia da fusione (80%).

    Il trizio, radioattivo, è prodotto bombardando con neutroni un isotopo del litio (Litio 6). Nel processo di fusione si produce materiale radioattivo ovvero materiali attivati dai neutroni, materiali contaminati (berillio e tungsteno), prodotti di corrosione, tritio e sue miscele.

    Dopo 100 anni dalla dismissione 80% dei materiali sono “puliti” e riutilizzabili. Nella reazione di fusione una parte degli elementi che si fondono è convertita in energia. Un grammo di deuterio genera 100 mila KWh, equivalenti al calore sviluppato da 70 litri di benzina, o due tonnellate e mezzo di carbone.

    La scelta degli “ingredienti” (deuterio e trizio) nella reazione è dipesa da parametri quali l’energia minima per far avvenire la reazione (energia di soglia), e la probabilità con la quale i due elementi possono “fondersi” su un’area prefissata (sezione d’urto).

    Fusione: come si realizza?

    L’innesco della reazione avviene a una temperatura minima di 80 milioni di gradi. A tale temperatura la materia assume lo stato di plasma che corrisponde a una situazione in cui i componenti elementari della materia sono separati, ed è indicato come quarto stato della materia, oltre il gassoso, il liquido e il solido.

    Economia

    Category: Economia

    La tecnologia blockchain invaderà ogni ambito della società, con riverberi straordinari sull’economia globale. Ecco perché è diventata argomento di studi alla Link Campus University di Roma

    Le grandi crisi generano l’esigenza di creare monete diverse da quelle che hanno corso legale. Monete accettate su base volontaria. Nel mondo esistono 6 mila tipi di monete alternative, e il Bitcoin ha finito per generare un mezzo di pagamento alternativo assimilabile a una moneta.

    La blockchain è una tecnologia pervasiva, diventata famosa proprio grazie al Bitcoin ma capace di andare ben oltre. Rivoluzionerà ogni ambito della nostra vita: musica, settore energetico, burocrazia. È stata definita «il nuovo internet», perché è un registro di transazioni con possibilità di verifica ad ogni passaggio.

    Ma sono ancora pochi gli esperti di questa tecnologia, che avrà grande impatto soprattutto sul settore finanziario. La lacuna è stata colmata dalla Link Campus University di Roma, che a partire dal 2019 inaugurerà il master in Blockchain ed Economia delle criptovalute, primo corso post laurea dedicato al settore in Europa.

    Criptovalute, blockchain e primo master in Europa alla Link Universiry di Roma

    La moneta che usiamo è detta moneta flat, o moneta a corso legale. Vuol dire mezzo di pagamento non coperto da riserve (per esempio riserve di oro o argento), e quindi privo di valore intrinseco.

    La moneta attuale è moneta fiduciaria e possiede un valore perché esiste un’autorità statale che la garantisce. La stabilità della moneta legale è garantita dal controllo sull’emissione esercitato dalle banche centrali, per controllare gli effetti inflattivi dell’emissione in funzione dello sviluppo del Paese.

    Infine il suo riconoscimento come strumento di pagamento è riconosciuto dalla legge. In periodo di crisi o di intensa evoluzione dell’economia nasce l’esigenza di utilizzare monete diverse da quelle a corso legale, per rispondere a una serie di problemi come la gestione sbagliata da parte delle banche centrali, l’alta inflazione, una carenza di liquidità, guerre o il crollo del potere d’acquisto.

    Sistemi indipendenti di valuta alternativa sono stati creati molte volte. Lo WIR creato in Svizzera in aiuto alle piccole imprese durante la crisi di Wall Street del 1929, il Toreke nato in Belgio per finanziare progetti ambientali e sociali. Oggi in Italia si è diffuso lo Scec, che ha la funzione di contribuire all’economia locale e rafforzare il senso di comunità.

    Cooperazione e indipendenza dal potere d’acquisto in euro lo rendono accessibile ai gruppi sociali più svantaggiati, contribuendo alla riduzione della povertà e dell’emarginazione sociale.
    A Milano c’è il Lombard, promosso da diverse istituzioni, in Sicilia il Turi, a Napoli il Napo, in Sardegna il Sardex e a Brescia, da 17 anni, il BexB, un progetto che accomuna 2700 imprese italiane.

    Dopo lo scoppio della crisi economica del 2007 innescata dai mutui subprime e il crollo di Lehman Brothers, oltre alle monete citate ha visto la luce un altro mezzo di pagamento alternativo assimilabile a una moneta, crescendo con rapidità e diffondendosi a livello mondiale: il Bitcoin. Tale protocollo oltre a essere un sistema di pagamento è un’idea rivoluzionaria di grande potenzialità, uno strumento utile e utilizzabile in molti ambiti, una soluzione a molti problemi contingenti.

    Nell’agosto del 2008 fu registrato il nome del dominio bitcoin.org e nell’ottobre dello stesso anno fu pubblicato il documento dal titolo “Bitcoin P2P e cash paper”, in cui si presentava al pubblico questa nuova criptovaluta. A novembre venne registrato il progetto Bitcoin su SourceForge.net e l’autore si firmò con lo pseudonimo di Satoshi Nakamoto. In giapponese “Satoshi” significa “un pensiero chiaro, veloce e saggio”. “Naka” significa “medium o relazione”, “Moto” può significare “origine” o “fondamento”.

    Resta comunque ignoto se dietro lo pseudonimo ci sia una sola persona o un gruppo di persone. Il Bitcoin opera al’interno delle regole del protocollo e si basa sull’idea di scarsità unitamente a un’offerta di moneta che deve essere fissa e dichiarata anticipatamente. La produzione di Bitcoin è definita da un algoritmo a rendimenti marginali decrescenti nel tempo.

    Il totale della crypto tende al limite di 21 milioni. La disponibilità di monete cresce con serie geometrica ogni 4 anni. Ad oggi è stata generata una quantità di Bitcoin pari all’82,2%. Gli scambi tramite protocollo Bitcoin avvengono da portafoglio a portafoglio. Ad ogni transazione il computer trasmette ai nodi più vicini (peer) la notizia. A transazione avvenuta ogni nodo (peer) effettua 20 controlli per verificare che la transazione è valida.

    Un “miner” o “minatore”, che è un nodo (peer) della rete, raccoglie le informazioni e le organizza in blocchi. Oggi, il mining è diventato redditizio solo per chi investe in una piattaforma hardware e software specializzata. Un blocco contiene 2 o trecento operazioni. Il miner trasmette il blocco alla rete e ogni utente ne verificherà la validità aggiungendolo alla copia locale della Blockchain, che è un registro pubblico delle transazioni in Bitcoin. La blockchain riporta in ogni momento tutti i movimenti tra portafogli fin dalla nascita del Bitcoin.

    Quest’ultima tecnologia è infatti un registro unico e condiviso fra tutti gli utenti, rivestendo un ruolo centrale nel garantire la trasparenza, la sicurezza e la non falsificabilità dei pagamenti. Incorpora l’archivio storico di tutte le transazioni in Bitcoin, associando le transazioni ai rispettivi utenti che le hanno eseguite. Questo sistema garantisce scambi molto sicuri, trasparenti ed efficienti. Il Bitcoin è quotato sui New Liberty Standards dal 2009, al tasso di cambio con il dollaro USA di 1,309.03 Bitcoin per dollaro.

    La prima grande piazza per lo scambio di Bitcoin, Mt.Gox, venne fondata il 17 luglio 2010 da Jed McCaleb25. Il cambio in quella data era 0,08 $ per Bitcoin. La blockchain, che potremmo tradurre come ’catena di blocchi’, è una tecnologia complessa e pervasiva, diventata famosa con i Bitcoin ma capace di rivoluzionare ogni aspetto della nostra quotidianità.

    Bitcoin e blockchain determinerebbero l’abolizione degli intermediari – le banche, che aumentano i costi di transazione – permettendo lo svolgimento di operazioni criptate completamente anonime e archiviando tutte le transazioni in un registro pubblico distribuito in rete.

    Idealismo? Finalismo utopico? La risposta finora è stata che le grandi banche d’affari si sono unite in un progetto della svizzera UBS per creare una nuova forma di denaro digitale. Blockchain e criptovalute vanno verso un futuro ormai prossimo in cui “ICO, Smart Contract e start-up legate al Fintech domineranno il mercato del lavoro” (Scenari Economici).

    Category: Economia

    La storia dei tunnel in questo Paese ha sempre appassionato molto, specialmente quella dei tunnel dell’alta velocità.

    Quello della stazione di Bologna, del Frejus e di Firenze, della galleria appenninica per i treni av Firenze/Bologna. Il Brennero fa storia a sé.

    Inquieta non poco sapere che la galleria appenninica Firenze/Bologna, lunga 73,3 Km (su 78,5 Km di tratta) e realizzata per i treni av, non presenta quelle condizioni di sicurezza che dovrebbe e tutto nella totale indifferenza istituzionale.

    Valutazioni inascoltate: un problema di sicurezza

    Riporto l’inascoltata valutazione richiesta postuma del Comandante Provinciale dei Vigili del Fuoco di Firenze sulla connessione della linea av con il nodo di Firenze (luglio 1998): “si nutrono seri dubbi sulla rapidità ed efficacia dei mezzi di soccorso”.

    La galleria “Vaglia” è un unico “tubo” entro cui ci sono due binari e priva quindi del tunnel di servizio, con finestre intermedie poste a distanza reciproca di 6-7 km. “Nel caso di gallerie con finestre intermedie non è possibile avvicinare i mezzi di soccorso, inviati in appoggio al mezzo intermodale, in zone prossime all’incidente. Tali mezzi infatti potranno raggiungere il punto di innesto delle finestre con la galleria di linea, ad una distanza dal luogo dell’incidente, nella peggiore delle ipotesi, di circa 3,5 km”.

    Si apprende anche che nulla esisteva agli atti dei Vigili del Fuoco affinché potessero esprimere un parere sulla tratta av nel momento in cui si progettavano gli ultimi km di linea conosciuti come “Variante di Castello“ e reso obbligatorio dalla legge 191 del 1974.

    Incredibile se si considera che la questione riguardava la sicurezza. Nei 13 anni di realizzazione della linea inaugurata nel 2009 nulla e nessuno è intervenuto. Rilievi critici sono stati fatti anche dalla Commissione Sicurezza delle Gallerie ferroviarie del Ministero delle Infrastrutture e Trasporti e sono contenute in una relazione. Gli organi competenti sono stati ripetutamente messi a conoscenza dall’associazione Idra.

    Anche il Ministro dell’Interno tanto sensibile alla sicurezza è a conoscenza da 5 mesi della questione. A margine va detto che a seguito di un’inchiesta di anni fa del Procuratore Guariniello sulle gallerie ferroviarie che rispondevano agli standard della sicurezza fissati da una direttiva UE del 2007 e da un decreto del ministero delle infrastrutture del 2004 su 334 tunnel 230 non rispondono alle condizioni per la sicurezza.

    Il decreto Lunardi e il caso di Firenze

    Il problema della sicurezza delle gallerie fu risolto con il decreto “Lunardi”. Il ministro delle infrastrutture del Governo Berlusconi che con la sua società Rock Soil aveva operato da assistenza e consulenza del consorzio CAVET (Coperative rosse più la Cogefar di Fiat che è anche il general contractor che firmò il contratto con TAV Spa) per la galleria av Firenze/Bologna.

    Una galleria che non rispetta le norme “Lunardi”, realizzata con un costo di 95 milioni di euro a km! Io vorrei parlare del tunnel di Firenze che sembra l’esempio peggiore di gestione con i suoi problemi di corruzione, incremento di costi, falsificazione di prove di laboratorio, coinvolgimento fraudolento di un membro dell’autorità dei lavori pubblici della commissione di valutazione di impatto ambientale del ministero dell’ambiente della società di ingegneria delle FS preposta alla vigilanza e controllo e infine dell’Ufficio di Missione del Ministero delle Infrastrutture.

    Un coacervo di relazioni finalizzate a massimizzare i costi dell’opera per lo Stato e minimizzare i costi per chi avrebbe realizzato l’opera. Si attende lo svolgimento del processo a Firenze. Non proprio sereno questo nostro tempo che negli ultimi anni ha visto tanti conflitti tra i magistratura e membri di Governo o supporter di governo. Recentemente proprio i giudici di Firenze non sono stati difesi dal vicepresidente del CSM dagli attacchi subiti da politici.

    La vicenda del sottoattraversamento di Firenze merita di essere conosciuta e auspichiamo tempi rapidi per il processo consci che l’art 27 della Costituzione stabilisce la presunzione di innocenza fino all’ultimo grado di Cassazione.

    Una storia emblematica di come funzionano i rapporti criminogeni a danno dell’interesse pubblico e, sempre che l’accusa sarà dimostrata al processo, è il progetto di attraversamento in tunnel alta velocità a Firenze.

    La storia di una fresa chiamata “Monna Lisa”, di una serie di rapporti tra funzionari pubblici, dirigenti di società pubbliche, mondo accademico e laboratori di analisi. L’inchiesta riguarda il nodo Alta Velocità di Firenze, la cui progettazione esecutiva e realizzazione sono state affidate a NODAVIA come contraente Generale, con contratto stipulato da ITALFERR spa in nome e per conto del committente Rete Ferroviaria Italiana spa (RFI).

    I fatti e le accuse, sovente suffragate da intercettazioni telefoniche, sono nell’Ordinanza di Custodia Cautelare nei confronti del presidente della società Italferr. È la società d’ingegneria delle ferrovie incaricata dell’alta sorveglianza sui lavori della Tav. Il progettista è l’archistar Foster e il costruttore COOPSETTE. I lavori riguardano la galleria (tunnel) per i treni alta velocità sotto Firenze. La fresa che doveva scavare questo passante ferroviario si chiama «talpa Monna Lisa».

    Lavori che non sono mai partiti perché la magistratura fiorentina sostiene che questa fresa a causa di difetti avrebbe avuto problemi di funzionamento inoltre i rivestimenti interni della galleria (i conci) non risultavano rispettare le norme tecniche per scongiurare gli incendi: arrestate e rinviate a giudizio cinquantuno persone. Fatta l’udienza preliminare si attende il processo.

    I personaggi

    I personaggi di cui parla il GIP sono, in ordine di apparizione:

    Maria Rita Lorenzetti, ex presidente della Regione Umbria, carriera politica iniziata nel PCI e sfociata nella Direzione Nazionale del Partito Democratico, parlamentare per quattro legislature; Segretario dal 17 giugno 1992 al 14 aprile 1994 dell’VIII Commissione (ambiente, territorio e lavori pubblici) e poi Presidente dal 4 giugno 1996 al 23 maggio 2000; Presidente del Consiglio di Amministrazione di Italferr, la stazione; appaltante che ha la responsabilità dell’Alta Sorveglianza sui lavori della TAV sotto Firenze;

    Walter Bellomo pubblico ufficiale membro della commissione Via del Ministero dell’Ambiente, ex coordinatore provinciale del Pd di Palermo. Valerio Lombardi, responsabile Italferr incaricato di seguire i lavori per conto della committenza Rete Ferroviaria Italiana in veste di RUP (Responsabile Unico del Procedimento) dell’appalto.

    Piero Calandra, consigliere dell’AVCP (Autorità per la Vigilanza sui Contratti Pubblici di lavori, servizi e forniture). Domenico Pasquale, architetto, marito della Lorenzetti. Giuseppe Mele architetto, dirigente della Struttura di Missione del Ministero delle Infrastrutture.

    Ercole Incalza, ingegnere, responsabile della Struttura di Missione del Ministero delle Infrastrutture. La Stampa lo definisce come “l’uomo che collega”: affari e politica, carriere e ministri, mazzette e ideali. Ercole Incalza 14 volte indagato in 14 inchieste e sempre uscito indenne; 14 anni ai vertici del Ministero delle Infrastrutture con 7 governi diversi e 5 ministri. Di ogni schieramento.

    Le responsabilità

    Nelle conclusioni riguardanti il reato di associazione a delinquere, il Giudice chiarisce quali siano le responsabilità dei soci. I componenti di questa squadra, secondo il Giudice un’associazione a delinquere, sembrano avere in comune l’appartenenza ad una ben definita area politica.

    L’appartenenza alla squadra più volte richiamata da Maria Rita Lorenzetti, riporta ad un articolato sistema corruttivo per cui, ognuno nel ruolo al momento ricoperto, provvede all’occorrenza a fornire il proprio apporto per conseguimento del risultato di comune interesse, acquisendo meriti da far contare al momento opportuno per aspirare a più prestigiosi incarichi, potendo contare sul fatto che i relativi effetti positivi si riverbereranno, anche se non nell’immediato, sui componenti della squadra medesima sotto forma anche di vantaggi di natura economica.”

    In questa cornice, che prevede la contestuale ripartizione dei funzionari pubblici interessati ai procedimenti amministrativi di interesse, in amici e nemici, sono stati rilevati scambi di favore di varia natura, alcuni dei quali concretizzatosi, di seguito sintetizzati.

    1 – In favore di Walter Bellomo come contropartita per l’apporto fornito per l’approvazione del PUT (Piano di Utilizzo delle Terre, cioè del materiale scavato dalla talpa per la perforazione delle gallerie sotto Firenze, che come vedremo è in realtà un rifiuto) e delle varianti all’autorizzazione paesaggistica da parte della Commissione VIA del Ministero dell’Ambiente (per i lavori TAV di Firenze) e il rapido e positivo esame da parte del gruppo istruttore VIA del progetto per la realizzazione dell’autostrada Cispadana appaltata ad ATI partecipata da CoopSette:

    segnalazione da parte dell’ing. Valerio Lombardi e di Maria Rita Lorenzetti di ITALFERR spa, per l’affidamento da parte di CoopSette di un incarico di consulente in materia ambientale per i lavori di costruzione della nuova tangenziale esterna est milanese; riconferma quale componente della Commissione VIA;

    interessamento da parte di Maria Rita Lorenzetti su Giorgio Raggi di CoopCentro Italia per l’assunzione di una sua parente.

    2 – In favore di Maria Rita Lorenzetti per aver messo a disposizione della associazione la propria rete relazionale per consentire, in particolare tramite Walter Bellomo, l’approvazione del PUT per i lavori TAV di Firenze e tramite l’ing. Sandro Coletta e il dr. Piero Calandra, l’emissione di un parere interpretativo da parte dell’Autorità di Vigilanza per i Contratti Pubblici (AVCP), che avrebbe consentito l’avvio di un accordo bonario per la valutazione di riserve presentate da Snodava per i lavori TAV di Firenze, per un importo di circa 250.000.000 di euro:

    l’inserimento del marito arch. Pasquale Domenico negli appalti post terremoto in Emilia-Romagna;

    la aspettativa di nomina a presidente dell’Autorità sui Trasporti;

    l’inserimento come referente politica in un più ampio quadro di gestione di interessi economici e imprenditoriali riferibili a Coopsette, all’interno del quale conseguire una forte posizione di influenza e condizionamento, grazie alla quale attribuire incarichi di consulenza ad amici e sodali (si pensi a Coletta e Belfomo) o garantire corsie preferenziali di pagamento a fornitori, e ancora “La Lorenzetti si è mobilitata perché l’Autorità di vigilanza sui contratti pubblici consentisse un accordo bonario per la valutazione di riserve presentate da Snodava per i lavori TAV di Firenze, per un importo di circa €250.000.000. Duecento cinquanta milioni di euro, su un appalto di cinquecentocinquanta milioni per la costruzione della stazione e della galleria, prima ancora che la talpa inizi a scavare”.

    Le riserve sono le contestazioni che l’impresa esecutrice di un appalto inserisce sui documenti contabili ed hanno per oggetto ogni fatto che, secondo l’impresa, produce una maggiore spesa per l’esecuzione delle opere. Nel nostro caso, una delle riserve riguardava la presunta impossibilità di iniziare i lavori di scavo quando in realtà la fresa Monna Lisa non era per niente pronta.

    Il General Contractor Nodavia e i dirigenti della Seli, la ditta incaricata degli scavi, avrebbero raggiunto, secondo l’accusa, un accordo per attestare falsamente di essere pronti a iniziare lo scavo nei tempi stabiliti dall’appalto, così da presentare riserve contrattuali alla stazione appaltante per maggiori oneri di appalto dovuti a fermo cantiere e macchine e ritardi per diverse decine di milioni.

    L’accordo bonario

    Uno dei grimaldelli usati per scassinare le casseforti statali è l’accordo bonario, uno strumento di composizione amichevole delle controversie insorte nel corso di esecuzione di un contratto qualora, a seguito dell’iscrizione di riserve sui documenti contabili, l’importo economico dell’opera possa variare in misura sostanziale (art. 240 del ex dlgs 163 del 2006).

    Con questo strumento, alternativo alla lite che potrebbe sorgere successivamente alla fine dei lavori, una apposita commissione composta da tre soggetti provvede alla definizione della controversia, con un atto che ha la qualificazione giuridica di transazione.

    La vicenda del tunnel di Firenze se dimostrata fornisce l’ennesima dimostrazione di come sono gestiti gli investimenti pubblici. Là pari a euro a 94 mld. La stazione interrata di Bologna da 300 mln a 530 e non parliamo di un km del tunnel in Val di Susa che costa 280 mln di euro.

    Category: Economia

    Ponte sullo Stretto, Mose, Alta Velocità, Autostrade. Un unico dato comune: il rapporto di concessione di lavori pubblici regolato da convenzioni attuative.

    Un contratto quello di concessione più volte riformulato e stravolto nel corso dell’ultimo secolo. Nel 1929 la legge che trasformava la concessione in un contratto a trattativa privata evitando l’obbligo della gara per la stipulazione dei contratti pubblici.

    In seguito mostri giuridici come la concessione di committenza che prevedeva il trasferimento al concessionario di tutti i compiti che spettano alla pubblica amministrazione, per finire con il contraente generale introdotto da Berlusconi non cambiato né da Prodi e né da altri.

    La legge che lo prevedeva (443/2001) fu definita da Cantone “criminogena”.

    Abrogata nel 2016 dal Nuovo Codice Appalti e tenuta in vita da Fs, Pedemontana veneta nella terza corsia della A13 fino a Padova e nella Valdastico Nord. Mo.S.E., Ponte sullo Stretto, Autostrade, progetti AV, tutti all’interno di contratti di concessione ad usum delphini.

    Le più grandi nefandezze e costi per il contribuente italiano sono sempre derivati dai lavori pubblici spesso gestiti dal contratto di concessione.

    E’ successo cosi con l’imbroglio del Mo.S.E. in laguna veneta, con il Ponte sullo Stretto, le Pedemontane veneta e lombarda per finire con le concessioni sui progetti di Alta Velocità.

    Altrettanto con la concessione che riguarda ASPI di Benetton. Storicamente la concessione d’opera pubblica fu lo strumento usato per costruire la rete ferroviaria italiana e senza oneri per lo Stato.

    Il corrispettivo per il concessionario consisteva nello sfruttamento economico dell’opera costruita – Il regime fascista nel 1929 fece approvare una legge che trasformava la concessione in un contratto a trattativa privata evitando l’obbligo della gara per la stipulazione dei contratti pubblici.

    Questa legge inoltre prevedeva “ la concessione di sola costruzione” rescindendo il legame tra costruzione dell’opera e la sua gestione, consentendo una remunerazione del concessionario indipendentemente dalla gestione e minando la finalità della concessione per le opere pubbliche.

    Questa norma è rimasta in vita fino alla riforma Merloni del 1994 ma nel frattempo altri mostri giuridici erano stati creati con la legge 80 del 1987 introducendo la concessione di committenza che prevedeva il trasferimento al concessionario di tutti i compiti che spettano alla pubblica amministrazione.

    Stravolgimento quindi del concetto di concessione per facilitare gli amici. Il Mo.S.E.? Concessione unica al Consorzio Venezia Nuova, a cui venivano assegnati in esclusiva e per legge studio, progettazione e realizzazione.

    I componenti del Consorzio? Gruppi industriali scelti senza gara, che svolgevano il compito di essere controllore e controllato. Il Ponte sullo Stretto? Una società di scopo, inserito nel 2001 tra le opere strategiche e realizzazione affidata a una associazione temporanea di imprese, Eurolink con capogruppo Impregilo la spagnola Sacyr, Condotte d’Acqua Spa la coop rossa CMC di Ravenna, la giapponese Ishikarwajima Harima Heavy Industries Co. Lrd e infine Argo Costruzioni Infrastrutture.

    Tredici giorni prima delle elezioni del marzo 2006 l’ex presidente di ANAS, Ciucci firma l contratto con Eurolink, per 3,879 mld e in caso di recesso onerosissime penali.

    Nel 2009 il Consorzio Stretto di Messina presieduto da Ciucci inserisce una nuova clausola, a favore di Eurolink. Nei contratti di alta velocità si peggiora il tutto con un’altra figura che si chiama contraente generale.

    Tornando alle concessioni per la gestione delle autostrade e, tra queste quella di ASPI sulla quale si è scatenato il terrorismo mediatico delle penali in caso di rescissione da parte dello Stato e conseguente nazionalizzazione. Mediobanca stima un costo per lo Stato di 22 miliardi in caso di revoca anticipata.

    Innanzitutto il contratto di concessione è attuato attraverso una convenzione.

    Le tipologie di interruzione anticipata tra ASPI e MIT è regolato dagli art 9 e 9 bis della Convenzione e sono decadenza , recesso , revoca e risoluzione. La risoluzione scatta quando si verifica una inadempienza da parte di un delle due parti.

    In questo caso si scioglie il rapporto ma resta il diritto al risarcimento del danno subito. L’inadempimento deve essere di particolare gravità per produrre la risoluzione del rapporto.

    Il recesso invece è regolato dall’art 198 del Nuovo Codice Appalti (Dlgs 50/2016) e rappresenta un atto unilaterale. La decadenza consegue ad inadempimenti gravi e somiglia molto alla risoluzione per inadempimento e opera sul piano amministrativo.

    Infine c’è l’istituto della revoca. La legge sul procedimento amministrativo (legge 241/1990) dispone che “se la revoca comporta pregiudizi in danno dei soggetti direttamente interessati, l’amministrazione ha l’obbligo di provvedere al loro indennizzo”.
    La revoca può avere alla base una nuova valutazione del pubblico interesse.

    Rilevante è l’art 3 della Convenzione “l’ASPI ha l’obbligo del mantenimento della funzionalità delle infrastrutture concesse attraverso la manutenzione e la riparazione tempestiva delle stesse”. Questo obbligo derivante dalla concessione se violato può far scattare una delle 4 tipologie di scioglimento del rapporto concessorio.

    Nella situazione concreta di Genova evidente che è necessario dimostrare la relazione “crollo del ponte carenza di manutenzione e/o ritardo nel riparare danni alla struttura”.

    Diversamente dalle valutazioni dei media e di Mediobanca in luogo della “revoca” sembra più congruo l’istituto della “decadenza “ della concessione.

    Ora l’applicabilità dello scioglimento della relazione dipende dalla definizione di “ inadempimento grave” come definito nell’art 8 della concessione ed è evidente, che questa condizione va accertata.

    La Convenzione prevede la decadenza solamente per “ perdurante inadempienze rispetto agli obblighi”. La sanzione penitenziale è prevista per qualsiasi delle 4 ipotesi di interruzione del rapporto.

    Nel caso di Genova mancano a oggi i presupposti per qualsiasi dei 4 istituti che portano alla soluzione del rapporto tra ASPI e MIT. La osservazione da fare è sul perché le concessioni in caso di risoluzione del rapporto tra le parti prevedono oneri così pesanti per lo Stato. Uno Stato che deve pagare pesantissimi oneri se adotta provvedimenti di revoca o di decadenza .

    Tutti i conti sulle penali omettono di considerare che gli adeguamenti tariffari del pedaggio (incedibile !! Sono scattati in questi ultimi anni anche considerando una inesistente inflazione. Anzi il QE della BCE è stato proprio lo strumento contro la deflazione!) scattano sia per gli investimenti programmati e sia per la manutenzione ordinaria.

    Quanti investimenti previsti in convenzione non sono stati fatti? Quante risorse previste per il miglioramento della rete autostradale? Bisogna parlare di saldo eventualmente positivo a carico dello Stato non di solo penali.

    Category: Economia

    L’analisi dei progetti del PNRR, annunciata da Draghi, diventa concreta con l’affidamento del compito a una struttura terza e specialistica come McKinsey.

    Una reazione immediata, a 360 gradi e tutti i media scatenati. Questa la scontata reazione all’affidamento di Draghi delle analisi dei progetti da inviare a Bruxelles come PNRR. I motivi di una reazione così scomposta? Chiari. Non vogliono alcuna analisi costi benefici (ACB), come abituati da sempre e promuovendo come “strategici”, “ottimi” i progetti cari a politici locali e centrali.
    L’ACB era nel regolamento attuativo della VIA, ma senza alcun valore vincolante. Nel 2011 un Dlgs ne rendeva obbligatoria la procedura, poi un DPCM del 2012 e un DM del Ministero delle Infrastrutture del 2015 ne cambiano alcuni aspetti. Il Ministero creò la “Struttura tecnica di missione per l’indirizzo strategico, lo sviluppo delle infrastrutture e l’alta sorveglianza”, che definì anche la metodologia di valutazione economico-finanziaria, nota come “Linee Guida”. Risultato? Nessuna analisi per nessuna opera è stata fatta. La Banca Mondiale come prassi, per evitare manipolazioni politiche, assegna a organismi terzi la valutazione delle opere. La soluzione Renzi/Delrio è stata: tutto va valutato tranne le opere strategiche che valgono 133 miliardi di euro e sono strategiche perché sono nell’elenco.

    Nemmeno l’efficacia delle politiche di sviluppo territoriale sono mai state oggetto di valutazioni. Non gli incentivi alle imprese disciplinati dalla legge 488 del 1992, non i contratti di programma nati nel 1986, non i contratti d’area, i programmi operativi regionali finanziati dai fondi strutturali, né le politiche per l’innovazione note come smart specialization strategies o le politiche di rigenerazione urbana. Analisi indipendenti di ricercatori hanno appurato che questi strumenti di politica di sviluppo locale non hanno ottenuto risultati in termini di crescita, di produttività e occupazione.

    Interrogarsi se gli euro spesi utilizzando i fondi pubblici abbiano ricadute positive sull’economia locale e nazionale è un dovere primario dell’amministrazione pubblica. L’analisi dei progetti del PNRR, annunciata da Draghi in un’intervista, diventa concreta con l’affidamento del compito a una struttura terza e specialistica come McKinsey.

    Il Piano Nazionale di Ripresa e Resilienza (PNRR) approvato dal Governo il 12 gennaio 2021 riporta valutazioni quantitative dei progetti? Solo un richiamo al modello macroeconomico comunitario, “Quest III” (Quarterly European Simulation Tool); è la versione più recente del modello di equilibrio generale sviluppato dalla Commissione Europea – uno strumento di analisi e simulazione per comprendere gli effetti di riforme strutturali e studiare la risposta dell’economia a shock di varia natura o a interventi di policy) che ha indotto qualche autorevolissimo esperto di settore ad affermare che il modello assume che tutti i progetti non analizzati siano i migliori possibili in termini di impatto sul PIL.

    Intervenendo al Meeting di Rimini Draghi dichiarò che era buono il debito riferito alle infrastrutture “cruciali per la produzione”, e di queste andava valutata l’utilità superando determinati test, in riferimento proprio al “tasso sociale di rendimento”, che deriva dall’Analisi Costi Benefici. Draghi, se riesce sul problema ACB, rompe un muro della politica che non vuole conoscere, probabilmente per interessi elettorali di breve periodo.

    Nella redazione del Piano si fa riferimento al dossier del Parlamento del 25 gennaio:
    Il 21 dicembre 2020 la Commissione europea ha pubblicato dei modelli di orientamento settoriali, che potranno essere aggiornati, per assistere gli Stati membri nell’elaborazione dei Piani in conformità delle norme in materia di aiuti di Stato(..) dettagliare i progetti, le misure e le riforme previste nelle seguenti aree di intervento riconducibili a sei pilastri:
    1)transizione verde;
    2) trasformazione digitale;
    3) crescita intelligente, sostenibile e inclusiva, compresi coesione economica, occupazione, produttività, competitività, ricerca, sviluppo e innovazione e un mercato unico ben funzionante con PMI forti;
    4) coesione sociale e territoriale;
    5) salute e resilienza economica, sociale e istituzionale, anche al fine di aumentare la capacità di reazione e la preparazione alle crisi;
    6) politiche per la prossima generazione, infanzia e gioventù, incluse istruzione e competenze”.

    Inoltre i piani nazionali devono essere coerenti “con le priorità specifiche per PAESE individuate nel contesto del Semestre europeo, e segnatamente nelle raccomandazioni specifiche per Paese e nella raccomandazione del Consiglio sulla politica economica della zona Euro (..) Se, invece, la Commissione stabilisce, che i target intermedi e finali non sono stati rispettati in modo soddisfacente, il pagamento di tutto o parte del contributo finanziario può essere sospeso. Lo Stato membro interessato può presentare le sue osservazioni entro un mese dalla comunicazione della valutazione della Commissione. Come già previsto nell’accordo raggiunto in sede di Consiglio europeo a luglio, l’accordo provvisorio disciplina misure per collegare il dispositivo a una sana governance macroeconomica. Tali meccanismi, che sono allineati alle norme comuni sui fondi strutturali, prevedono che la Commissione proponga al Consiglio una sospensione, totale o parziale, degli impegni o dei pagamenti qualora uno Stato non abbia adottato misure efficaci per correggere il disavanzo eccessivo, a meno che non sia stato determinato da una grave recessione economica per l’Unione nel suo insieme”.

    Nel PNRR di Conte tre le priorità: giovani, donne e Sud. Sarà altrettanto per il nuovo PNRR? Intanto l’Ufficio parlamentare di bilancio aveva rilevato un’elevata “frammentazione” delle linee d’intervento e richiamato a “concentrare le risorse su un numero minore di priorità, per avere un impatto maggiormente visibile”. Banca d’Italia in un’audizione, aveva chiesto “discontinuità”, e una riscrittura del PNRR da presentare alla Commissione Ue entro aprile.

    Intanto Draghi ha fatto capire che l’intenzione è riorientare il piano “dalla spesa all’investimento.
    Rivoluzionario per la prassi politica italiana è l’analisi dei progetti e l’affidamento a una struttura terza come nella tradizione di Banca Mondiale e di FMI della valutazione. Una ACB seria non può che portare benefici a una “
    questione Italia” che diventa sempre più drammaticamente seria.

    Category: Economia

    Un trasferimento alle Università private che appare discriminatorio rispetto alle Università pubbliche e l’incredibile passaggio della ricerca nelle mani di Invitalia, ovvero del factotum nazionale, il noto dott. Arcuri.

    Legge di bilancio 2021, articoli 89, 90 e 93. Sono 30 i milioni di euro trasferiti al fondo integrativo per Università e scuole superiori non statali. Rilevante l’incremento percentuale: +44%. Se si utilizzasse un po’ meno della metà di questa percentuale per finanziare il FFO delle Università si potrebbero abolire le tasse universitarie come avviene in gran parte dei paesi europei. Complessivamente i trasferimenti alle Università private ammontano a 84 milioni. 54 milioni servono a finanziare le pensioni dei professori che insegnano nelle Università private (art. 93).

    L’altra novità la si legge nell’art. 90. La ricerca italiana nelle mani di Invitalia con il Programma Nazionale della Ricerca (PNR), il Programma di Rilevante Interesse Nazionale (PRIN) e dei progetti finanziati dall’Europa. Sembra che la denuncia fatta con il Libro Bianco “La ricerca scientifica in Italia per una società sostenibile e sicura” elaborato da esperti e presentato all’Accademia dei Lincei abbia smosso ben poco.

    La diminuzione del 20% degli investimenti pubblici in R&S (ricerca e sviluppo) e il taglio del 14% della spesa pubblica per l’università ci ha collocati in una zona ad elevato rischio. Nel libro si elabora un’ipotesi che meriterebbe di essere approfondita. Non è l’incapacità del Paese a modificare la sua specializzazione produttiva che da tre decenni conduce a bassa crescita e divergenza crescente con le altre economie europee?

    Nell’economia della conoscenza integrata e globalizzata l’uso di tecnologie basse porta alla marginalità. Nel bel mezzo della crisi la Germania ha aumentato gli investimenti in Ricerca & Sviluppo e i trasferimenti alle Università. Noi abbiamo tagliato fondi alla ricerca e all’Università. Sembra proprio che questa centralizzazione della Ricerca porti i governi a enfatizzare la ricerca applicata e l’innovazione tralasciando il motore della ricerca che è la ricerca di base. Eppure cambiano i governi, ma la musica è quasi la stessa.

    I dati sono drammatici. Dal 2010 e quest’anno hanno abbandonato l’Italia 30.000 giovani ricercatori che sono stati formati con le tasse degli italiani. L’ultimo rapporto della Commissione Ue ci dice che gli investimenti in ricerca e sviluppo in Italia sono diminuiti del 20% negli ultimi dieci anni. Il 45% dei progetti vinti da italiani sarà finanziato all’estero e non in Italia. Il numero dei ricercatori nel nostro Paese è due volte e mezzo inferiore a quello di Regno Unito, Germania, Francia e addirittura 5 volte inferiore a quelli del Giappone. Evidente che il dato è normalizzato rispetto agli abitanti.

    PRN (Progetti di Ricerca di Interesse Nazionale) e FIRB (Fondo di Incentivazione alla Ricerca di Base) sono gli strumenti attraverso i quali si finanzia la ricerca pubblica in Italia. È sufficiente un semplice paragone con il finanziamento erogato dall’Agenzia per la Ricerca pubblica in Francia. Il finanziamento annuo è di 500 milioni di euro. I soggetti preposti alla valutazione dei progetti sono 10.000 e a decidere quali progetti finanziare è un comitato di 500 componenti. Ogni anno sono presentati 6.000 progetti e in media è idoneo uno su cinque. Il finanziamento annuo del PRIN è di 30 milioni, i progetti presentati sono 4.500 e circa 300 sono valutati da 3.500 soggetti e 3 funzionari del MIUR. La scelta dei progetti è fatta da 50 persone. Il budget del FIRB è di 20 milioni all’anno.

    Un dato va però evidenziato. Il numero delle pubblicazioni scientifiche è di circa 100.000 l’anno. Rapportate al numero di abitanti sono pari a 17 ogni 10.000. Appare totalmente ignorata anche l’idea che un fisico che lavora al CERN di Ginevra, Ugo Amaldi, ha illustrato nel saggio “Pandemia e resilienza. Persona, comunità e modelli di sviluppo dopo la Covid-19”. Amaldi è figlio del grande Edoardo, collaboratore di Enrico Fermi. L’idea esposta è di portare l’Italia nell’economia della conoscenza.

    In che modo? Elevando gli investimenti pubblici in R&S dall’attuale 0,5% del PIL all’1,1% in sei anni. Dai 9 miliardi attuali a 18 miliardi del 2026. Approfittiamo del Recovery Fund e affrontiamo la crisi del coronavirus. Adesso o mai più.

    Category: Economia

    Secondo l’analisi economica i progetti AV sono risultati tutti negativi. Parliamo della singolarità di progetti costosissimi e della esistenza di soluzioni congrue ma non applicate.

    La madre di tutte le infrastrutture in Italia è stata la realizzazione del sistema dell’alta velocità ferroviaria. Stimando i costi delle linee, della rete elettrica, degli elettrodotti e delle cabine elettriche dedicate, degli interessi e delle spese finanziarie e infine delle mitigazioni degli impatti ambientali, oltre che delle compensazioni richieste dagli Enti locali, si arriva tranquillamente per la To/Mi/Na a 100 miliardi di euro.

    Assenti sia l’analisi economica degli investimenti e sia quella di un possibile ruolo anticiclico. Ruolo assai dubbio quest’ultimo se si pensa che gli investimenti in grandi infrastrutture sono “capital intensive” e realizzate in tempi lunghissimi. Ancor più se solo si considera una sciagurata legge detta dei “lotti costruttivi”, cioè affidati a un unico soggetto, che potrà realizzare mezza linea, mezzo rilevato, mezza trincea senza alcuna possibilità d’uso proprio perché non funzionale.

    Lo staff del Professor Ponti, nominato dal Ministro delle Infrastrutture, spesso esaminando un progetto ferroviario è giunto ad attribuirvi costi superiori all’utilità che esso fosse capace di generare. Nelle analisi del Prof. Ponti si trovano spesso tracce di problemi progettuali:

    • la previsione del traffico non convince nemmeno a prima vista;

    • l’utilità che se ne ricava, dedotte le spese di costruzione e d’esercizio e tutte le altre poste con segno meno, è negativa, pure apprezzando correttamente il beneficio ambientale, stando on the safe side;

    • in ragione della scelta infrastrutturale, pochi treni possono essere inviati sul nuovo tracciato;

    • la linea storica è esclusa da aggiornamenti significativi, continuando a dover ospitare ciò che resta dopo un insufficiente trasferimento di traffico su quella progettata (è il caso della Milano-Torino storica a fronte di quella AV, per esempio);

    • il sistema della linea storica e della nuova linea potrà essere utile, forse, tra 50 anni, ovvero in un futuro indefinito e assolutamente incerto, sul quale le previsioni non sono attendibili e così via.

    In casi come questi, si può cercare di verificare se il progetto analizzato sia stato concepito allo scopo di avere senso. È logico che se non ne abbia uno trasportistico e ambientale, quello esaminato sarebbe un progetto, probabilmente, mal concepito. Quali le cause di una progettazione così discutibile?

    Tra queste:
    a) lo staff redattore del progetto può essere stato scelto da un consorzio di imprese che non ha mai sostenuto il vaglio di un bando di gara e che non abbia nemmeno provato a mobilitare provate competenze ferroviarie;
    b) il redattore del progetto può essere indifferente al suo risultato economico.

    Possiamo chiederci perché mai, nel nostro Paese, sia un caso frequente; oppure, come mai un progetto siffatto possa essere stato oggetto di un’approvazione poco avveduta – inclusa la registrazione delle delibere di approvazione e/o di finanziamento da parte della Corte dei Conti – e magari abbia raggiunto una soglia procedimentale imbarazzante, dalla quale una semplificante analisi giuridica affermi che sia controverso il vantaggio di retrocedere come nel recente eclatante caso della Bs/Vr.

    Si è visto e si vede, troppo spesso, proporre di non fermare opere perché costerebbe troppo rinunciarvi. Che dimostrazione di impotenza e di resa, di fronte alla necessità di cambiamento, pure percepita, verrebbe da dire! Si tratta di quesiti di rilievo che non affonderemo, non perché siano privi d’interesse; tutt’altro, ma restiamo concentrati sul problema del progetto.

    Emblematico il caso della linea Milano-Venezia e in particolare il tratto tra Brescia e Padova. È una ferrovia lunga circa 148 km. Vediamo, dapprima, un paragone: la linea veloce (fino a 300 km/h) Erfurth-Halle-Leipzig lunga 121 km, costata 3,0 miliardi di euro secondo le ferrovie tedesche – costruita su un territorio pianeggiante, intervallato da considerevoli sistemi collinari – è stata posta definitivamente in esercizio all’inizio del 2016.
    Quella linea mostra viadotti e gallerie in misura paragonabile a quella ipotizzata tra Brescia e Padova. Assunto, un aggiornamento di circa il 10% per tener conto del tempo trascorso e un rapporto pari a 148/121 = 1,223 (basato sulle rispettive lunghezze), il costo della tratta italiana dovrebbe stimarsi attorno a 4,03 miliardi, ma qui si veleggia verso gli 8,6 miliardi di euro.

    Qualche cosa sembra estranea ad una plausibile proporzione nel progetto nostrano!

    Basta percorrere l’autostrada A4 per osservare la massa di traffico merci che su di essa fluisce su camion e notare che l’accessibilità e gli impianti delle stazioni (non il tracciato) dell’attuale linea ferroviaria appaiono estranee alla possibilità di intercettarne una porzione rilevante.

    Esiste una soluzione ferroviaria capace di incidere su tali flussi attraendone in misura tale da soddisfare le logiche di una rigorosa analisi Costi/Benefici? Se una possibilità del genere esiste, dovrebbe portare con sé la riduzione, se non l’arresto, della necessità di adeguare con ennesime corsie o con complanari l’infrastruttura autostradale principale.

    Una soluzione con nuovi impianti capaci di gestire l’accesso al treno di merci mobilitabili con gru in brevissimo tempo e con spesa contenuta: dovrebbe, in estrema sintesi, essere il vaso principale di un sistema che ne comprenda di minori connessi, capace di aver rapporto con terminali merci, stazioni o fermate passeggeri di minore gerarchia, oltre che con quelli di importanza maggiore, tutti collegati da servizi secondo opportunità affidabili cicliche e accessibili vantaggiosamente rispetto a quelle ora disponibili. E, insisto, anche per le merci. Un progetto senza questi ingredienti non potrebbe superare l’ACB.

    È, dunque, ovvio che il prof. Ponti o quasi chiunque altro, seriamente, lo troverebbe “inutile”. Occorre un atteggiamento un poco più pragmatico per cercare, tra le alternative, almeno una configurazione promettente nel senso prima indicato.

    Per stare on the safe side, si può esaminare soluzioni basate sulla base costituita dal tracciato esistente e dotate di un numero di binari che sia da proporzionare alle esigenze o alle attrattività dei servizi desiderabilmente da introdurre, in ragione della loro sostenibilità, secondo un processo graduale che tuttavia, può iniziare da subito, con trasformazioni di consistenza non faraonica. Si può proporre la traccia che potrebbe essere conferita ad una trasformazione del tracciato costituito dalla linea storica tra Brescia e Verona e Padova.

    Se, infatti, i treni passeggeri e merci potessero ridurre il tempo della loro percorrenza e aumentare la loro massa, correndo su una linea simile a quella storica – resa più veloce “quanto basta” e dotata di stazioni e fermate a ciò adeguate, senza bisogno di capacità sovradimensionate o miscelazioni irresolubili di traffici a velocità differenti, su tracciati privi di risorse per ammetterle – si potrebbero affrontare tutte le sfide indicate, senza segregarne una buona parte, come il progetto attuale assume di fare, senza giungere alla soglia di convenienza, né a convincere rispetto ad alternative, del resto, mai seriamente cercate o esaminate.

    Il “quanto basta” dipende dalla scelta dell’architettura dell’orario (del sistema, non solo della linea). L’architettura dell’orario dovrà essere chiaramente indicata tramite un criterio di composizione esplicito che ora è lasciato alla fantasia degli osservatori.

    Del resto, sennò, quale significato attribuire al sempre invocato trasferimento di traffico dalla strada alla rotaia per non vedersi soffocare dall’invasione dei mezzi di trasporto individuali? A ben guardare, i sistemi su rotaia di alcuni Paesi civili giungono a tanto con scelte appropriate e, talvolta, invidiate. Non è rimasto proprio nessuno tra politici e amministratori o tra i tecnici cui interessi la spiegazione di ciò?

    Erasmo Venosi e Alberto Baccega, ex Componenti Commissione MIT progetto Vr/Pd

    Scienza

    Category: Scienza

    Il gas radon è la seconda causa di neoplasia nel Paese. Il piano elaborato quasi vent’anni fa è scomparso, ma la Campania sta legiferando

    Un ritardo di 18 anni ma alla fine la legge regionale della Campania porta il numero 13 è dell’8 luglio scorso e riguarda la misurazione obbligatoria di radon negli esercizi pubblici e privati ubicati a piano terra o interrati.

    Correva l’anno 2001 e sulla G.U. numero 276 del 27 novembre 2001 (serie generale) veniva pubblicato il Piano Nazionale Radon, elaborato dal Ministero della Salute.

    Si leggeva nel piano, che dal lontano 1988 l’Agenzia Internazionale per la Ricerca sul Cancro dell’OMS aveva iniziato a considerarlo come cancerogeno accertato. Si leggeva nel Piano che diverse agenzie nazionali ed internazionali attribuivano l radon una frazione rilevante di tumori polmonari.

    In Italia erano stimati tra 1500 e 6000 casi l’anno su 30 mila attribuibili al radon. Di quel Piano non si è saputo più nulla! La legge regionale campana potrebbe rappresentare il detonatore per l’attuale Governo e soprattutto per il Ministro della Sanità e credo anche per quello dell’Ambiente.

    Nel Piano di 18 anni fa si leggeva che molti paesi del Nord Europa e negli Stati Uniti già dagli anni 80 si erano adottate politiche sanitarie volte alla riduzione del rischio radon.

    Esistono in natura varie forme di gas radon (isotopi ovvero elementi della stesa specie, che contengono più semini chiamati neutroni) circa 26 tipologie di radon indicate con il simbolo chimico del radon seguito dal numero, che esprime la massa atomica e variano tra Rn 199 e Rn 226.

    Solamente tre di questi isotopi, si trovano in natura: il Radon 222 che deriva dall’uranio contenuto nella crosta terrestre, il toron 220 che deriva dal torio e l’attinon 219. Attinon e toron “vivono pochissimo” ovvero alcuni secondi mentre il radon “vive” alcuni giorni.

    Quando un elemento radioattivo si trasforma spontaneamente in un altro elemento che ha minore energia parliamo di decadimento radioattivo o di radioattività. Questo decadimento avviene seguendo 4 modi diversi di “vomitare” energia, che dipende dalla “coabitazione” dentro il nucleo di “semini” chiamati neutroni e protoni.

    Quando il rapporto tra protoni e neutroni è molto basso, il decadimento può avvenire con il rilascio di una particella, che è un nucleo di elio. In questo caso si parla di “decadimento alfa. Si possono avere anche decadimenti denominati “beta positivi”, cioè alcuni nuclei possono emettere il cosiddetto positrone o elettrone positivo utilissimo in radiologia quando si fanno le “tomografie a emissioni di positroni” (PET). Infine la quarta modalità di radiazione, che è l’emissione gamma ovvero “ vomito” di fotoni.

    Un altro parametro da considerare quando si parla di radioattività è l’emivita o tempo di dimezzamento. Un esempio rende facile la comprensione: il torio ha un’emivita di 24,1 giorni e vuol dire che se misuro oggi la sua radioattività e faccio la stessa cosa dopo 24 giorni e alcuni minuti la radioattività sarà diventata la metà. Dopo altri 24 giorni sarà diventata la metà della metà e così via.

    Tutti i fenomeni radioattivi seguono questa legge. L’unità di misura dell’attività di un elemento radioattivo è il becquerel (Bq), che corrisponde a una disintegrazione al secondo. In natura abbiamo tre famiglie o catene di decadimento naturale, che accade quando il prodotto del decadimento ovvero “ il figlio” è a sua volta radioattivo. Alla fine dei decadimenti radioattivi troviamo il piombo (in verità un suo isotopo, il Pb 208).

    Il radon 222 di cui parliamo deriva dal decadimento dell’uranio (U 238) e ha un’emivita di quasi 4 gg (3,8 gg). La pericolosità del radon 222 deriva da tre fattori: 1) è un gas e quindi si può aspirare; 2) decade emettendo particelle alfa: 3) ha un’emivita di quasi 4 giorni.

    Ma come interagisce con la materia questo radon? Nell’attraversare la materia, le particelle rilasciano energia e un fattore importante è la quantità di energia deposita. Effetti biologici e tipologia di difesa dipendono da questo parametro. Si usa anche far riferimento alla cosiddetta “dose assorbita” ovvero la quantità di energia depositata, per unità di massa misurata in gray.

    In atmosfera una radiazione alfa può percorrere alcuni centimetri prima di perdere l’energia. Un elettrone beta invece può percorrere quasi 7 metri. La radiazione gamma costituita da fotoni percorre invece diversi chilometri prima di perdere l’energia. La protezione dalle radiazioni fa riferimento alla “dose equivalente”, che consente di misurare gli effetti delle radiazioni sugli organi o i tessuti insomma sul corpo umano.

    La dose equivalente si misura in sievert (Sv), che rappresenta il danno biologico che prescinde dal tipo di radiazione. Infine bisogna tener conto di un altro parametro ovvero le sensibilità e il diverso assorbimento dei diversi organi. Evidente, che se la radiazione colpisce testicoli, fegato, cervello, ovaie produce effetti diversi rispetto a un piede, una mano.

    L’esigenza di tenere conto di tali diversità di risposte e sensibilità di organo ha portato alla definizione di un altro parametro, che si chiama dose efficace, che corrisponde alla dose equivalente moltiplicato per un fattore che tiene conto della diversa sensibilità degli organi.

    Category: Scienza

    Coronavirus: molte narrazioni peccano della verificabilità anche se possono essere plausibili

    virus ci insegnano sono da 3 miliardi di anni sulla Terra. Noi invece siamo una specie giovane.

    L’homo erectus è vissuto 117 mila anni fa. Forse hanno avuto il tempo (i virus), in termini evolutivi, prima di regolare la partita con i batteri e poi lottare con gli organismi pluricellulari. Il virus non si riproduce da solo e non sintetizza le proteine, ma ha bisogno di una cellula ospite nella quale entrare attraverso un recettore, che è una molecola proteica.

    Aggiungiamo che come individui negli ultimi tre decenni abbiamo preso l’abitudine di spostarci moltissimo e vivere in città e metropoli e questo agevola molto i virus. Inoltre la biologia moderna ha scoperto che il 10% del nostro genoma è costituito da retrovirus (virus il cui genoma è costituito da acido ribonucleico).

    Abbiamo però commesso l’errore di credere onnipotente la scienza e nel contempo non ascoltare i suoi messaggi nel fare determinate scelte. Questa immagine di onnipotenza della scienza e di conseguente quasi “immortalità” dell’uomo che con la corrente del transumanesimo ha generato convinzioni di invulnerabilità è un portato del sistema di marketing.

    Covid 19 e precedenti epidemie

    Da anni la scienza denuncia il rischio che un agente patogeno avrebbe reso fragile l’uomo e il sistema che si era costruito nel tempo della globalizzazione. Di pandemie l’uomo ne ha conosciute parecchie. La peste antonina del 165 d.C. che sconvolse l’impero romano, l’epidemia degli Aztechi in Messico, la peste del 1300 che imperversò in Europa per 4 secoli, la sifilide nel 1400, il vaiolo nel 18° secolo.

    Nel secolo scorso la spagnola, l’AIDS, Ebola, la Sars, la Mers, l’asiatica, l’aviaria: insomma la frequenza di epidemie e pandemie segna la storia umana. Di Covid 19 conosciamo il genoma. L’80% è simile a quello della Sars. Non si conosce l’ospite intermedio e al 99% deriva dal virus del pipistrello.

    Intorno a questo virus sono sorte le narrazioni che possono essere alcune anche plausibili ma che per passare a ipotesi verificate necessitano di prove dirette. Un dato è certo perché suffragato da ricerche: l’alterazione della funzionalità del sistema immunitario dovuto ai campi elettromagnetici (Hardel e da 35 pubblicazioni).

    Relazione con le condizioni meteo

    Altra ipotesi quella riscontrata da studi dell’Università Hopkins di Baltimora, appartenente alla rete globale dei virologi (Global Virus Network) fondata da Robert Gallo che 37 anni fa isolò il virus Hiv 1.

    La Hopkins ha identificato un corridoio del coronavirus segnato da condizioni meteorologiche: corridoio compreso entro la latitudine 30/50 gradi, temperatura tra 5 e 11 gradi e umidità variabile tra 47 e 79%. Sotto zero gradi il virus sembra poco virulento.

    Ricerche di Università cinesi dimostrano che il basso valore di temperatura e umidità agevolano la diffusione del virus e che tra 8 e 9 gradi esso si trova in condizioni di ottimalità per la trasmissione. La pericolosità del biossido di azoto per le neoplasie polmonari è oggetto di studio e denunce sia da parte della Fondazione Veronesi che dell’Agenzia Europea dell’Ambiente.

    Infine, come già scritto, il virus per replicarsi deve entrare in una cellula e “saccheggiare” DNA (trascizione inversa). Il particolato atmosferico è composto in particolare da nitrati, solfati, cloruri e fluoruri. Una trasmissibilità eventuale del virus per via aerea renderebbe a mio avviso inutile il rispetto della distanza tra persone e ritengo che tutti diventeremmo oggetto di attacco da parte del virus.

    Molte narrazioni peccano della verificabilità anche se possono essere plausibili. La denuncia di una probabile pandemia, in arrivo era nel Rapporto OMS 2018. Di questo settimo coronavirus che ha ricombinato il suo materiale genetico e fatto il salto di specie conosciamo il suo genoma. Nulla sappiamo della sua evoluzione e quale stato l’ospite intermedio.

    Le condizioni locali e le tradizioni congiunte alla vendita e promiscuità di animali selvaggi hanno fatto il resto. L’unica risposta è potenziare le strutture sanitarie e dare più soldi alla ricerca. Non aiutano di certo i 55 milioni dati dalla UE per la ricerca sul coronavirus. Gli USA per questo fine hanno concesso 5000 milioni di dollari. Resta scontato che teorie e ricerche, se non sono soggette a peer review e pubblicate su BiorXiv o Nature Medical restano delle eleganti ipotesi.

    Category: Scienza

    Nel pieno dell’emergenza coronavirus, il dibattito sulle questioni scientifiche è diventato sempre più importante

    In questo tempo di radicali contrapposizioni su questioni scientifiche è utile ricordare quello che diceva il grande fisico premio Nobel Richard Feynman, che il dubbio non deve incutere timore, ma deve essere accolto come una preziosa opportunità.

    L’importanza dei dubbi in ambito scientifico

    I dubbi, anche verso apparenti tesi solide, rappresentano il motore delle scoperte. Se Einstein non avesse avuto dubbi verso la relatività galileana che ha imperato per secoli non avremmo la teoria della relatività. Fu Fermi ad affermare che la scienza valorizza il dubbio e non si vergogna dell’errore. Fu proprio Fermi ad aggiungere una correzione alla lectio magistralis che diede in occasione del premio Nobel.

    Dubbio ed errore sono le componenti fondamentali del metodo scientifico e gli elementi propulsivi grazie ai quali nella scienza moderna procede il processo di conoscenza. La capacità di dubitare e gestire gli errori, solo i dogmatici e i creduloni possono considerarla un limite e non una garanzia di credibilità. È questo il discrimine tra scienza e falsa scienza, che poggia sul credo del principio di autorità, sul sentito dire.

    Il metodo scientifico è stato una rivoluzione introdotta da Galilei proprio perché la conoscenza è stata fondata sul dubbio. Nulla di scontato come possiamo vedere in questi giorni. Ipotesi plausibili contrapposte ma senza riscontro alcuno. Dubitare, sviluppare se stessi nella conoscenza, nell’interpretazione autonoma, sono momenti alti di libertà da difendere con grande determinazione.

    Il dibattito, il confronto è parte integrante dei lavori, delle tesi scientifiche come si legge su un editoriale “Controversy and debate: the nature of science” pubblicato su Nature Cell Biology.

    Un editoriale che molti dovrebbero leggere nel nostro Paese, a iniziare da chi liberamente dovrebbe fare informazione soprattutto quando riguarda l’ambito scientifico. La verità nasce dal confronto/scontro tra teorie opposte e nulla è definitivo. Inutile che cito Galilei, Darwin, Harvey.

    Il criterio di base che dovrebbe aiutare nella ricerca è, come ci ha insegnato Popper, il criterio di falsificabilità. Della verità non avremo mai certezza, ma possiamo giungere ad avere la certezza delle falsità. Il dubbio ragionevole è quello che considera diverse ipotesi e comprende se le tesi sostenute abbiano fondamento ragionevole e relazione causale o siano ispirate da interessi.

    Il dibattito sul coronavirus

    Recentemente abbiamo assistito a tesi discordanti riguardanti l’origine naturale o artificiale del coronavirus. Premesso che il nostro genoma è composto da un minimo a un massimo del 40% da virus e che le tre grandi tappe dell’evoluzione che conducono all’uomo, cioè dalla comparsa dei vertebrati, dei placentari e infine dei primati è dovuta ai genomi colonizzati da virus.

    Premesso altresì che abbiamo sulla Terra più virus di qualsiasi altro elemento vitale (non casualmente si parla di virosfera) e che talmente è importante nel mondo scientifico che il maggior numero di Nobel è andato a virologi e microbiologi e oggi usiamo i virus non come elemento virulento ma come veicoli per vaccini e terapie geniche.

    Le malattie emergenti riconducibili a nuovi virus come sars, mers, ebola, nipa, sono legati prevalentemente ai mammiferi e i più diffusi sono gli uccelli e i pipistrelli. Le nuove potenti tecnologie consentono di identificare il genoma e la biologia sintetica di ridurre i tempi per alcuni vaccini.

    Detto questo abbiamo una metodologia denominata analisi filogenetica che consente la comparazione dei genomi dei virus, le cui sequenze si trovano depositate nelle banche dati e che dovrebbero essere pubblicamente accessibili. Basta secondo me verificare, come qualcuno afferma, se nella sequenza dell’acido nucleico del coronavirus c’è o non c’è un segmento del RNA dell’HIV e tutta la vicenda – su basi scientifiche – potrà essere chiarita.

    Anche perché sull’ospite intermedio del coronavirus non è che si sia pervenuto a qualcosa di fondato. Dal pipistrello al pangolino e ora siamo al cane randagio.

    Infine esistono attività di ricerca che utilizzano tecniche come il sistema Crispr/Cas9, una specie di “forbice molecolare” capace di tagliare e rimuovere un Dna bersaglio. Il metodo permette infatti di eliminare, sostituire o correggere sequenze di Dna.

    Vogliamo citare il virologo Evans che tre anni fa annunciò la sintesi del virus equino simile al virus del vaiolo umano scomparso 4 decenni fa? D’altro canto non si spiega se tutto scorre liscio del perché si è avvertita l’esigenza di sottoscrivere quasi mezzo secolo fa la “Convenzione sulla proibizione dello sviluppo, la produzione, e lo stoccaggio di armi batteriologiche (biologiche) e tossine e sulla loro distruzione” (BTWC), in vigore dal 26 marzo 1975, con 183 Stati parte.

    5xmille
    Tags
    "I CORTI" "I CORTI" Un giocattolo per un bambino "LA MALA SETTA" A cena con l'autore. "Sanità senza frontiere" Convegno - Dibattito "Storia dell'Italia Mafiosa" A cena con l'autore "TRE PASSI NEL PENSIERO CONTEMPORANEO" "Un giocattolo per un bambino" 1 Concorso Carlo Levi - 2013 BANDO 1° CONCORSO NAZIONALE ARTISTICO - LETTERARIO "CARLO LEVI" 2° Concorso Nazionale Artistico - Letterario Carlo Levi 2013/2014 4° Concorso Nazionale Artistico - Letterario Carlo Levi - Celebrazioni 70 anni pubblicazione "Paura della libertà 5° Concorso Internazionale Carlo Levi 2017 2018 Cambiamenti climatici Carbone Carlo Levi Concorso DI Gianni Elaion fondazione luigi gaeta Il futuro antico del cibo L'aria è di nuovo azzurra e potrò mettermi a dipingere. CATALOGO MOSTRA Lettera del Presidente Pietro Grasso Medaglia di Rappresentanza della Repubblica Italiana Medaglia di Rappresentanza della Repubblica Italiana "Concorso Carlo Levi" 2013 Medaglia di Rappresentanza Repubblica Italiana "Questione Meridionale" 2014 Medaglie di Rappresentanza della Repubblica Italiana "Concorso Carlo Levi" Medaglie di Rappresentanza Repubblica Italiana "Questione Meridionale" MOSTRA D'ARTE "Cammina leggero perchè cammini sui miei sogni" MOSTRA FOTOGRAFICA di Anna Svelto. Carlo Levi e la Basilicata". Mostra fotografica di Anna Svelto. Carlo Levi e la Basilicata. Tra memorie e passioni Multimedia - Dalla Carta di Parigi ai Diritti di 4^ generazione: “Carta di Eboli” Multimedia - En plein air 2017 Multimedia - Presentazione 1° Concorso C. Levi Provincia di Salerno. Presentazione della Mostra d'Arte"Cammina leggero Riconoscimento del Presidente del Senato della Repubblica Pietro Grasso Riconoscimento del Sindaco di Torino Piero Fassino Serata conclusiva: "Un giocattolo per un bambino" SERATA LEVIANA 70 - 80 - 40 "Il Futuro ha un Cuore Antico" SERATA LEVIANA 80 - 70 - 40 "Il Futuro ha un Cuore Antico" VI Video - Conferenza stampa Provincia di Salerno 22 novembre 2012 Video - I Concorso Nazionale Carlo Levi: Omaggio a Carlo Levi Video - Insediamento Comitato promotore per l'UNESCO di Eboli Video - Presentazione Conferenza stampa Provincia di Salerno 22 novembre 2012