Avatar photo

Giovanni Maria Chessa

Giovanni Chessa lavora a Roma, in uno studio legale internazionale. Si occupa di energia, trasporti e comunicazioni.

Se in estate collassano i servizi pubblici

La stagione estiva, con il suo crocevia turistico ininterrotto, rappresenta ormai da anni una fetta non indifferente della ricchezza prodotta in Italia. I dati economici del terzo trimestre dipendono sempre più dai flussi di visitatori che si riversano senza tregua nelle varie città d’arte e località di mare. Si potrà discutere su quanto sia opportuno affidarsi all’impatto di un turismo, spesso a basso valore aggiunto, per sostenere una crescita dello “zero virgola”, tantopiù se la produzione industriale è stagnante e i consumi rimangono sotto le aspettative.

Ciò che non può sfuggire al dibattito però, è l’effetto che tale impatto antropico produce sui servizi pubblici. Dagli aeroporti alle condotte idriche, passando per le autostrade e le ferrovie, l’estate è ormai diventata sinonimo di disservizi, ritardi e cancellazioni. L’impressione è che soprattutto i servizi a rete, spesso in sovraccarico fuori stagione, non siano in grado di assorbire le richieste di un brusco aumento dei fruitori. Bisogna intendersi, il problema non riguarda solo l’Italia. Anche campioni di efficienza vera o presunta come Germania e Regno Unito sono da diverso tempo alle prese con un crollo nella qualità dei servizi più o meno imprevedibile che si riverbera con facilità nella stampa locale.

Nel caso italiano, tuttavia, i problemi sono decisamente di vecchia data e l’aumento delle presenze turistiche ha contribuito a disvelare una situazione già compromessa e che non appare destinata a migliorare. Nel corso degli anni persino le differenze su base geografica sono venute meno, basti pensare alla congestione delle autostrade in Liguria e nel triveneto. Anche quelle tra pubblico e privato sono progressivamente sfumate. Spesso la qualità dei servizi in concessione risulta peggiore rispetto alla gestione in house. La vicenda di Thames Water oltremanica è l’esempio peggiore. L’utility londinese privatizzata negli anni Ottanta è gravata da una montagna di debiti per un uso perverso della leva finanziaria, aggravata dall’incapacità del regolatore di assicurare un rendimento accettabile del capitale, senza compromettere il livello dei servizi essenziali come quelli idrici.

Bisogna dunque interrogarsi sul ruolo degli investitori istituzionali sempre più presenti nella gestione delle grandi reti pubbliche. Sarebbe miope pensare che gli Stati europei possano fare a meno dei grandi fondi USA o mediorientali nella raccolta del capitale richiesto per gli ingenti investimenti in infrastrutture ammalorate e spesso fatiscenti. Ad essere chiamato in causa è il ruolo del regolatore, l’unica autorità pubblica in grado di ripristinare una situazione di sostanziale equilibrio a condizioni di mercato, facendo coesistere la remunerazione degli azionisti con la qualità dei servizi, evitando un eccessivo aumento delle tariffe. Non esiste una condizione ideale in cui questi elementi coesistano in modo armonioso, tuttavia il giusto livello di apertura al mercato, tramite le liberalizzazioni e il ricorso a gare ad evidenza pubblica, può senz’altro contribuire ad abbassare i costi per gli utenti sfruttando un basilare principio di concorrenza.

Ai sovraccarichi gestionali spesso contribuisce la scarsa consapevolezza della classe dirigente per il potenziamento dei servizi pubblici. Un fenomeno che in Italia ha assunto proporzioni poco invidiabili, aggravate dalla riforma del titolo V e dal decadimento della qualità dei processi decisionali, in particolare nelle regioni. Spesso infatti, le infrastrutture richieste sono mancanti o necessitano di un radicale potenziamento per esaurimento dei limiti fisici. Contrariamente alla vulgata ambientalista, nessuna oculata gestione potrà sostituire il raddoppio di un’autostrada al collasso o la costruzione di un bypass ferroviario, per assorbire un traffico che non è mai stato così elevato nella storia d’Italia.

Le frequenti crisi di rifiuti in Sicilia, unite ad un’ondata di siccità dalle proporzioni bibliche rappresentano lo scenario deteriore per malagestione amministrativa e abuso delle prerogative delle regioni autonome. Da decenni si assiste inermi al collasso dei servizi pubblici, non per mancanza di risorse ma per l’incapacità di canalizzarne la spesa a partire dalla progettazione. La stessa localizzazione delle opere, come nel caso delle dighe e dei termovalorizzatori, viene continuamente messa in discussione. Quale investitore estero possa scommettere su servizi pur remunerativi in presenza di un quadro regolatorio che cambia ogni anno è un interrogativo senza risposta. Sciogliere il nodo delle grandi opere sarebbe di interesse primario per una regione di cinque milioni di abitanti che, se di turismo non vive, quantomeno prova a campare. Eppure, a distanza di anni, lo scenario che si palesa al turista sbarcato in aeroporto a Palermo o Catania è sempre lo stesso. Diventa difficile, in queste condizioni, intercettare i flussi a più alto valore aggiunto spesso provenienti dall’estero. I clienti altospendenti richiedono strutture e servizi di qualità, che vanno ben al di là dell’enogastronomia e non si accontentano della calorosa accoglienza tributata appena messo piede in una qualunque meta del sud Italia.

La miopia decisoria si riflette anche nel sistema aeroportuale, dove una pianificazione poco attenta unita ai canonici contrasti con gli enti locali ha impedito uno sviluppo razionale del settore. La “forza del provincialismo” ha dato vita ad un elenco di piccoli scali come Comiso, Crotone, Salerno e Parma senza potenziare i grandi hub aeroportuali. Se Malpensa sconta ab origine errori nella localizzazione, il caso di Fiumicino è ancora più emblematico. Sin dal piano regolatore del 1978 è stata individuata l’area a nord dell’attuale sedime come la più idonea all’ampliamento dello scalo. Nonostante cinquant’anni di progetti e la predisposizione delle opere accessorie, la scelta di un raddoppio dei terminal è stata abbandonata in favore di un potenziamento in sede. L’opzione zero, che nelle attese degli ambientalisti dovrebbe ridurre l’impatto ambientale, finirà inevitabilmente per ampliarlo. Bloccare la capacità dello scalo condannandolo ad usare le stesse infrastrutture, seppure riammodernate e in attesa di un’espansione ad est, è il modo migliore per aumentare la congestione di aerei e passeggeri nel momento in cui Roma e l’Italia sono al centro dei flussi turistici mondiali.

Nella Liguria postindustriale le gallerie in eterna manutenzione e il destino della gronda di Genova si intersecano con il destino della concessione ad Autostrade. Il rebus tra investimenti e incrementi tariffari deve far fronte all’aumento delle materie prime e più in generale ad un mutamento del quadro d’insieme che rende impraticabile la tabella di marcia stabilita appena cinque anni fa. Un’analisi affrettata arriverebbe alla conclusione che le grandi opere infrastrutturali non siano più praticabili in Europa, per i tempi dilatati e i costi fuori controllo, uniti ad una complessa pianificazione che deve tenere conto di una pluralità di interessi non più comprimibili. D’altronde il Regno Unito ha rinunciato alla costruzione di una linea ad alta velocità verso Leeds e Manchester per le ragioni sovraesposte. Sarebbe miope però rinunciare ad opere attese da decenni solo perché hanno conosciuto una difficile genesi progettuale, che ha influito sul cronoprogramma. Non c’è sistema di traffico intelligente che possa supplire ad una terza corsia mancante. In assenza di viabilità o collegamenti alternativi, la soluzione proposta è sempre la solita tendenza decrescita che imbriglia una regione come la Liguria affamata di reddito e di occupazione. Meglio dunque accettare una revisione dei rapporti concessori sul piano temporale, che rinunciare ad infrastrutture fondamentali per sostenere il Paese anche al di fuori dai mesi estivi.

Come il canarino in una miniera di carbone, i flussi turistici rappresentano un’anticipazione di ciò che accadrà nei prossimi anni in presenza di una crescita del traffico o dei consumi. Se augurarsi il contrario vorrebbe dire condannare il Paese alle sabbie della recessione, l’unico rimedio praticabile è assicurare la certezza del diritto, definendo un quadro regolatorio immutabile, a monte dei processi decisionali, per attirare i capitali richiesti. Solo così si potranno diluire nel tempo gli aumenti tariffari senza pregiudicare l’interesse dei tanto agognati investitori.

Telecomunicazioni, prospettive in chiaroscuro

Nel corso del 2024 il settore delle telecomunicazioni in Italia andrà incontro ad un processo di riassetto societario atteso ormai da anni. Nell’attuale contesto la ridefinizione del mercato dei telco si compone di una pluralità di tasselli che vede il dossier Tim ancora in una posizione di preminenza seppur non esclusiva. Inoltre, l’evoluzione del quadro regolatorio a livello europeo unito all’andamento stagnante dei ricavi degli operatori pone un interrogativo sul futuro dell’intero settore, anche alla luce dei notevoli investimenti richiesti dalla transizione tecnologica che faticano a trovare una collocazione profittevole nel mercato.

In questa partita spicca la crescita impetuosa dei fornitori di contenuti OTT che segue una traiettoria opposta a quella dei telco e non sembra risentire della stretta regolatoria decisa dall’Unione europea. Il rapporto instaurato dagli OTT con i consumatori prescinde dal ricorso ad infrastrutture di rete di ultima generazione come le reti VHCN per la fruizione dei contenuti e poggia su una crescente personalizzazione dei contenuti audiovisivi basata sull’uso di dispositivi brandizzati e su annunci pubblicitari sempre più precisi.

Negli ultimi anni gli operatori hanno sostenuto notevoli spese per adeguare le reti mobili allo standard 5G, a partire dall’aggiudicazione delle nuove frequenze. Tuttavia, il ritorno dell’investimento è stato sotto le aspettative. I consumatori hanno giudicato gli standard di trasmissione esistenti come il 4G+ sufficienti ad assicurare la fruizione dei servizi di streaming e cloud. In assenza di uno sviluppo di smart city e IOT, il 5G si colloca ancora in una posizione di nicchia, che impedisce ai telco di fare il salto di qualità nel rapporto con i clienti sfruttando le elevate velocità di trasmissione e la riduzione dei tempi di latenza.

Un mercato in cambiamento 

Il rapporto “2024 Telcos Values Creators” curato da BCG fotografa una situazione in chiaroscuro per i telco. Gli operatori di dimensione globale hanno difeso il nucleo di attività tradizionali, in particolare con la clientela business, investito nelle infrastrutture di nuova generazione con un occhio ai costi e si apprestano a sfruttare le potenzialità dell’intelligenza artificiale. Le maggiori criticità del settore derivano dai ricavi stagnanti e da una sproporzione tra investimenti e profitti nell’adeguare le reti allo standard 5G.

Questi fattori hanno contribuito ad allargare la faglia esistente tra gli operatori presenti a livello globale e quelli attivi nei confini nazionali. I primi tre telco al mondo (T-Mobile US, Deutsche Telekom e Bharti Airtel) hanno creato da soli quasi il 40% del valore aggiunto nel settore – 247 miliardi di dollari su 574 – cifra che sale al 60% tenendo conto anche di Comcast e American Tower. Le dimensioni contano anche sul piano dei margini. Secondo l’analisi BCG la reddittività degli operatori più grandi oscilla tra il 6 e il 7% in un arco quinquennale. In questo contesto sono i telco più piccoli spesso in perdita a soffrire per i dividendi ridotti e i rischi associati ad una presenza geografica ristretta, fattore quest’ultimo che contraddistingue buona parte degli operatori dell’Unione europea.

Per raggiungere l’orizzonte del 2030 senza scossoni i telco dovranno semplificare le proprie strutture aziendali senza rinunciare ad investire nell’innovazione. La capacità di creare valore dipenderà ancora una volta dai servizi a più alto valore aggiunto offerti alle imprese e supportati da nuove tecnologie come l’intelligenza artificiale e il 5G. La scarsa redditività ha spinto gli operatori a sondare i mercati collegati sempre più accessibili dallo smartphone come i servizi finanziari e i contenuti audiovisivi. La presenza di incumbent poco disposti ad abdicare al loro ruolo porterà i telco a stringere accordi commerciali con i partner per accelerare la penetrazione nei mercati come già accade nel settore delle assicurazioni.

Un ulteriore capitolo riguarda la pressante tendenza alla riduzione dei costi che rischia di produrre degli impatti significativi sui livelli occupazionali di molti operatori. La propensione ad una radicale ristrutturazione aziendale è diventata molto più di un’ipotesi scolastica per tutti i telco che si confrontano con gli effetti dell’evoluzione tecnologica e l’aumento dei costi, non adeguatamente compensato da una cornice regolatoria che ha dimostrato di privilegiare a tutti i costi il welfare consumeristico rispetto alla sostenibilità dei bilanci. Ritoccare al rialzo i prezzi delle tariffe è necessario per preservare la stabilità di un comparto investito negli ultimi anni da profonde trasformazioni. Gli operatori necessitano tempi e risorse certe per affrontare le sfide poste dalla transizione digitale e questo concetto è ancor più valido per i telco più piccoli ed esposti alla concorrenza che beneficerebbero di un processo di consolidamento dal quale al momento sono tenuti fuori.

La nuova cornice regolatoria

Sin dal libro verde sulle telecomunicazioni del 1987, la Commissione europea aveva previsto che in un futuro lontano l’apparato regolatorio introdotto a supporto dei processi di armonizzazione e liberalizzazione fosse gradualmente ritirato in favore dell’applicazione delle sole norme antitrust. Dopo un’attesa pluridecennale in cui il numero di mercati regolati delle tlc si è via via assottigliato complice l’evoluzione tecnologica e la crescita della concorrenza, nell’ultima raccomandazione del 2020 è emersa una posizione intermedia. Da un lato la Commissione ha reiterato la richiesta di continuare a regolare i mercati d’accesso, mentre ha previsto una speculare riduzione del tipo di obblighi che si applicano agli ex monopolisti, sotto forma di condizioni tecniche di accesso.

La necessità di un alleggerimento della regolazione è stata fatta propria anche dal Connectivity package presentato a febbraio 2023, a margine del quale la Commissione è ritornata sul tema dei mercati d’accesso con la Raccomandazione Gigabit che avvia il tanto atteso processo di deregulation delle nuove reti VHCN, a vantaggio degli operatori con significativo potere di mercato come gli ex monopolisti. È opinione condivisa che l’apparato regolatorio dell’Unione non abbia favorito gli investimenti nella fibra ottica da parte degli incumbent, penalizzandoli con obblighi spesso sproporzionati rispetto al reale potere di mercato detenuto dopo anni di misure correttive, tantopiù nell’era degli OTT rimasti estranei al perimetro.

La decisione di rivedere gli obblighi applicabili discende dalla necessità di costruire un quadro regolatorio coerente, che favorisca nel lungo periodo la remunerazione del capitale investito nelle reti VHCN. Per garantire la proporzionalità, la Commissione prevede di graduare l’intensità delle misure correttive, concentrandosi sul solo accesso all’infrastruttura passiva nei casi in cui sia prevedibile a livello nazionale una dinamica competitiva nell’arco di cinque anni. In presenza di determinate condizioni (come la costruzione di reti alternative), la Commissione si spinge anche ad abbandonare lo storico criterio dell’orientamento al costo del prezzo d’accesso che ha contraddistinto anni di regolazione degli ex monopolisti. L’obiettivo principale non è più contenere il potere di mercato degli incumbent ma favorire gli investimenti da parte dei soggetti regolati, confermando l’obiettivo della connettività ad un gigabit di tutti i nuclei familiari nell’orizzonte temporale del 2030, previsto dalla strategia Digital Compass dell’Unione.

Nel definire i nuovi orientamenti la Commissione prevede di segmentare su base geografica le misure correttive, rifacendosi ad una distinzione già sperimentata per permettere il supporto pubblico alle reti in fibra ottica. Il miglioramento delle condizioni di concorrenza permette di distinguere mercati geografici separati, garantendo una proporzionalità degli obblighi in base all’effettiva competitività, che può variare in funzione degli investimenti in reti alternative realizzate da altri operatori. Il principio di non discriminazione diventa così fondamentale per garantire parità di accesso agli operatori non verticalmente integrati. Il modello di equivalence of input introdotto in Italia da TIM nel 2016 si conferma il modo più sicuro per promuovere la concorrenza senza gravare eccessivamente sulle attività dell’incumbent.

Questa piccola rivoluzione degli assetti regolatori della Commissione è il segnale che il rapporto costi benefici della politica di “contenimento” degli ex monopolisti inizia a volgere dopo anni a favore di questo ultimi. La promozione degli obiettivi di connettività nell’Unione entro il 2030 diventerebbe utopistica e inattuabile se legata ad un’eccessiva limitazione dei prezzi. Nel caso della telefonia fissa, questa è fin troppo presente sia a monte che a valle, con dirette conseguenze sulla qualità dei servizi offerti ai consumatori e sulla sostenibilità economica degli operatori, che devono sostenere investimenti non remunerativi.

Un riassetto incompleto e tardivo

L’accoglimento delle novità introdotte dalla Raccomandazione Gigabit si scontra in Italia con un riassetto proprietario delle tlc che porta in una direzione opposta a quella immaginata dalla Commissione. In particolare, è il ruolo dell’ex monopolista Telecom Italia ad essere ancora una volta chiamato in causa, in attesa di un definitivo chiarimento sul suo futuro come operatore non verticalmente integrato. Sin dalla privatizzazione, la sostenibilità economica di TIM è stata messa a dura prova da una combinazione di fattori endogeni ed esogeni. L’enorme mole di debito che pesa sui bilanci non avrebbe costituito però un problema insormontabile, tale da richiedere la vendita della rete, in presenza di assetti regolatori più favorevoli all’incumbent.

Le direttive dell’UE hanno accompagnato con successo l’armonizzazione e la liberalizzazione dei servizi di telefonia fissa, ma l’eccessivo carico di misure correttive ha impattato sugli equilibri di bilancio di Telecom Italia che, a differenza dei suoi omologhi europei, non godeva già all’epoca di ottima salute. A ciò si aggiunge la concorrenza fin troppo dinamica tra i telco in Italia, che ha portato ad un abbassamento dei prezzi delle tariffe al dettaglio in misura tale da impattare pesantemente sui ricavi di TIM.

Lo scorporo della rete, così come immaginato da Rovati diciotto anni fa, avrebbe rappresentato una soluzione lungimirante per un problema che si manifestava in un’epoca precedente alla transizione digitale per come la conosciamo oggi. Nel 2024 la vendita dell’infrastruttura è più un rimedio obbligato che il migliore possibile. In assenza di un aumento di capitale, sulla cui entità andrebbe aperto un discorso a parte, è difficile prevedere quanto sopravviverebbe TIM alle attuali condizioni. Concentrarsi su soluzioni alternative o ritardare quelle già pianificate avrebbe l’ulteriore difetto di ritardare gli investimenti che latitano non solo per ragioni economiche, ma anche per l’assenza di una prospettiva di medio e lungo periodo, essenziale per programmare uno sforzo di questo tipo.

In un futuro prossimo la Commissione potrebbe rimuovere quasi del tutto gli obblighi imposti a carico degli operatori verticalmente integrati, procedendo di pari passo allo switch off del rame. Il raggiungimento di un effettivo grado di concorrenza nel mercato delle tlc non dipenderà solo dalla regolazione dei prezzi all’ingrosso, ma riguarderà la capacità di remunerare gli investimenti garantendo ai consumatori servizi ad alto valore aggiunto a partire dalle utenze business. In questo contesto le dimensioni degli operatori saranno di cruciale importanza per sostenere gli effetti del cambiamento tecnologico e sarà inevitabile andare incontro ad un nuovo processo di consolidamento.

La vendita di Vodafone Italia a Swisscom è il primo passo dopo la fusione Wind 3 di un riassetto proprietario che nei prossimi mesi potrebbe coinvolgere anche la nuova TIM e Iliad. La parola chiave sarà la valorizzazione delle attività più redditizie che si concentrano nel segmento imprese, abbinate ad una drastica riduzione dei costi nella parte consumer. L’arco di tempo richiesto per una diffusione capillare delle smart city e di internet of things che sfrutteranno appieno le novità del 5G è troppo dilatato per consentire un immediato ritorno dell’investimento e ancor di più per provocare la migrazione di massa dal rame alla fibra, ancora assente in varie parti del paese.

Il principale ostacolo a questo processo è rappresentato dalla Commissione europea, che ad oggi si conferma il vero convitato di pietra. Se Vestager ha più volte manifestato la sua contrarietà ad un consolidamento deciso in laboratorio, i cui risvolti sul piano dei consumatori potrebbero non essere così positivi, Thierry Breton ha più volte richiamato la necessità di andare avanti nel processo di riassetto. Un possibile assist potrebbe venire dal rapporto sul mercato interno di Enrico Letta che nell’evidenziare le differenze tra l’UE e il resto del mondo nel numero e dimensioni degli operatori, ha sottolineato come per propiziare fusioni transfrontaliere sia prima necessario raggiungere un ulteriore grado di armonizzazione tra gli Stati membri.

Lo scenario immaginato implicherebbe un maggior coordinamento sul piano della governance, partendo proprio da quel super BERER abbandonato per timore di perdere le varie rendite di posizione a livello nazionale. Allo stesso modo, una gestione armonizzata delle frequenze permetterebbe all’Unione di non farsi trovare impreparata alla luce delle evoluzioni tecnologiche che porteranno di qui al 2030 al 6G e ad un uso dei satelliti nelle orbite LEO su larga scala. Infine, andrà chiarito una volta per tutte il contributo degli OTT alle reti, perché è inimmaginabile che lo sforzo economico necessario per adeguarle non ricada sui maggiori beneficiari.

 

Perché l’Europa deve sanzionare Hamas (e l’Iran)

Sin dalle prima fasi dell’attacco di Hamas contro Israele del 7 ottobre si sono susseguite informazioni contraddittorie sul reale contributo dell’Iran alle ostilità. Malgrado le agenzie di intelligence occidentali abbiano provato in più occasioni il supporto di Teheran, la pistola fumante in grado di concretizzare più di un semplice sospetto non si è palesata. Al contrario, la retorica degli Ayatollah e del loro proxy regionale Hezbollah ha segnato il passo davanti all’intensificarsi dei combattimenti e il rischio di un allargamento del conflitto su base regionale appare al momento scongiurato. Nondimeno risulta altrettanto chiaro che Hamas ha potuto contare nel corso degli anni di un supporto economico e militare di tutto rispetto da parte dell’“asse della resistenza”, che ha permesso il vero salto di qualità della leadership del gruppo nell’organizzare e attuare con successo il brutale attacco contro Israele.

La presenza di attori regionali consolidati come l’Iran nel contesto mediorientale impone un ripensamento delle iniziative di contrasto alternative all’opzione militare, tanto nei confronti di Teheran che di Hamas stesso. L’obiettivo principale rimarrebbe quello di evitare una “proxy war” in territorio israeliano, parallela al conflitto a Gaza, con l’acuirsi delle tensioni in Cisgiordania e un possibile nuovo scontro con Hezbollah in Libano. In uno scenario simile l’Unione Europea dovrebbe esplorare parallelamente agli Stati Uniti il ricorso ad una serie di misure sanzionatorie dirette da un lato a prevenire nuovi focolai di tensione regionali, permettendo dall’altro di degradare sensibilmente le capacità offensive di Hamas e delle organizzazioni terroristiche correlate, operanti nei territori palestinesi.

Attualmente i regimi di sanzioni in vigore si distinguono tra i tradizionali di tipo verticale, per la loro capacità di colpire uno Stato specifico e di tipo orizzontale, destinati ad operare contro una pluralità di individui ed entità indipendentemente dal territorio in cui si trovano. I regimi orizzontali sanzionano dunque i soggetti responsabili di attività, come la violazione dei diritti umani, che per il loro particolare disvalore e la natura trasversale sono oggetto di attenzione da parte di buona parte della comunità internazionale.

Sin dagli attentati di Al Qaeda alle ambasciate americane in Kenya e Tanzania del 1998, le Nazioni Unite e gli USA hanno fatto ricorso a regimi orizzontali contro il terrorismo e la proliferazione di armi di distruzione di massa. Dopo l’11 settembre anche l’Unione Europea ha imposto restrizioni speculari contro Al Qaeda e i Talebani e nel corso degli anni si sono aggiunte misure contro le armi chimiche contro Russia e Siria. L’Iran è destinatario di sanzioni di tipo verticale connesse alla violazione dei diritti umani e agli obblighi di non proliferazione. A seguito del fallimento dell’accordo sul nucleare, gli Stati Uniti hanno ripristinato il duro regime di restrizioni precedentemente in vigore, che prevede il ricorso alle ben note sanzioni secondarie in virtù dell’extraterritorialità del diritto americano.

Dopo l’attacco del 7 ottobre è apparso evidente come Hamas sia stata erroneamente risparmiata dalle misure restrittive imposte le organizzazioni terroristiche. Le peculiarità dell’organizzazione, che opera in un territorio sottratto al controllo dell’Autorità Nazionale Palestinese e in assenza di un riconoscimento da parte della comunità internazionale, hanno creato una zona grigia che potrebbe tuttavia sfuggire agli strumenti coercitivi tradizionali. Invero, Hamas non solo ha sfruttato al massimo il supporto di storici sponsor come il Qatar e l’Iran sul piano economico e militare, ma è riuscita ad impiegare a proprio vantaggio gli aiuti umanitari provenienti dall’Occidente e diretti al supporto della popolazione civile di Gaza. Questa attività di accaparramento è proseguita nel corso degli anni nonostante la presenza di agenzie delle Nazioni Unite operanti come gestori dei fondi nella striscia. È evidente che un tale scenario presuppone che Hamas si sia dotata di una struttura organizzativa che travalica i confini ambigui del terrorismo, con ramificazioni internazionali in grado di sostenere lo sforzo bellico contro Israele e come tale la espone agli effetti di potenziali misure restrittive.

Attualmente gli Stati Uniti tramite l’OFAC hanno inserito Hamas in tre programmi sanzionatori contro il terrorismo, che prevedono il ricorso alle tradizionali restrizioni soggettive come il congelamento dei beni e di tutti gli asset riconducibili soggetti alla giurisdizione americana. A seguito degli scontri con Fatah nel 2006-2007, che hanno portato al controllo della striscia di Gaza da parte di Hamas, gli USA hanno esteso all’Autorità Nazionale Palestinese un regime autorizzatorio per ogni transazione economica che coinvolge l’ANP effettuata da cittadini o entità statunitensi. Per quanto riguarda l’Unione Europea, Hamas è indicata come organizzazione terroristica da diversi anni, senza che questo abbia implicato l’adozione di misure restrittive ai danni dei vertici e delle società usate dal gruppo per dirottare fondi nella striscia di Gaza. L’Iran rimane sottoposto alle sanzioni già esistenti legate al programma nucleare e da luglio ad un nuovo regime che vieta l’esportazione di componenti a duplice uso utilizzabili in droni e UAV.

Ulteriori misure restrittive contro Hamas e l’Iran dovrebbero tenere conto non solo del reticolo di entità impiegate a vario titolo nel finanziamento dell’organizzazione e attive anche in Europea, ma anche imporne il rispetto ai Partner occidentali nel Golfo come Qatar, Arabia Saudita, Emirati e Bahrein, evitando fenomeni di elusione già appurati nel caso della Russia. Più precisamente, i gruppi bancari mediorientali attivi nella regione, insieme alle filiali degli istituti di credito occidentali, dovrebbero accelerare i processi di due diligence e compliance come già fatto con successo nel caso di Al Qaeda e dell’ISIS. Tagliando ogni fonte di approvvigionamento non ufficiale e permettendo allo stesso modo ad un’autorità centralizzata destinata a subentrare ad Hamas la gestione degli aiuti nella striscia.

Il probabile disaccordo in seno alle Nazioni Unite sull’ampliamento dei regimi orizzontali contro il terrorismo ad Hamas potrebbe essere l’occasione per un’adozione congiunta delle sanzioni da parte di UE e USA, che troverebbero un campo privilegiato di cooperazione, facendo valere la primazia di euro e dollaro nei confronti dei Paesi che non intendono adeguarsi o che ostacolano l’applicazione delle restrizioni. Il coordinamento tra alleati sarebbe quindi fondamentale per garantire l’efficacia delle misure adottate, dimostrando coerenza reciproca nell’affrontare le complesse dinamiche del Medioriente.

In conclusione, data la complessità della situazione attuale, alla comunità internazionale viene richiesto un approccio concertato per affrontare le sfide legate al conflitto tra Israele e Gaza. L’adozione di misure sanzionatorie da parte di Unione Europea e Stati Uniti rappresenta un’esigenza improcrastinabile, tanto più per evitare che gli aiuti umanitari destinati a Gaza vengano distratti a favore di Hamas. L’inclusione dei gruppi terroristici palestinesi nei regimi orizzontali contro il terrorismo, sulla scia di quanto fatto contro Al Qaeda e l’ISIS, potrebbe essere una strategia di deterrenza efficace per prevenire nuovi attacchi, senza infliggere ulteriori privazioni alla popolazione civile. Allo stesso modo, è essenziale che l’azione dell’Occidente non danneggi la reputazione interna dei paesi arabi schierati per la non ostilità verso Israele. Un’opinione pubblica poco avvezza agli accordi di Abramo e corteggiata da leader politici e religiosi desiderosi di apparire come paladini del mondo islamico costituisce un rischio per la stabilità politica di tutta la regione da scongiurare a tutti i costi.

Napolitano, le mille vite di un migliorista

Con la scomparsa di Giorgio Napolitano l’Italia perde l’ultimo protagonista di una lunghissima stagione politica che si dipana dalla seconda metà del Novecento sino ai giorni nostri. Un arco di tempo che ha visto la progressiva evoluzione delle istituzioni repubblicane e nel corso del quale compiti e funzioni descritti nella Carta hanno preso forma non senza contraddizioni e paradossi. Napolitano non è stato solo testimone diretto di questo cambiamento. Grazie ad una longevità politica senza precedenti ha potuto contribuire in prima persona alla definizione di quei ruoli, sino a plasmare l’essenza stessa della prima carica dello Stato.

La lunga carriera politica di Napolitano inizia con il tramonto della parabola di De Gasperi e termina con la fine del renzismo. Entrato alla Camera nel 1953 tra le fila del Pci, fa parte di quella generazione successiva ai costituenti che ha impresso un nuovo ritmo al sistema parlamentare, instaurando per la prima volta nella storia una dialettica tra maggioranza e opposizione sconosciuta all’Italia risorgimentale.

Tra i comunisti Napolitano rimane sempre un uomo di partito, ma è all’interno di quei confini novecenteschi, in apparenza indelebili, che avviene una lenta maturazione politica. Nel 1956, da giovane deputato, manifesta il suo convinto appoggio all’intervento sovietico in Ungheria, una scelta che non mancherà di esporlo a commenti di dura riprovazione in futuro. Vent’anni dopo, da parlamentare di lungo corso, è il primo comunista a recarsi negli Stati Uniti per un inedito ciclo di conferenze. Nel mezzo la morte di Togliatti, l’eurocomunismo di Berlinguer e il dibattito interno al partito, specchio di un’Italia che cambia, proprio come Napolitano. Con i miglioristi guida la lenta transizione del Pci dall’ortodossia massimalista ad un orizzonte riformista e – in prospettiva – socialdemocratico. Un percorso che risultava ancora incompiuto dopo il crollo dell’Unione Sovietica e che si concluse sulle rovine del partito socialista travolto da mani pulite.

Dopo la morte di Berlinguer la capacità attrattiva del Pci inizia inesorabilmente a calare. Il nuovo corso inaugurato da Alessandro Natta, all’insegna di un illusorio ritorno al passato, si risolve in un insuccesso elettorale. Napolitano si impegna in prima persona per la svolta della Bolognina e partecipa alla formazione del neonato Pds. Tesse inoltre con lungimiranza la sua tela e diventa il comunista italiano più noto a livello internazionale, organizzando il celebre viaggio di Achille Occhetto da Bush nel 1989. Alla prospettiva europea si aggiunge quella americana ormai consolidata, ma per la stanza dei bottoni occorrerà ancora attendere.

La svolta arriva nel 1992. Napolitano ormai post-comunista a tutti gli effetti è un veterano dell’emiciclo. La nuova legislatura appare da subito travagliata e la consuetudine di riservare la presidenza della Camera all’opposizione non viene rispettata, l’elezione di Scalfaro al Quirinale cambia i giochi. Napolitano gli succede alla guida di Montecitorio e si avvia a compiere lo stesso percorso di Nilde Iotti e Pietro Ingrao. La deflagrazione di Mani Pulite consegna un Parlamento balcanizzato e incapace di reagire. Alla delegittimazione popolare si aggiunge l’indebolimento seguito alla riforma dell’immunità parlamentare. Dallo scranno più alto Napolitano assiste impotente al blitz della polizia giudiziaria, incaricata dalla Procura di Milano di sequestrare i bilanci dei partiti custoditi alla Camera. Il respingimento delle autorizzazioni a procedere nei confronti di Craxi scatena le dimissioni dei ministri comunisti dal governo Ciampi. Napolitano reagisce imponendo il voto palese ribaltando una lunghissima prassi consolidata.

La fine anticipata della legislatura e la vittoria del centrodestra alle elezioni del 1994 frustrano ancora una volta i tentativi dei post-comunisti di guadagnare la vetta. Il governo Berlusconi avrà però vita breve e, nel 1996, con l’arrivo di Prodi a Palazzo Chigi, Napolitano approda al Viminale. A più di 70 anni di età è il primo ministro dell’interno proveniente dalle fila del Pci. È l’inizio di un periodo di continuità per il Viminale, Napolitano stringe un intenso rapporto con il Capo della polizia Masone che si concretizza in importanti successi nella lotta alla criminalità organizzata. C’è anche lo spazio per intervenire sul Sisde, infondendo nuova linfa dopo anni di scandali e inefficienze con la nomina del prefetto Stelo.

Con la caduta del governo Prodi anche la carriera di Napolitano sembra volgere alla fine. Non riconfermato da Massimo D’Alema, si avvia verso un ruolo di secondo piano lasciando spazio ad una nuova generazione di figure del centrosinistra. Nel 2005 arriva la nomina a senatore a vita destinata a coronare una lunga carriera parlamentare.
Dopo l’esito incerto delle urne del 2006, il ritorno di Prodi a Palazzo Chigi porta inaspettatamente all’elezione di Napolitano a presidente della Repubblica. Il centrosinistra riesce ad imporre con successo la sua candidatura al quarto scrutinio, permettendo al primo post-comunista della storia di diventare capo dello Stato, con percentuali di voto tuttavia inferiori a numerosi suoi predecessori.

È l’inizio di una lunga stagione politica che non appartiene ancora alla storia e le cui conseguenze si riflettono ancora oggi sugli equilibri istituzionali. Come osservato da più parti, Napolitano è appartenuto alla schiera dei presidenti “interventisti”. Da Gronchi a Scalfaro sono numerosi gli esempi in cui i poteri del capo dello Stato sono stati spinti al limite, spesso avvicinandosi al punto di rottura. Con Napolitano il Quirinale torna a far sentire la propria voce, in modo più deciso rispetto a Ciampi.

La presenza di Silvio Berlusconi a Palazzo Chigi acuisce il conflitto istituzionale, che si materializza per la prima volta nel 2009: dal caso Englaro al cosiddetto lodo Alfano, passando per la crisi interna del centrodestra, non mancheranno le occasioni di recriminazioni per la mancanza di terzietà del capo dello Stato. Il drammatico peggioramento delle condizioni economiche e l’assenza di una maggioranza parlamentare portano alla arcinota sostituzione di Berlusconi con Mario Monti. Un’operazione che vede l’interventismo del Colle spinto al massimo grado. La ritrosia a concedere le elezioni da parte di Napolitano si scontra con le ambizioni di Bersani pronto a guidare il paese e la scelta di un tecnico alla guida dell’esecutivo porta con sé inevitabili conseguenze sul piano del consenso elettorale: fioriscono i movimenti populisti, con l’ascesa dei 5 Stelle e il centrosinistra manca clamorosamente l’appuntamento col voto.

Dopo diversi tentativi infruttuosi per eleggere il suo successore, il Parlamento incorona nuovamente Napolitano conferendogli un inedito secondo mandato, questa volta a larghissima maggioranza. Seguirà un biennio che darà poche soddisfazioni e tanti grattacapi, con un tentativo fallito di riforma costituzionale e il tramonto delle larghe intese.
Nel frattempo, ci sarà spazio per un conflitto di attribuzione con la “libera” Procura di Palermo, impegnata in attività di captazione a supporto del noto filone trattativista.

Se da presidente della Camera Napolitano aveva assistito inerte all’onta di mani pulite, con i magistrati di Palermo la vicenda assume connotati caricaturali e il Quirinale si trova a subire persino l’assalto del partito delle procure. Finirà con l’epurazione di Ingroia e un incredibile interrogatorio del capo dello Stato da parte di una squadra di pubblici ministeri in trasferta insieme all’avvocato di Riina. Una vicenda quest’ultima, che sembra riassumere il contenuto di un noto adagio marxista, secondo il quale la storia si ripete sempre due volte: la prima volta come tragedia, la seconda come farsa. E chissà se il giovane Napolitano sarebbe stato d’accordo.

Se il blocco dei valichi paralizza l’Italia

Nell’arco di poco più di una settimana la logistica italiana ha sperimentato un brusco passaggio dal torpore ferragostano al caos di settembre. Il blocco parziale dei transiti nella galleria base del Gottardo, unito alla chiusura del traforo ferroviario e stradale del Frejus, ha fatto precipitare l’arco alpino in una condizione di “isolamento” simile a quella del secondo dopoguerra. Lo scenario peggiore più volte preconizzato di una interruzione contemporanea dei diversi tunnel si è poi materializzato con la chiusura programmata e rimandata della galleria del monte Bianco, accompagnata dalle criticità esistenti che riguardano quasi tutti i valichi di confine: dal colle del Tenda alle autostrade liguri nel Nord-Ovest, alla ferrovia del Brennero colpita da fenomeni franosi.

Una condizione in apparenza emergenziale e frutto del caso nasconde in realtà debolezze strutturali pluridecennali, alle quali non è stato possibile porre rimedio, pur essendo l’Italia un paese esportatore dipendente dall’arco alpino per il transito del 60% merci, pari a 170 milioni di tonnellate all’anno. A differenza del passato, non è stato il solo errore umano a causare il blocco del traffico ma anche il verificarsi di eventi climatici estremi la cui frequenza è destinata ad aumentare e a cui infrastrutture obsolete non sono più in grado di far fronte.
Sorprendentemente è il nuovo tunnel di base Gottardo ad aver mostrato per primo le sue debolezze. A seguito del grave deragliamento di un treno merci ad agosto, è previsto il dimezzamento della capacità di traffico del traforo sino al 2024 per consentire le riparazioni degli impianti danneggiati e la sostituzione dei binari. Tuttavia la Svizzera può contare sul percorso alternativo offerto in parallelo dalla vecchia galleria ferroviaria e da quella autostradale, per la quale sono in corso i lavori di raddoppio. Aver programmato per tempo le opere di AlpTransit consente inoltre di sfruttare soluzioni alternative come il nuovo tunnel del Lötschberg, in funzione dal 2007 sull’asse del Gottardo. Sul versante italiano invece le conseguenze della contemporanea chiusura dei valichi del Frejus e del monte Bianco porterebbero rapidamente al collasso l’attività delle imprese esportatrici verso la Francia e non solo. In assenza di percorsi alternativi, i costi del trasporto diventerebbero economicamente insostenibili rendendo impossibile evadere gli ordini. Il recente rinvio dei lavori di rifacimento della volta del tunnel del monte Bianco non è altro che un palliativo destinato ad incidere nel brevissimo periodo. Il mancato adeguamento dei valichi stradali unito all’assenza della nuova galleria di base del Frejus rappresenta un’ipoteca sul futuro dell’industria manifatturiera del Nord-Ovest, su cui grava una spada di Damocle destinata ad oscillare ad ogni emergenza.

I dati prodotti a più riprese dall’Osservatorio sulla Torino-Lione testimoniano come l’interscambio economico con i paesi dell’Ovest Europa abbia raggiunto nel 2017 i 205 miliardi euro, con un saldo attivo di 21 miliardi per l’Italia, rappresentando il 41% dell’interscambio totale con i Paesi dell’Unione Europea. Nel 2017 le merci trasportate hanno superato i 44 milioni di tonnellate, con una marcata prevalenza, oltre il 90%, per il trasporto su strada ai valichi di Ventimiglia, Frejus e monte Bianco. Ciò implica il transito di 3,5 milioni di veicoli pesanti, per i quali non è ancora prevista un’alternativa ferroviaria conveniente.

Nonostante il disequilibrio modale a favore della gomma, le condizioni della viabilità rimangono precarie e la presenza di nuove infrastrutture insufficiente. Se è vero che i trafori sono accessibili grazie a raccordi autostradali da ormai un ventennio, nulla è stato fatto sul fronte della capacità delle gallerie, nonostante gravissimi episodi come l’incendio del 1999 che bloccò per tre anni il traforo del monte Bianco. Nemmeno la seconda canna del Frejus operativa dal 2024 comporterà il raddoppio della capacità di transito, osteggiato pervicacemente dai comuni francesi che temono come gli omologhi tirolesi un’invasione di tir nelle valli. Rimane l’autostrada Genova – Ventimiglia: progettata negli anni 50’ per essere percorsa da appena cinquemila veicoli al giorno, oggi è piagata da decenni di mancata manutenzione di viadotti e gallerie. Il tracciato non sarebbe in ogni caso idoneo ad accogliere un volume crescente di traffico e qualsiasi opera di ampliamento si scontrerebbe con le caratteristiche orografiche sfavorevoli del territorio e gli elevati oneri concessori. Appurata l’assenza di alternative nel breve termine, lo scenario più auspicabile vedrebbe la conclusione dei lavori nel Gottardo e la contestuale riapertura del Frejus a doppia canna e del monte Bianco nel 2024, insieme ad un graduale potenziamento della viabilità in Liguria e all’inaugurazione del nuovo tunnel del Tenda. Purtroppo un simile scenario riproporrebbe l’annoso status quo ante senza apportare alcun miglioramento. Basterebbe un singolo evento per evidenziare le carenze strutturali irrisolte e far ripiombare le imprese esportatrici nel caos. Inutile aggiungere che nessun investitore sarebbe disposto a pagare un premio per proteggersi da rischi ampiamente prevedibili, condannando la manifattura italiana ad una condizione di eterna aleatorietà, che rappresenta un gravissimo vulnus competitivo nei confronti dei partner europei.

È indubbio che l’Italia non possa risolvere da sola la condizione di permeabilità dell’arco alpino. Non avrebbe senso realizzare per tempo la Torino Lione in assenza della sua prosecuzione in territorio francese, così come sarebbe inutile potenziare le autostrade in valle d’Aosta o progettare nuovi trafori stradali in Piemonte che incontrano la netta contrarietà oltralpe. Accanto allo sforzo economico, occorrerà intraprenderne uno diplomatico con Parigi e Bruxelles per far rispettare i vincoli pluridecennali previsti dai corridoi delle reti TEN-T e assicurare una copertura parziale delle opere strategiche da parte dell’Unione Europea. In questo senso è positivo l’inserimento della Genova-Ventimiglia nel corridoio Mediterraneo per finanziare la conclusione del raddoppio, ma l’arco temporale estremamente lungo dei lavori ci invita ad un sano bagno di realismo.

L’emergenza dei trafori colpisce un tessuto economico già provato dalla crescita dell’inflazione e dall’aumento dei prezzi dell’energia. Il totale disequilibrio modale a favore del trasporto su gomma ne esacerba le conseguenze e rischia di pregiudicare l’equilibrio economico anche delle imprese a più alto valore aggiunto. Una possibile soluzione nel breve periodo implicherebbe un più stretto coordinamento tra istituzioni, concessionari autostradali e operatori economici per fornire ristori mirati alle attività più colpite e per promuovere una più efficiente organizzazione dei percorsi, a partire dalla definizione di un piano di cadenzamento per la gestione delle fasce temporali di accesso ai trafori. Anche il potenziamento della rete ferroviaria esistente può dare un contributo importante, ancorché parziale. Intervenire sui sistemi di segnalamento delle linee tradizionali, in parallelo all’avanzamento delle grandi opere, renderebbe il traffico ferroviario più fluido sul modello dell’asse del Sempione e consentirebbe un’integrazione più stretta del trasporto merci con quello passeggeri, per favorire un piccolo ma significativo cambio modale a favore della rotaia. Nel lungo periodo le opzioni sul tavolo sono le stesse di quaranta anni fa: dall’autostrada Cuneo – Nizza al traforo del Mercantour, per citare due opere fondamentali, accomunate dall’essere al momento irrealizzabili. La loro natura transfrontaliera le proietta infatti in un limbo senza via d’uscita. Anche per questo l’Italia dovrebbe valutare di intervenire sulla viabilità interna, migliorando i collegamenti viari tra Liguria e Pianura Padana. Se fosse confermata la durata dei lavori nel tunnel del Monte Bianco, un piano pluriennale di potenziamento della viabilità esistente sarebbe una conseguenza logica. Ciò implicherebbe sia il ritorno a vecchi progetti ancora attuali, come la bretella Predosa – Albenga, che una ridefinizione dei rapporti concessori esistenti per assicurare la realizzazione delle nuove opere, con l’apporto di capitali che difficilmente saranno di provenienza pubblica. Anche per questo il giudizio di Bruxelles non sarà marginale.

Gli insetti come nuova frontiera dell’alimentazione

Da sempre la crescita della popolazione mondiale si accompagna a problemi di fondo irrisolti che incidono sulle dinamiche demografiche. Tra i tanti, l’emergenza alimentare è quello che ha messo più alla prova Governi e Organizzazioni internazionali. Sin dal boom demografico del secondo dopoguerra la sfida di nutrire il pianeta si è trasferita dai paesi più industrializzati alla parte più povera del globo. La prospettiva di uno sviluppo impetuoso e incontrollato ha portato la zootecnia e l’agricoltura a raggiungere importanti traguardi. La fame nel mondo, lungi dall’essere stata debellata, è oggi meno grave in proporzione di quanto non lo fosse quaranta anni fa.

Accanto ai tradizionali progressi tecnologici, che hanno interessato le varie fasi del ciclo produttivo del cibo, da più parti vengono invocate soluzioni eterodosse da sviluppare su larga scala per risolvere il problema della sicurezza alimentare. In particolare, con l’emergere delle conseguenze dei cambiamenti climatici, si va affermando anche in Occidente l’uso d’insetti edibili come nuova frontiera dell’alimentazione.

In passato si è più volte tentato di sviluppare tecniche alternative per mitigare l’impatto degli allevamenti industriali, con l’obiettivo di giungere in un futuro non lontano alla creazione di prodotti adattabili anche all’uomo. Negli anni 70’, in previsione di un futuro consumo di carne apparentemente insostenibile, venne studiata la possibilità di sintetizzare proteine dalle biomasse di petrolio, per destinarle all’alimentazione a basso costo del bestiame. Una prospettiva presto abbandonata a causa dei rischi per la salute. Il consumo venne infatti ritenuto nocivo, per la presenza di composti cancerogeni derivati dal petrolio nelle carni animali nutrite con quei particolari mangimi. Un giudizio senza appello, che in breve tempo fece naufragare diverse iniziative imprenditoriali nel settore anche in Italia.

Il ricorso a fonti proteiche alternative deve essere pertanto valutato sul piano della sicurezza e le stesse considerazioni scientifiche devono riguardare tutti i prodotti immessi nella catena alimentare. In base a tali conclusioni, di carattere non discrezionale, saranno gli enti di regolamentazione a prendere una decisione in merito. Nel caso degli insetti, le richieste riguarderebbero la commercializzazione di particolari specie edibili, da vendere in forma congelata, essiccata o in polvere. Al momento la Commissione Europea ne ha autorizzato quattro (due tipi di larve della farina, locuste e grilli) a seguito di valutazioni che ne hanno escluso la tossicità.

Oggi l’utilizzo degli insetti a scopo alimentare è solo una tra le numerose soluzioni praticabili per affrontare il nodo della domanda crescente di cibo, che risulta sempre più diversificata per qualità e quantità anche nei paesi in via di sviluppo. La ricerca di farine alternative è un tema ricorrente nella zootecnia, ma l’obiettivo finale di un pianeta più sazio con un minore impatto ambientale non deve straripare dagli argini del buonsenso, andando a colpire abitudini alimentari consolidate per presunti “sensi di colpa”, imputabili ad anni di benessere economico di cui hanno beneficiato i paesi occidentali.

La cultura gastronomica mediterranea è il prodotto di secoli di abitudini stratificate, generate da influenze reciproche che hanno connaturato la nostra civiltà. Sarebbe immotivato pretendere di mutarle istantaneamente, per venire incontro all’impatto ambientale dei nuovi allevamenti di pollame e maiali in India o Cina.

 

La comparsa di fonti proteiche alternative negli scaffali non deve essere fonte di preoccupazione, la maggiore scelta tra prodotti si pone infatti a vantaggio del consumatore, che conserva la libertà di scelta. Commercializzare farina d’insetto, per quanto apparentemente disgustoso, non pregiudica la vendita di proteine animali o vegetali tradizionali. Un problema informativo si porrebbe al più nel caso di un utilizzo esclusivo come mangime negli allevamenti di bestiame. Il consumatore avrebbe diritto a essere informato sulla tipologia di regime alimentare seguito dagli animali destinati alla macellazione.

In ogni caso, trattandosi di un mercato al dettaglio ancora di nicchia in Italia, è forse più opportuno trattare la questione insetti edibili su un piano sovranazionale. Nel caso d’India e Cina, che arriveranno a contare quasi tre miliardi di potenziali consumatori di carne, l’impiego di fonti proteiche alternative è l’unico modo per limitare l’impatto degli allevamenti intensivi e permettere di diversificare la dieta senza arrecare un danno irreparabile al pianeta. Al netto delle emissione di gas serra climalteranti, replicare in Asia il modello produttivo europeo produrrebbe conseguenze catastrofiche sull’ambiente, sia in termini d’inquinamento tipico (falde acquifere, polveri sottili, liquami da trattare), che d’impatto sulla salute dell’uomo per l’abuso di antibiotici.

Se la fame del mondo è in progressiva diminuzione e non ha avuto gli esiti catastrofici pronosticati negli anni 60’ e 70’, mantendendo le stesse curve di crescita demografica, è perché la ricerca ha offerto soluzioni in grado di aumentare la resa dei raccolti e garantire una crescente disponibilità di fonti alimentari sia per l’uomo che per gli animali da allevamento. Il consumo crescente di proteine pone un problema non da poco, che non può essere affrontato in modo ideologico, sopratutto da una prospettiva mondiale. Il ricorso a fonti proteiche alternative, insieme alla loro sintesi in laboratorio su larga scala (processo ancora economicamente non conveniente), sono due facce della stessa medaglia. Ignorare il progresso dell’industria alimentare non pregiudicherebbe la filiera italiana delle carni, ma andrebbe a detrimento dei Paesi in via di sviluppo che devono ancora sviluppare il loro settore. In questo senso l’Italia può giocare un ruolo fondamentale di promozione della ricerca per lo sviluppo di nuove fonti alimentari, recuperando il know-how e lo spirito pionieristico detenuto dalla chimica in questo campo. Ne gioverebbero sicuramente i consumatori all’estero e il nostro Paese si confermerebbe leader, non solo nella produzione di cibo di qualità, ma anche nell’esportazione di soluzioni alternative destinate a risolvere problemi globali.

QUALE ITALIA NELLE ALLEANZE

Nel corso dei primi mesi di attività l’indirizzo del governo in politica estera si è caratterizzato per una sostanziale continuità con l’eredità di Mario Draghi sul piano atlantico. Se da un lato il vincolo esterno che grava sugli apparati di difesa è stato rispettato, come dimostrato dall’approvazione della risoluzione sull’invio di armi in Ucraina, il rapporto con la dimensione europea è da ridisegnare e consolidare.

Non poteva essere altrimenti. La compressione dei tempi dovuta al giuramento dell’esecutivo a ottobre e la presentazione della legge di bilancio, non avrebbero potuto accelerare un percorso di per sé lento e graduale, la cui riuscita non dipende solo dalla asserita maturità del governo italiano.

Come prima prova, si può affermare che il vertice del G20 ha avuto un esito più che soddisfacente. Il consolidamento del rapporto con gli Stati Uniti è stato giustamente avvertito come una priorità indifferibile, complici gli eventi bellici in corso e il bilaterale con Joe Biden potrebbe essere l’occasione per valicare definitivamente gli steccati legati al pregresso rapporto con Trump. Non è difficile immaginare che l’amministrazione americana abbia privilegiato un approccio concreto con l’Italia, in grado d’includere Giorgia Meloni nel consesso internazionale, se i prossimi impegni verranno rispettati. Il sostegno americano non potrà quindi prescindere dal supporto militare all’Ucraina e dal nuovo perimetro dei rapporti con la Cina, da fissare al più presto in previsione della scadenza del memorandum sulla via della seta nel 2024 e del possibile sostegno all’iniziativa parallela degli USA “Partnership for Global Infrastructure”.

Le elezioni di metà mandato hanno congelato per i prossimi due anni gli assetti politici d’oltreoceano ed un atteggiamento prudente è più che mai d’obbligo alla luce delle che contorsioni che attraversano il Partito Repubblicano. La sfida per Giorgia Meloni sarà mettere al riparo da turbolenze politiche la relazione privilegiata con gli Stati Uniti, da sviluppare indipendentemente dall’inquilino della Casa Bianca, presentando l’Italia come partner affidabile e maturo, che agisce senza dover dare l’impressione di svolgere i “compiti a casa”. In questo senso, la partecipazione al progetto del caccia Tempest con Gran Bretagna e Giappone evidenzia una proiezione indo-pacifica che, per quanto inedita, non risulterebbe sgradita agli apparati di Washington.

Per razionalizzare il rapporto con Pechino, il governo dovrà tenere conto dei mutamenti nella scena internazionale, ma l’approccio da falco del Presidente del Consiglio annunciato in campagna elettorale non può pregiudicare i rapporti economici esistenti, in settori non strategici. Molto si è scritto sull’interesse dell’Italia a bilanciare gli squilibri commerciali esistenti con la Cina nel settore manifatturiero. In particolare, per aumentare le esportazioni dei prodotti ad alto valore aggiunto, che generano un impatto su occupazione e Pil non trascurabile, evitando al contempo un depauperamento della proprietà intellettuale a vantaggio delle imprese cinesi. La lotta al nuovo dumping invece, implicherebbe un maggior peso del tema dei diritti umani e delle minoranze etniche, da sviluppare in un accezione etica ma soprattutto economica. Un importante passo in questo senso è stato compiuto dalla Commissione Europea, con l’adozione del nuovo regolamento per il contrasto ai sussidi esteri che distorcono il mercato interno.

Il ruolo nella UE

Rimanendo nel vecchio continente, le maggiori asperità deriveranno come ampiamente previsto dalla relazione con le istituzioni europee. Non sbaglia chi immagina Giorgia Meloni di fronte a un “bivio”. Le prossime settimane saranno vitali infatti per comprendere la direzione che prenderà il governo e come questa potrà ripercuotersi sugli equilibri interni. La recente crisi diplomatica con la Francia può essere in parte espunta dalle urgenze che catalizzeranno l’attenzione della Commissione. Inoltre la pressione migratoria sull’Italia non è più vissuta come un evento straordinario e i numeri, seppur in crescita, sono risibili se paragonati ai flussi generati dalla crisi Ucraina. Ancora meno sono quelli oggetto della contesa con le ONG. Il problema quindi assume caratteri spiccatamente politici, legati all’ostilità mostrata da Macron verso un governo marcatamente di destra e all’asserito pericolo “contagio” sovranista in Francia. Tali insidie non sono egualmente avvertite dall’Unione Europea, che vede la sua anima policentrica più disposta al dialogo con il Governo Meloni. Ciò è in parte dovuto alla ricerca di nuovi equilibri politici nel PPE, alternativi ad una ennesima riedizione della grande coalizione a Bruxelles.

Se un alleanza con i conservatori non potrà escludersi dal 2024, è nell’immediato che si concentrano le vere urgente programmatiche: la revisione del PNRR costituisce il primo tassello della verifica sull’affidabilità dell’esecutivo e sulla capacità di portare (o non portare) a termine gli obiettivi programmati dai suoi predecessori. La crisi energetica ha dimostrato tutti i limiti di un approccio intergovernativo, ma nel tête-à-tête con la Commissione Giorgia Meloni sarà obbligata a raggiungere un compromesso. In questo senso lo scontro su POS e limiti al contante ha oscurato una manovra che, benché emergenziale, è stata apprezzata dai mercati e i correttivi auspicabili dovrebbero essere minimi. Il differenziale tra BTP e BUND è in diminuzione e l’esecutivo ha dimostrato nelle misure di ricalcare il solco di Mario Draghi, pur con un approccio chiaramente più politico.

Il futuro dialogo con l’Unione si dipanerà lungo il rapporto con Orban, da chiarire una volta per tutte senza sbavature e nella ratifica del MES. Bere l’amaro calice del vincolo esterno cui l’Italia appare comunque destinata è più che una formalità. Rappresenterebbe il culmine ma anche l’inizio di un processo di reciproca accettazione tra Palazzo Chigi e la Commissione, da sviluppare con la riforma del Patto di Stabilità nei prossimi mesi. In questo senso le baruffe con Macron possono costituire l’occasione per ampliare il dialogo già esistente con la Germania per un’analoga definizione di un trattato del Quirinale con Berlino. La dialettica da instaurare con Bruxelles potrebbe condurre a un definitivo alleggerimento dei limiti alle politiche fiscali dei paesi sovra indebitati, ma più che un accordo con la Francia questo presuppone una maturazione nell’utilizzo degli spazi di bilancio che dovrebbero essere concessi agli Stati membri, anche alla luce del giudizio che i compratori di debito pubblico daranno sui programmi di governo. Una volta affrancati dall’ombrello della BCE, toccherà all’Italia guadagnare sul campo la fiducia degli investitori, già accordata durante la finanziaria, smentendo il catastrofismo praticato dall’attuale opposizione in campagna elettorale.

In questo contesto mutevole e incerto va delineandosi progressivamente il ruolo del Quirinale. L’esercizio discrezionale della moral suasion del Colle è destinato a influire con intensità variabile sull’indirizzo politico dell’Esecutivo nei confronti delle Istituzioni europee. Tanto più Mattarella agisce nelle ampie vesti di unico garante degli obblighi internazionali nel rapporto con l’Unione, quanto più si profila il rischio di una sovrapposizione con le scelte del governo, come già accaduto nel confronto con la Francia. Nello scenario più auspicabile i due poteri dovrebbero muoversi all’unisono nell’interesse del paese e in questo senso può essere letta l’attività di mediazione svolta dal Presidente della Repubblica alla prima della Scala con Ursula von der Leyen. Il primo passo per la legittima accettazione da parte dell’Europa passa per la rottura del muro dell’incomunicabilità, che entrambe le parti hanno parzialmente eretto nel corso degli anni. Reciproche concessioni sono inevitabili e la dialettica dei prossimi mesi potrebbe alternare momenti di crisi transitorie con alcuni Stati membri, per i quali la responsabilità è spesso condivisa, alla faticosa ricerca della sintesi con la Commissione sui dossier all’ordine del giorno. Toccherà a Giorgia Meloni far convivere l’arte del pragmatismo con il mandato politico che gli elettori le hanno inequivocabilmente affidato.

AGENDA INFRASTRUTTURE, RITARDI DA COLMARE

Il ritorno al Governo della coalizione di centrodestra offre la concreta possibilità di ripensare l’approccio che per quasi un decennio si è affermato nella gestione del comparto delle infrastrutture. Il nuovo esecutivo si trova però ad operare in uno scenario profondamente mutato rispetto al passato. Alle criticità del settore ancora irrisolte, come la prolungata stasi degli investimenti e più in generale in generale le difficoltà nell’utilizzo delle risorse impegnate, si sono aggiunte le conseguenze della spirale inflattiva con il problema degli extra-costi che incombe sulle nuove opere.
Anche la cornice programmatica è mutata e ricomprende oggi PNRR, Piano Complementare e Fondo di sviluppo e Coesione 2021 – 2027, che si sviluppano ciascuno secondo una propria logica pluriennale con diverse scadenze. Per venire incontro a questi cambiamenti, la stazione appaltante più importante del Paese, il Gruppo FS che comprende anche Anas, ha adottato un piano industriale per pianificare gli interventi sino al 2031.
L’arco temporale in cui il Governo opererebbe è tuttavia al massimo quinquennale, pertanto lo spazio per nette cesure con il passato appare assai ristretto e sono diversi i motivi che paradossalmente si oppongono ad un radicale cambio di rotta. In particolare, è la prolungata assenza di una volontà politica caratterizzante nel comparto delle infrastrutture a favorire la rapida ricomposizione di un quadro di settore.
Il ricorso alla decretazione d’urgenza nella legislatura trascorsa da parte di tre diversi esecutivi ha portato ad una disordinata sovrapposizione di numerosi regimi giuridici, di cui però non sono ancora apprezzabili i risultati in termini di spesa, non essendo stato avviato alcun cantiere rilevante. Alla filosofia che ha ispirato il codice degli appalti del 2016, contraria a procedure accelerate per le infrastrutture strategiche, ha fatto seguito dunque un continuo ricorso alla semplificazione, che evidenzia i limiti grossolani di un impianto normativo già obsoleto e ingiustificatamente punitivo con il settore delle costruzioni.
Il nuovo Codice degli appalti licenziato dal Consiglio di Stato non arriverà prima del 2024, ciò nonostante le opere del PNRR beneficieranno comunque di ennesime corsie ad hoc che dovrebbero semplificare l’iter autorizzativo. Risulta quindi essenziale il coordinamento con i Ministeri dell’Ambiente e della Cultura, per evitare la formazione di colli di bottiglia nelle procedure di valutazioni di impatto ambientale e di autorizzazione paesaggistica. L’esercizio dei poteri sostitutivi da parte del Consiglio dei ministri e del CIPE non deve essere intepretato come un’extrema ratio che limita la tutela di interessi qualificati, quanto piuttosto come l’unica vera garanzia del loro bilanciamento.
Il secondo fronte che si prospetta è quello delle progettualità. L’incapacità organizzativa delle stazioni appaltanti, insieme alle difficoltà operative del consolidamento nel settore delle costruzioni, hanno portato i tempi di progettazione a dilitarsi all’inverosimile, con risvolti poco apprezzabili anche in termini qualitativi. Una soluzione a breve termine non è purtroppo individuabile. Il settore privato potrà investire nella formazione solo se verrà assicurato il corretto fabbisogno di risorse previsto per le opere strategiche, con un cronoprogramma idoneo ad accompagnare la trasformazione del comparto, su cui grava peraltro il macigno della produttività stagnante.
Quanto al problema degli extra-costi, questo si intereccia con la probabile revisione del PNRR. Non è più rinviabile una rivalutazione complessiva del cronoprogramma, seguendo un nuovo ordine di priorità dettato dal rincaro delle materie. Con apposito decreto legge del 26 settembre il Governo ha permesso di destinare circa 8 miliardi di risorse del Piano, assegnate ma non utilizzate, per la copertura dei maggiori oneri di opere dello stesso PNRR. Per evitare il definanziamento di ulteriori opere con la stessa modalità, l’Esecutivo dovrà trovare in tempi brevi un flusso di cassa idoneo a consentire l’avvio e la prosecuzione dei cantieri per le opere strategiche e indifferibili. Una possibile soluzione potrebbe consistere nella creazione di un fondo temporaneo alimentato dall’extra gettito fiscale, sulla cui fattibilità incombe il rischio della recessione.
Diventa quindi inevitabile il riordino degli obiettivi programmatici, abbracciando una prospettiva almeno quinquennale e ipotizzando il ricorso alle risorse non impegnate del Fondo di Sviluppo e Coesione 2014-2020 per rispettare le scadenze del PNRR. L’Unione Europea ha aperto alla possibilità del loro utilizzo per misure di sostegno a famiglie e imprese colpite dalla crisi energetica. Tenuto conto che i numeri della mancata spesa si aggirano intorno ai 30 miliardi, una parte consistente di queste risorse potrebbe essere dirottata a copertura degli extracosti di opere del PNRR localizzate nel Mezzogiorno, con uno slittamento al Fondo di Sviluppo e Coesione 2021 – 2027 per quelle definanziate dalla programmazione 2014-2020, ma in concreto mai avviate ed esistenti solo sulla carta.
Infine l’Esecutivo dovrà ripensare alla governance degli interventi. Attualmente coesistono 3 diverse strutture di missione per il supporto degli investimenti: due alla Presidenza del Consiglio (Investitalia e la Segreteria tecnica del PNRR) e una al Ministero delle Infrastrutture per la cosiddetta “project review”. Rivitalizzare il processo attuativo a valle della copiosa programmazione, richiede un’unica guida sotto Palazzo Chigi che semplifichi l’iter autorizzativo e intervenga con i poteri sostitutivi durante l’istruttoria, surrogando le amministrazioni inadempienti. Questo processo verrebbe completato con una rivitalizzazione del ruolo del CIPE, come unico organo di raccordo e approvazione dei progetti che dovrebbe assicurare in ogni caso l’autorizzazione, ancorchè condizionata, di tutte le infrastrutture realmente definite strategiche, anche se esterne al PNRR.

Come l’Europa può affrontare la disinformazione

La prosecuzione delle ostilità in Ucraina da parte della Russia è destinata ad esporre per lungo tempo l’Unione Europea all’incessante attività di disinformazione di Mosca. Questo genere di minacce asimmetriche sono anche le uniche praticabili, insieme agli attacchi hacker, da un paese prostrato dalla guerra ed economicamente allo stremo. Oltre a richiedere risorse inferiori rispetto ad altre attività destabilizzanti infatti, sfruttano una profonda conoscena della materia che risale ai tempi dell’Unione Sovietica e che è stata sapientemente adattata dalle agenzie russe per operare nelle piattaforme digitali.

La cifra per comprendere lo sforzo messo in atto da Mosca e il suo impatto sui paesi occidentali, è rappresentata dal rapporto costi-benefici estremamente favorevole, basato sull’uso massiccio dei grandi social network. In assenza di disposizioni specifiche per la disinformazione, il rischio è che i processi di autoregolazione si concentrino solo sul temi affini al mare magnum del politicamente corretto. Di conseguenza, una minaccia asimmetrica come quella russa verrebbe ignorata o peggio inquadrata sotto categorie diverse, lasciando gli utenti finali in balia di contenuti fuorvianti e ingannevoli.

Acconsentire a soluzioni alternative, che permettono alla disinformazione di russa di circolare in libertà, arrivando ad inquinare il nostro universo informativo, è una pura follia. Altrettanto ipocrita è invece fare affidamento sulla sola consapevolezza degli utenti, notoriamente assente, nella distinzione delle notizie false.

Il dibattito non ruota infatti sulla correttezza o meno della dottrina del “free speech”, rapportata al pluralismo delle idee tipico di una società complessa come quella contemporanea. Nel caso Russo siamo di fronte ad uno sforzo massiccio e deliberato, che accompagna quello bellico e mira a destabilizzare l’opinione pubblica occidentale, minando la fiducia nelle istituzioni democratiche, a vantaggio di una guerra di aggressione perpetratata ai danni dell’Ucraina.

Questo genere di attività spiccatamente asimmetriche non consentono una risposta adeguata da parte dei paesi interessati. La Russia infatti ha accentuato negli ultimi anni la sua postura autoritaria, esercitando un controllo diretto sull’intera sfera mediatica a cui è dedicato un intero apparato repressivo. Al contrario Mosca ha potuto usare piattaforme digitali sviluppate negli Stati Uniti per diffondere nella più totale impunità i propri contenuti, che è chiaro vadano oltre la semplice propaganda politica altrimenti permesssa.

Durante la pandemia è stata alimentata in modo surretizio e ingannevole la sfiducia di vaste fasce della popolazione verso i vaccini per il Covid19, sostenendo sia l’efficacia superiore di preparati come Sputnik, che la pericolosità degli stessi farmaci. In alcuni paesi come Bulgaria e Romania, nei quali le istituzioni faticano a riscuotere consenso, l’inquinamento mediatico è stato tale che milioni di cittadini sono stati portati a non vaccinarsi, con conseguenze sul piano sanitario catastrofiche. Se siamo dinanzi ad un nuovo paradosso della tolleranza, il concetto può essere sintetizzato così: la difesa della libertà di espressione e di opinione alla base delle democrazie occidentali, rischia di porsi come una paradossale debolezza nell’era delle piattaforme digitali.

Oggi i tradizionali pilastri su cui si reggono le nostre istituzioni, sono minacciati sia da un uso a dir poco disinvolto di tecnologie concepite in paesi autoritari, come la Cina, che dalla massiccia diffusione di fake news, destinate a condizionare i processi democratici e le stesse forze politiche. Ancor di più quelle che incautamente stringono rapporti con alleati purtroppo solo “apparenti”.

Non siamo però privi di difese: lo strumento di cui l’Unione Europea si è dotata per regolare le piattaforme come Facebook e Twitter, il Digital Services Act (DSA), è stato concepito prima dell’aggressione all’Ucraina. Il testo finale, non ancora pubblicato, è frutto di un paziente lavoro di mediazione e non deve soprendere dunque il carattere compromissorio. Le soluzioni a cui perviene tuttavia, sono in grado fin da subito di affrontare la minaccia dell’infodemia, imponendo precisi obblighi di condotta alle piattaforme digitali: in primis queste saranno tenute ad essere più trasparenti nei processi interni, con precise responsabilità nelle modalità di rimozione dei contenuti illeciti, compresa dunque la filiera della disinformazione. Gli obblighi rimarranno comunque di natura preventiva o volontaria e sono privi della “specialità” richiesta da una situazione di crisi come quella in Ucraina, ma vanno nella giusta direzione e non è escluso che la Commissione Europea riesca ad ottenere nuovi poteri.

Anche l’approccio scelto dal Regno Unito nella lotta alla disinformazione è degno di nota. Originariamente infatti Londra prevedeva che un’autorità dedicata fosse dotata di poteri sufficienti per esercitare vere e proprie ingerenze nella gestione delle piattaforme, sindacando direttamente le scelte di rimozione dei contenuti illeciti. Questa decisione, duramente osteggiata per i rischi che avrebbe comportato alla libertà di espressione, è stata abbandonata e il nuovo Online safety Bill si concentrerà, non tanto sui processi interni dei social network, ma sul potenziale danno che può provocare ciascun contenuto, indipendentemente dalla sua illiceità. Ciò si traduce in un’analisi individuale e meticolosa delle attività degli utenti, che richiderà ingenti risorse economiche per assicurare un controllo effettivo sulla disinformazione, i cui confini sono labili e difficili da distinguere con l’uso dei soli algoritmi.

Altro capitolo degno di nota è quello dell’editoria e della televisione, che diffondono anch’esse un notevole flusso di disinformazione. In questo caso però è l’Italia a fare eccezione: siamo l’unico tra gli Stati fondatori dell’Unione in cui è concepibile ospitare, nelle reti più importanti e in prima serata, opinionisti direttamente legati agli apparati di sicurezza russi, se non addirittura lo stesso Ministro degli Esteri senza contraddittorio.  L’anomalia italiana apre interrogativi inquietanti perché va oltre il mezzo punto di share conteso per la raccolta pubblicitaria dai conduttori. Individuati come anello debole dell’Europa, da diversi mesi siamo avvolti da un cordone infodemico in nome di una mai chiarita affinità con Mosca, che mette nel mirino il sostegno all’Ucraina del Governo e che dovrebbe propiziare un allontanamento dalle posizioni occidentali. Questa ambiguità di fondo è ormai assimilata anche dal pubblico, che non si sorprende neppure dei bizzarri piani di pace presentati con istinto velleitario da leader che sostengono la maggioranza.

Il doppio livello in cui opera la disinformazione Russa, sia nella società che ai vertici della politica, è un indice di grande debolezza, che si riscontra solo nei paesi in via di sviluppo con istituzioni facilmente condizionabili. Non basta dunque regolare le piattaforme o le modalità di selezione degli ospiti televisivi, se è la stessa politica a veicolare con irresponsabilità messaggi fuorvianti.

Oggi più che mai centrosinistra e centrodestra devono avviare un percorso di rinnovamento delle rispettive classi dirigenti, che elimini gli spazi di ambiguità esistenti con la Russia. Il voto del 2023 sarà uno spartiacque della futura collocazione dell’Italia in Europa e il contesto internazionale non permette indecisioni o tentennamenti. Solo chi respingerà con risolutezza le interferenze di Mosca potrà pensare di far parte a pieno titolo dell’area di governo e guidare il Paese in una nuova fase per l’Occidene, dove non troverà spazio la doppiezza figlia di una “dottrina del ricatto” a cui abbiamo tristemente scelto di sottostare in passato.

*Giovanni Maria Chessa, Comitato scientifico Farefuturo

Capaci e l’era delle complessità irrisolte

La Strage di Capaci, di cui ricorre il trentesimo anniversario, non ha rappresentato solo la più plastica “rappresentazione” della violenza del crimine organizzato perpetrata in un paese Occidentale, ma è stata anche l’evento che ha segnato più di ogni altro il culmine di un drammatico periodo di tempo iniziato sei mesi prima, ancora oggi di difficile interpretazione e destinato ad imprimere un radicale cambiamento all’assetto istituzionale repubblicano.

Non è facile inquadrare in una cornice omogenea il susseguirsi degli avvenimenti che, uno dopo l’altro, hanno scosso il Paese nelle fondamenta, né sarebbe corretto tracciare legami o ricomporre la complessa tela individuando a posteriori rapporti di causalità mai dimostrati. Ciò che invece può essere oggetto di discussione, è il filo comune che apparentemente accomuna gli eventi nelle loro conseguenze.

L’Italia che alla fine del 1991 si affacciava all’anno successivo in un clima di sostanziale tranquillità, pur in presenza dei grandi stravolgimenti di fine guerra fredda, lascia spazio ad un paese radicalmente diverso appena un anno dopo. Una nuova, radicale incertezza, diversa da quella degli anni di piombo e non altrettanto risolvibile, avvolge i meccanismi del sistema e insinua un radicale senso di insicurezza e sfiducia verso le istituzioni che si proietta ben al di là di mani pulite.

La strage di Capaci giunge al culmine di settimane difficili per la prima Repubblica, sulla cui mancata capacità di rinnovarsi molto si è scritto. È sbagliato tuttavia ritenere che, in assenza di una catena di eventi così distruttivi, la politica sarebbe semplicemente implosa per mancanza di alternative. Se l’Italia dei partiti ha prosperato grazie alle peculiarità del contesto geopolitico in cui era immersa, la sua stabilità non era assicurata solo da componenti esogene e le continue fratture economiche e sociali ricomposte negli anni sono qui a testimoniarlo.

A differenza del 1987, quando il Paese andò al voto con un “governo elettorale”, l’ultimo presieduto da Fanfani, nel 1992 Giulio Andreotti accompagnava con breve anticipo la fine della legislatura in un quadro di stagnazione economica e serpeggiante nervosismo, ma non ancora di instabilità politica. La lotta alla criminalità organizzata era culminata il 30 gennaio con la storica sentenza del “maxi-processo”, preceduta da un anno di eccezionale decretazione d’urgenza, che aveva portato in dote nuove leggi su pentiti, scioglimento dei comuni, confisca dei patrimoni e l’istituzione della direzione investigativa antimafia. Questa frenetica produzione normativa, i cui meriti politici appartengono oltre che a Giulio Andreotti, anche ai Ministri della Giustizia e dell’Interno Claudio Martelli ed Enzo Scotti, già due anni prima aveva reso possibile l’ordinata conclusione dello stesso “maxi-processo” con la ben nota proroga dei termini di custodia cautelare per i reati di mafia. Una misura eccezionale, introdotta retroattivamente con una scelta spiccatamente decisionista, che andava persino oltre l’approccio riservato al terrorismo un decennio prima e tale da spingersi forse al di là della stessa legittimità costituzionale.

L’assenza apparente di elementi di disturbo endogeni accompagnò la settimana successiva la firma, in piena campagna elettorale, del trattato di Maastricht avvenuta il 7 febbraio da parte del ministro degli Esteri Gianni De Michelis e del Tesoro Guido Carli. L’Italia prendeva dunque parte consapevolmente al processo di integrazione europea pur tra la contrarietà o le perplessità di alcuni storici alleati e assumeva precisi obblighi destinati ad indirizzare la politica economica e la finanza pubblica degli anni a venire.

Il ben noto arresto di Mario Chiesa invece, non produsse alcuna conseguenza di rilievo sul dibattito politico e le inchieste di Mani Pulite erano ben lontane dal riservarsi il predominio della sfera mediatica. Il vero punto di svolta che ha segnato l’avvicinamento alle urne è l’improvviso e inaspettato assassinio di Salvo Lima, avvenuto a Palermo il 17 marzo del 1992.

Già l’anno precedente l’Italia aveva conosciuto una escalation di violenza che aveva destato sorpresa e panico nell’opinione pubblica: i ventuno morti in sette mesi ad opera della banda della Uno Bianca, tra cui i tre carabinieri vittime della strage del Pilastro, trasmettevano nel Nord Italia interessato dall’ascesa della Lega Nord e alle prese con una rinnovata questione “settentrionale”, una sensazione di rinnovata precarietà, pur non paragonabile a quella degli anni di piombo. Inoltre, bizzarre rivendicazioni come quelle della Falange Armata, si accompagnavano ad altri eventi ancora oggi di difficile attribuzione: le continue incursioni notturne negli uffici di diversi esponenti politici, tra cui quelli della Commissione d’inchiesta sullo scandalo BNL-Atlanta, la strana serie di lettere e documenti apocrifi pervenuti nelle redazioni dei giornali, accompagnati dall’invio di minacce dirette a personalità di primo piano delle istituzioni, unite alle dichiarazioni del Capo della Polizia Vincenzo Parisi che per primo ravvisò, in una audizione tutt’oggi secretata in Commissione Stragi, il pericolo che qualcuno volesse fare dell’Italia una “terra di nessuno”. Episodi inquietanti che, anche oggi, analizzati singolarmente non avrebbero offerto interpretazioni unitarie al di là di una comune sensazione di impotenza e incapacità di identificare e rispondere alle minacce.

L’omicidio di Salvo Lima assunse da subito i caratteri fortemente destabilizzanti di un attacco frontale allo Stato e alla legittimità del processo di selezione democratico. La mafia per la prima volta uccise un discusso campione delle preferenze a poche settimane dal voto, ignorando i tempi della macchina del consenso tradizionalmente radicata in Sicilia. Sulle cause e le complessità insite nel delitto Lima, al netto di processi e pentiti si può ancora discutere, così come sulle conseguenze: soprattutto si può dubitare di una ricostruzione che lo vuole collegato solagli esiti del maxi-processo e al mancato intervento del politico palermitano in favore dei boss alla sbarra. Una ricostruzione quantomeno incompleta, se non a tratti surreale, considerando che Andreotti da Presidente del Consiglio uscente aveva permesso il regolare svolgimento dello stesso processo, estendendo la già ricordata durata della custodia cautelare in carcere. Come avrebbe potuto Lima interferire con la Corte di Cassazione per salvare imputati di elevatissimo spessore criminale è destinato a rimanere un mistero.

Sin dalle ore successive all’omicidio si adombrarono ipotesi sul ruolo effettivo di Cosa Nostra nel delitto, concepito e attuato con tempistiche estranee anche al terrorismo politico. Quello che è certo ad oggi è l’impatto che ebbe, insieme alla strage di Capaci, sul futuro politico del Presidente del Consiglio, un effetto ben più distruttivo degli avvisi di garanzia per concorso esterno.

Ostacolato nella difficile ascesa al Quirinale, Andreotti uscì di scena dopo l’elezione di Scalfaro con il marchio delle connivenze con la criminalità organizzata affibbiatogli dalla Procura di Palermo e, pur rimanendo indenne da Mani Pulite, fu per un decennio al centro di processi sui fatti più disparati, nessuno dei quali ne accertò la colpevolezza con una sentenza di condanna definitiva. Uscito di scena Andreotti, se non addirittura liquidato, un intero universo politico nazionale (dalla sua corrente “primavera” ad una parte degli apparati dello Stato) e internazionale (tradizionalmente filoarabo ed europeista) abbia perso rapidamente importanza e, spogliato dell’autorevolezza del suo fondatore, sia appassito nel giro di pochi mesi.

Le conseguenze distruttive dell’omicidio di Lima vennero intuite in parte dal Ministro dell’Interno Scotti, protagonista pochi giorni dopo insieme a Vincenzo Parisi dell’emanazione di una circolare su un imminente situazione di pericolo per la stabilità democratica. L’allerta segnalava alle prefetture “un imminente piano di destabilizzazione di Cosa nostra nei confronti dello Stato” e preannunciava l’omicidio o il sequestro di numerosi esponenti politici, in maggioranza della Democrazia Cristiana durante l’estate del 1992. Peculiarità dell’allarme fu l’ipotesi di un coinvolgimento esterno, anche ai confini Italiani, nelle interferenze con l’ordine pubblico, che il Sisde collegò subito al processo elettorale in corso.

La storia di quei giorni mostrò come la classe politica sminuì o ignorò il pericolo, arrivando a definire la circolare con l’eufemismo di “patacca”. Andreotti, che avrebbe potuto avvantaggiarsene nel dopo Lima, non lo fece e fu solo il Presidente del Senato Spadolini, a dare un’interpretazione politica alla minaccia, con un accorato appello all’unità delle forze politiche per salvare lo Stato in “crisi di sovranità”. Sino a che punto Palazzo Chigi fosse invece consapevole dell’accelerazione impressa da quel particolare omicidio forse non si saprà mai, il Presidente del Consiglio non reagì in alcun modo, quasi a voler certificare un’inerzia politica da eccesso di sicurezza. Al contrario, la campagna elettorale proseguì in un crescendo di tensioni e accuse incrociate sui rapporti con la criminalità organizzata, senza che né il Governo (non ancora dimissionario) né gli apparati avvertissero la necessità di prendere le contromisure richieste dal progressivo deteriorarsi dell’ordine pubblico.

Le urne del 5 e 6 aprile, pur fornendo risultati in apparenza prevedibili, erano ben lontane da rappresentare una debacle completa per i partiti tradizionali, tale da inficiare la governabilità del paese. La Democrazia Cristiana crollò sotto la soglia psicologica del 30% e il PSI subì un’erosione, il successo della Lega Nord fu sopra le aspettative mentre gli altri partiti “anti sistema” persero la consistenza elettorale che gli veniva attribuita dal circo mediatico. Il quadripartito aveva dunque la maggioranza per formare un esecutivo, anche senza i Repubblicani di La Malfa e non a torto la partita del futuro premier era considerata aperta e incasellata con quella del Quirinale.

Anche le elezioni del Presidente della Repubblica si svolsero in anticipo di qualche mese, per le celebri dimissioni annunciate in televisione da Francesco Cossiga. Quando il Parlamento si riunì in seduta comune, in Italia vigeva una sorta di “vuoto istituzionale” quasi inedito: un governo in parte delegittimato dal voto è in carica per gli affari correnti, il Quirinale infatti non ha affidato ancora l’incarico per il nuovo esecutivo, coerentemente con la volontà di Cossiga di giungere anzitempo alla scelta del suo successore, su cui sarebbe ricaduto l’onere di ricomporre la maggioranza. La strage di Capaci giunse quindi a coronamento di un lungo periodo di logoramento istituzionale, acuito nelle ultime settimane dalla contemporanea assenza delle massime cariche dello Stato, che priva l’Italia di un Governo nel pieno delle sue funzioni.

Nel mezzo delle votazioni, l’attentato al giudice Falcone colpisce i vertici dello Stato come l’assalto ad una fortezza lasciata sguarnita. Se il rapimento Moro si consuma alla viglia del dibattito sulla fiducia al quarto esecutivo guidato da Andreotti e genera immediatamente un’altissima coesione tra i partiti, Capaci giunse nel momento di massima debolezza della politica, che si trovava priva per una serie di coincidenze e scelte sbagliate degli strumenti per reagire alla minaccia stragista. La carica destabilizzante della strage sta proprio nel sottolineare il sentimento di impotenza percepito dall’opinione pubblica, mentre l’integrità dello Stato veniva violata, con estrema facilità e in modo pressoché indisturbato. L’elezione di Scalfaro al Colle, se inquadrata nell’ottica della soluzione istituzionale fotografa il primo, grande momento di smarrimento dei partiti, prodromico e non sovrapponibile all’azione di mani pulite. Le successive inchieste della Procura di Milano troveranno terreno fertile in una politica sfilacciata e disorientata che incasserà l’ennesimo colpo in pochi mesi, andando inesorabilmente a tappeto.

Per una prima ma decisiva risposta allo stragismo mafioso, bisognerà aspettare il giugno del 1992, con il governo Andreotti ancora dimissionario che emana l’ennesimo decreto legge per facilitare l’applicazione del 41bis, sino ad allora sottoposto ai rigidi limiti della Legge Gozzini.

Con l’incarico a Giuliano Amato cessa nello stesso mese il picco di instabilità protrattosi da aprile, ma non la violenza che ha insanguinato l’Italia sino al 1993.

L’omicidio di Salvo Lima e la successiva escalation di Capaci, evidenziano la grande facilità con cui organizzazioni criminali hanno interferito con i processi democratici, destabilizzando le istituzioni e contribuendo ad innescare un ricambio forzato della classe dirigente, che non è sempre sfociato nel suo miglioramento. L’eccessiva sicurezza della politica, figlia di uno scenario geopolitico ormai mutato, ha giocato un ruolo decisivo nella mancata adozione di quelle cautele che avrebbero potuto invertire il corso degli eventi. Gli apparati di sicurezza, memori dell’esperienza degli anni di piombo, erano perfettamente in grado di fronteggiare minacce “ibride” e non ebbero difficoltà a circoscrivere il pericolo incombente.

L’attualità di Capaci e dei primi sei mesi del 1992 evidenzia come, trent’anni dopo, l’eccessivo immobilismo, unito alla “presunzione” sull’immutabilità dei ruoli, possano rivelarsi deleteri contro minacce dinamiche come quella di una criminalità organizzata “multiforme”. Interpretare le complessità di un periodo storico così intenso e drammatico può portare facilmente ad elaborare congetture di vario genere, ma queste riguarderanno inesorabilmente tragici eventi già accaduti. Al contrario, la salus rei publicae si realizza solo nella consapevolezza delle capacità dello Stato e della sua classe dirigente di identificare per tempo le azioni asimmetriche, siano esse indipendenti tra loro o parte della stessa trama, offrendo soluzioni in grado prevenire e neutralizzare i pericoli che minacciano le istituzioni democratiche.

*Giovanni Maria Chessa, Comitato scientifico Fondazione Farefuturo