La seconda laurea e l’insegnamento (da trarne)

lettere-e-filosofia.jpg

Il 18 maggio ho conseguito la mia seconda laurea, in Scienze dell’informazione, della comunicazione e dell’editoria all’Università degli Studi di Tor Vergata. Ok, c’era già quella di ingegnere informatico ma questa è stata la laurea che ho sentito più mia: quella “vera”, se così si può dire. In questo percorso ho trovato un felice connubio sia professionale, su tematiche che seguo da alcuni anni – sociologia della comunicazione, ma anche la mia antica passione: psicologia – sia soprattutto umano, incontrando persone straordinarie. Devo gratitudine a chi ha avuto la pazienza di seguirmi con puntuali consigli e necessaria strutturazione delle mie (tante, troppe) idee, in un lavoro che ha poi portato alla stesura di una tesi originale, del cui oggetto di ricerca, i «cluster digitali» scriverò – auspicabilmente presto – in un articolo a parte. È stata insomma una bellissima esperienza, faticosa e arricchente, che probabilmente proseguirà (nell’ambito dell’insegnamento, da cui il titolo).

Perché ne parlo qui? Per un paio di motivi. Il primo è tenere traccia sul blog di un evento per me importante. Dal primo post sono passati esattamente quindici anni (era il 2002) e già nei primi dieci di cose ne erano successe: ogni tanto mi capita di rileggere cos’è cambiato intorno a me, e anche come sono cambiato io, e il blog a mio avviso rimane ancora il posto migliore per fermare qualche esperienza e concetto.

Il secondo motivo è mettere a fuoco qualche elemento che ho tratto da questo percorso di studi. I temi di fondo che ho riscontrato sono sostanzialmente tre:

1 – Cambiare quando non va. Dopo la felice esperienza nella Nice (dal 1998 al 2004), dove avevo portato le mie esperienze e competenze degli inizi, mi sono trovato a lavorare per alcuni anni in Telecom Italia, e successivamente in una società di consulenza e system integration, e come programmatore in un team romano tra i più validi e produttivi che abbia incontrato. Eppure… è stato proprio in quell’occasione che ho avuto la crisi più dura: alla fine del 2010 mi sono reso conto che la programmazione, e in parte anche il Web development non erano più la mia strada. Non era solo un problema cognitivo (i dolori di stomaco mi affligevano da ormai un paio di anni) ma ero cambiato io, e dagli anni dell’esordio editoriale a quelli dell’ingegneria del software i miei interessi si erano spostati sempre di più su altre tematiche. Usavo ancora gli strumenti “del mestiere” come Eclipse, configurandolo alla perfezione per il Php e il versioning SVN, ma l’esperienza diventava sempre più terribile.
Nel 2011 ho quindi preso un anno sabbatico e ho cercato di capire cosa non andasse in me: avevo una laurea in quel ramo ed ero programmatore da anni, quindi era molto difficile riconfigurare (per usare un termine congeniale) un percorso professionale avviato, anche se in crisi. Ricordo come quel periodo fosse orribile.
Rileggendo quell’esperienza posso dire invece che è stata la fase più utile. Dovevo staccarmi da un mondo che non era più il mio, per capire che il mio mondo era un altro. Verso la fine di quello stesso anno capitò un evento di quelli che ti cambiano la vita: Giovanna Abbiati, con cui poi avrei fatto cose belle e importanti, mi chiamò per chiedermi se ero disponibile a insegnare nel nascente Master in Comunicazione e New Media all’Ateneo Regina Apostolorum. Avevo già tenuto dei corsi di programmazione, ma in strutture piccole e con poche persone. Si presentava un’occasione per un salto qualitativo e per mettermi davvero alla prova. Risposi di sì, con qualche timore ma anche molta motivazione. Proprio nell’Ateneo ho scoperto quella che, con un po’ di prosopopea, ho chiamato la mia “vocazione all’insegnamento”, ed è stato davvero una rivoluzione, anzi l’inizio del cambiamento. Negli anni successivi ho realizzato un percorso formativo sui temi dei social media, che come early adopter conoscevo bene, insieme alle competenze digitali che come tecnico portavo in dote, riuscendo a coprire i molti argomenti nel numero prefissato di ore (sforando un po’…). In quel periodo ho scoperto che trasferire le mie competenze era sì faticosissimo ma anche bellissimo, e che insegnare è un’avventura che ti impegna a capirne di più, a informarti di più, a saper ascoltare di più e ad imparare, molto, dagli studenti e dai colleghi. È stato un salto che ha poi portato alla riconfigurazione (arieccola) del mio percorso professionale: perché a quel punto avevo capito che il rapporto con l’informatica e la telematica era cambiato e che quello che avevo studiato e imparato lo dovevo riorganizzare per poterlo trasferire ad altri, che l’avrebbero usato in modi diversi e nuovi. Da quell’esperienza peraltro è nata anche quella grande iniziativa che è stato il TEDxViadellaConciliazione, nel 2013, di cui proprio in questi giorni si riparla per l’intervento che Papa Francesco, che allora era stato appena eletto, ha tenuto al TED di Vancouver ad aprile di quest’anno. E molte altre cose che alla fine hanno consentito di capire che l’ambiente dell’insegnamento poteva essere una strada mia.

2 – La formazione continua (soprattutto in tempi di analfabetismi). Quando si esercita una professione come l’ingegnere, o il medico, o l’architetto, ci si dovrebbe tenere continuamente aggiornati. In realtà nell’informatica è palese, ma nella mia esperienza la stessa cosa vale per quasi tutte le professioni qualificate. È un problema molto sentito, perché non sempre è possibile frequentare corsi (se non ci pensa l’azienda presso cui si lavora, bisogna provvedere da soli, per non parlare del giusto tempo da dedicarci, gli argomenti da scegliere, ecc.), e i temi tecnologici – come detto – sono fortemente “sotto pressione”. Non ho usato il termine pressione a caso: talvolta parlo con amici che svolgono professioni in ambiti molto diversi, come ad esempio psicologi e psicoterapeuti, ma anche teologi, e anche in questi campi l’aggiornamento è divenuto imprescindibile. Per rimanere nell’esempio, solo in psicologia negli ultimi vent’anni è cambiato quasi tutto: molti dei modelli che fino agli anni Novanta andavano bene, oggi sono sottoposti a profondi processi di revisione. Questo accade grazie alle nuove scoperte nel campo delle neuroscienze e della psicoterapia. Tuttavia, è chiaro che chi ha studiato in quegli anni, oggi si trova a dover affrontare un percorso di riqualificazione complesso e a volte neanche ben chiaro (ci sono decine di modelli e scuole diverse…). Lo stesso discorso si può estendere, come si diceva, ad altre professioni. Ora immaginate cosa voglia dire quando bisogna insegnare qualcosa, in uno o, come nel mio caso, in più campi disciplinari contigui: l’aggiornamento formativo non deve solo essere continuo ma il più possibile diversificato e approfondito. Così ho capito che se volevo essere un insegnante valido dovevo colmare alcuni gap che nel tempo si erano evidenziati, nell’ambito delle scienze umane. Come ingegnere e come esperto del Web ero coperto dal lato tecnico, e con la rivista avevo approfondito alcune tematiche sulla comunicazione e sull’editoria, ma approfondire in modo più strutturato queste tematiche era diventato improcrastinabile. Ecco allora che nel 2014 è maturata la scelta di intraprendere un percorso di studio nuovo, che mi ha portato poi a conoscere la realtà di Tor Vergata, dopo aver selezionato l’offerta delle due altre università pubbliche romane, come la più confacente a quello che stavo cercando. Lì ho trovato persone straordinare, a partire dalla mia tutor che ha ritagliato “su misura” un piano di studi poi rivelatosi ottimale, alla mia relatrice che ha affrontato e strutturato il tema della mia ricerca nel momento stesso in cui lo stavo chiarendo a me stesso.
Da questo percorso di formazione impegnativo ho tratto almeno due lezioni importanti: senza una cultura a largo spettro, che unisca sia il lato più tecnico (nel mio caso le scienze dure) che quello umanistico, non è pensabile essere un buon formatore. Tra l’altro, ho verificato anche quanto sia importante il processo di approfondimento culturale proprio per poter leggere la complessa realtà che ci circonda. Purtroppo, approfondendo le mie ricerche – anche per la stesura del lavoro finale – mi sono reso conto di come il nostro Paese, da questo punto di vista, sia molto molto indietro. Non mi dilungo negli esempi – neanche credo ci sia bisogno di farne: ma tra analfabetismi digitali, “funzionali” (che sono però sempre da definire nello specifico) e di ritorno (quando si smette di studiare e si iniziano a perdere quelle conoscenze e competenze che si erano acquisite con gli studi), la situazione è drammatica, e c’è molto lavoro da fare.

3 – Le dinamiche dei social network. Si potrebbe cominciare col “fanatismo che corre sulla rete”, e credo sia esperienza di tutti averlo incontrato in qualche discussione online. Tuttavia la situazione oggi si è molto complicata. Proprio sulle dinamiche distorsive dei processi digitali, evidenziate dai social network, si è concentrata la mia ricerca negli ultimi anni. Ci sono fanatismi religiosi, storici, c’è un fanatismo politico, sociale, in generale una narrazione ideologica che vive di pseudo-verità fin da tempi non sospetti, come si suol dire. Ma è soltanto quando queste ideologie si saldano con le dinamiche dei social network che il discorso cambia completamente: le narrazioni distorsive si amplificano e si rinforzano in modalità che fanno fare il salto di qualità a quello che prima era confinato a un ristretto novero di persone – vuoi perché poco informate, vuoi perché poco propense ad allargare i propri punti di vista. Da qualche anno (generalmente si situa dal 2009-2010, quando la diffusione dei social media è divenuta pervasiva) centinaia di migliaia – e  milioni – di persone si trovano a condividere narrazioni comuni in un modello di diffusione nel quale gli algoritmi hanno una parte preponderante. Pensando di favorire i gusti degli utenti, infatti, i vari filtraggi effettuati dalle piattaforme fanno vedere quello che è ritenuto gradito all’utente ─ spesso non sbagliando. L’effetto è una sorta di loop: le persone effettuano delle scelte, selezionano per prime fonti e contenuti alla ricerca di temi specifici che confermino credenze e preconcetti (inclusi bias e quant’altro), e gli algoritmi iniziano a filtrare i contenuti presentando sempre di più quel tipo di contenuti. A partire dalla filter-bubble, individuata nel 2011 da Eli Pariser partendo dalla personalizzazione dei risultati di ricerca di Google, ci si è accorti che il fenomeno distorsivo è diventato talmente ampio da produrre un effetto ancora più allarmante: il modello conversazionale si sta deteriorando in modo così rapido, rendendo le persone meno abili al confronto e al dialogo ma anzi più chiuse e refrattarie, che non si parla più di “bolle digitali” ma di vere e proprie «celle blindate» (Luciano Floridi). È un processo noto specialmente agli addetti ai lavori, ma che nel 2016 è salito alla ribalta per le elezioni di Donald Trump negli USA, e per il termine fake news usato un po’ come il prezzemolo. Il problema della disinformazione e delle false notizie è stato messo a fuoco in particolare da un paio di grandi ricerche uscite negli ultimi mesi (soprattutto Anatomy of news consumption, pubblicato su Pnas a inizio 2017), che mostrano come conseguenza primaria del processo distorsivo l’estrema polarizzazione su temi specifici. Proseguendo nelle ricerche ho osservato qualcosa che rende il modello stesso fortemente aggregativo, innescando un disancoraggio tra esperienza e realtà (dove il racconto e la narrazione sono gli elementi comuni) che produce effetti evidenti: le elezioni politiche sono un esempio, ma i prodromi sono visibili già prima in molti luoghi della rete.

Queste tre tematiche hanno reso un percorso di studio e formazione ora più “chiaro”, potendo approfondire in modo appropriato gli ambiti di comunicazione, sociologia, psicologia e storia. Quando si insegna, bisogna prima di tutto imparare: è una banalità se vogliamo, ma si può declinare in vari modi. Ho imparato (e sto continuando a imparare) a ragionare, ad esempio, in modo scientifico, che non è una cosa né facile né scontata. Uno storico può distorcere la verità se rinuncia ad approfondire i fatti per “far tornare i conti”. Così quando si scrive qualcosa di scientifico – o comunque con un certo livello di rigore – bisogna abituarsi a dimostrare tutto quello che si sostiene, a collegare i fatti e le idee, e anche a metterle e mettersi in dubbio, se necessario.
Oggi è questo forse uno dei punti nodale di molte criticità interpretative: in un contesto informativo tanto ricco, distinguere le cose con il dovuto tempo e livello di approfondimento è una sfida per tutti: c’è un processo entimematico (di verosimiglianza) a cui l’utente è continuamente sottoposto, che richiede un lavoro di affinamento e selezione che implica a sua volta una capacità critica che perfino per gli “esperti”, a volte, non è scontata né immediata; è un mix di intuito e capacità ed è complicato, realisticamente, per la gran parte delle persone riuscire a capire dove si fermano le opinioni o le fake news (spesso disseminate a bella posta) e dove comincia il «fatto nudo» che comunque, come diceva già Kelly nel 1955, non esiste. Potrei anche citare il famoso effetto Rashomon, per cui ad esempio quattro osservatori diretti di un fatto riportano quattro versioni diverse dello stesso: è un discorso complesso che vale la pena di affrontare. Il rischio, già in parte realtà, è di affidarsi ad enti terzi (dalle piattaforme digitali alle istituzioni) per decidere cosa leggere, vedere, cercare – in un processo di selezione che inevitabilmente non è trasparente, non può mostrare gli “unknown unknowns“, ovvero le cose che non stiamo vedendo (concetto reso famoso da Donald Rumsfeld nel 2002).

Dunque, inizia una nuova sfida. Che partirà dal rimettere le mani sul lavoro fatto, intanto, per le necessarie correzioni e migliorie in modo da poterlo eventualmente diffondere con contezza. E poi pensando a un programma formativo, quando sarà il momento, sui temi suddetti. Sarà un impegno non banale, ma collaborare con persone con cui c’è una bella sintonia e uno scambio proficuo di stimoli e idee è una combinazione che mi attira e molto rara, nella mia esperienza.. Durante questi mesi non soltanto ho lavorato molto a migliorare le capacità di selezionare, collegare le cose, scriverle in modo corretto (soprattutto meno narrativamente) ma ho dovuto inventare, diciamo così, un metodo per raggiungere gli obiettivi che mi ero prefissato, e applicarlo: in altre parole, imparare a motivarmi da solo per portare a termine il progetto, però non “da solo”, ma anche grazie al prezioso e paziente aiuto delle persone che ho avuto la fortuna di incontrare sul cammino.

Insomma, pensavo di essermi fermato, e si sono accumulate invece tantissime cose da fare. Nel corso di self-management all’Ateneo forse mi servirà qualche consiglio 🙂

The best is yet to come

lettere-e-filosofia.jpg
On May I obtained my 2nd degree in Information Sciences, Communication and Publishing at the University of Rome Tor Vergata. There was the Computer science engineering degree, but this was the “mine” one. In this journey I found a really good and professional path on issues I’ve been following for years – Sociology of communication, but also my old passion: Psychology – and specially a great human experience, meeting extraordinary people. I’m thankful to those who had the patience to follow me with timely advices and the necessary structuring of my (so many, too many) ideas. This good mix has led to the drafting of an original work whose research object, the «Digital clusters», will write about (hopefully soon) in a separate article. It has been so an awesome experience, that probably will continue in a teaching program in this university: that’s really a great news.

Why I’m talking here about it? For a couple of reasons. The first one is to keep track in the blog, about such an important event for me. From the first post it’s exactly fifteen years (it was 2002 when I started): now and then I read what has changed around me, and how “I am changed”; the blog – in my opinion – remains the best place to fix some experiences and concepts along the path.

The second reason is to focus some of the elements from this particular experience of study. I basically found three underlying themes:

1 – Change when things don’t go. After the happy experience in Nice (from 1998 to 2004), where I brought my early experiences and skills, I worked for a few years in Telecom Italia (italian main telco company), and later in a consulting and system integration company, then as a programmer in one of the most valued and productive teams I worked with in the Rome area. And yet… in that time I had the toughest crisis: at the end of 2010 I realized that Programming and Web development was no longer my way…
It was not only a cognitive problem (the stomach pains was afflicting me from a couple of years) but the fact that I was changed. From the early years of editorial debut to the period of software engineering, my interests shifted more and more to other topics. I still used the typical technical tools like Eclipse, configuring perfectly for PHP and SVN versioning, but things were getting worse every day.
So. In 2011 I decided to take a sabbatical year, trying to figure out what was wrong with me. I had a degree in the computer science field, worked as programmer, and it was very difficult to reconfigure (to use a congruent term) a professional career – although in a state of crisis. I remember how that time was horrible.
By re-reading that experience, I can say it was the more useful phase. I had to get away from a world that was no longer my own, to understand that my world was another. In the end of that year there was an event – those who change your life: Giovanna Abbiati (with whom I would later do big important things) called at my phone: she asked me if I was available to teach in the upcoming «Master in Communication and New Media» at the Athenaeum Regina Apostolorum. I already did some courses on Programming topics, but in small ambits and with few people. This was an opportunity for a “quantum leap” and to really test myself. I answered yes, with fear but also great motivation. In that ambit I discovered what I call a sort of “teaching vocation”. It was really a revolution: indeed the beginning of change. In the next years I realized a training course on Social media issues, that I knew very well as early adopter, along with the digital skills known as a technician, bringing in dowry and covering many topics in the set number of hours (pushing a little bit).
I found that the process of transferring my experience and skills to others was fatiguing but at the same time beautiful: teaching is an adventure that makes you understand more, tell you more, requires you to learn more and learn a lot from the students and colleagues. It was a leap that led to the reconfiguration of my professional career. At that time I realized that the relationship with computer science was changed: what I studied and learned needed to be reorganized to be transferred to others who would use all in different and new ways. From that experience, for example, took place the great initiative of the TEDxViadellaConciliazione in 2013, which in these days has been resurfaced for the intervention of Pope Francis  – who in that year was just elected – to TED Vancouver (here is the video speech).

2 – Need for continuing education (especially in those times of illiteracy). When you practice a profession like engineer, or doctor, or architect, you should always keep up to date. What in ITC is obvious (technology runs in our lives), in my experience can apply to (almost) all the qualified professions. On the other side this is a very common problem, because not always is easy to attend courses (if undone by the working company, you have to pay courses by yourself, not to mention time to dedicate, topics to choose, etc.). Technological issues – as said – are strongly “under pressure” in the professions but not only there. I haven’t use the term “pressure” randomly: sometimes talking to friends working in different areas, such as psychologists and psychotherapists, or theologians, even in these fields a continuous update path has become indispensable. To remain in the example, only in the field of Psychology in the last twenty years has changed almost everything! Many of the models considered good up to the nineties, are in an undergoing deep review process – due to new findings in neuroscience and psychotherapy, and so on. It’s clear that those who studied in those years ’80-’90 are faced with a complex (and sometimes unqualified) recalculation path in their life – without mention the dozens of different models and schools. The same concept can be extended to other professions.
Now, imagine what’s like when you needs to teach, in one, or – as my case – in contiguous disciplines and fields: professional updating should be continuous and as much diversified as possible. I realized this lesson: if I wanted to be a “good teacher” I had to fill several gaps in human sciences. As engineer I was covered by the technical side, and with the magazine experience I dealt with issues about communication and publishing. But, the more I deepened these issues, the more I realized I needed an upgrade, not only based on personal readings. In late 2014 I decided to start a new study, which led me to choose the Tor Vergata Philosophy and Literature university ─ after selecting the two other public Rome’s universities ─ as the most appropriate to what I was looking for.
It was the right choice: there I found very special people, starting with my tutor who cut out a “tailor-made” plan of studies for me, revealing optimal, and my supervisor, who dealt with me structuring my research at the moment I was still clearing it to myself!
From this adventure I took at least two important lessons: without a broad-spectrum culture, which joins both technical side (in my case the hard sciences) and human one, you can’t be a good teacher, nor a choice or a trainer. Among other things, I’ve observed how important can be the process of cultural deepening to read the complex reality that surrounds us – in terms of politics, narration, psychology, and all data about social networks. I found that the so-called “digital illiteracy” (which needs, however, always a specification) and cultural illiteracy in general are creating a situation that is, in most cases, dramatic, and not only in less-developed nations nor in western ones. There is a lot, lot to do.

3 – The Dynamics of Social networks. I could start with the “fanaticism runs over the net” – I think it’s an experience everyone has met in online discussion. However, today’s situation has become very complicated. Precisely on recent years, my research has focused on the distorting dynamics of digital processes, highlighted by social networks. There is religious and historical fanaticism, political fanaticism, social, and in general, an ideological narrative that lives in pseudo-truth, from several decades. But it’s only when these ideologies meet the social networks’ dynamics that the structure changes and grows dramatically: the distorting narratives are amplified and reinforced in ways that make the leap enormously extended to amounts of people previously confined to small communities – for example misinformed, or not wanting to broaden their viewpoints. Small groups of persons sharing an even wrong point of view, in little places, isn’t alarming but simply natural.
But. For a few years now (generally dating from 2009-2010, the spreading era of Social media) hundreds of thousands – and millions – of individuals share common narratives in a diffusive model in thousands of online groups and social pages, where algorithms have a preponderant part. Algorithms try to comprehend users’ preferences, and the filtering models act by showing what is considered “liked” by the user – often not wrong. The effect is a kind of loop: people make choices, and select first sources and content to search for specific topics, that confirm beliefs and preconceptions (including cognitive bias and so on), algorithms begin to filter content by presenting more and more of that kind of content.
Starting with the “filter-bubble”, identified in 2011 by Eli Pariser, from the customization of Google’s search results, it has been clear that the distortion phenomenon became so large that it produces an even more alarming effect: the conversational model is deteriorating, in such a quick way that’s making people less able to confront and dialogue, but rather more closed and refractory. We’re no more talking about “digital bubbles” as in the past, but as “armored cells” (Luciano Floridi). This is a process especially known to communication experts, but it went up to forefront in Donald Trump’s US elections, as for the term “fake news” used sparsely. The problem of misinformation and false news has been focused in a couple of huge researches released in recent months (mainly the Anatomy of news consumption on Facebook, published on PNAS at the beginning of 2017), showing as the primary consequence of the distortion process the extreme polarization on specific topics. Continuing in this research field, I observed something else, that makes this model very aggregative, triggering a disagreement between experience and reality (where narrative and narration are common elements) that produces glaring effects: elections are the more noticeable example, but prodromes are visible already in many places of the social networks.

These three themes have made more “clear” my study path, by properly deepening the fields of communication, sociology, psychology and history. When you teach, you must first learn: it’s trivial, but you can decline it in a variety of ways. As an example, I learned (and I’m still learning) to think in a scientific way, that it is neither easy nor obvious. An historian can distort the truth, if he renounces to deepen the facts to “make right the counts”. So, when writing scientific papers – or at least in a certain level of rigor – you’ve to get used to demonstrate everything you claim, link to the facts and to arguments, debates and ideas, and even to put them into question, if necessary.

Today, this is perhaps one of the crucial points of many interpretative criticisms: in such a rich contextual information, to distinguish things with the due time and level of deepening is a challenge for everyone: there is an right-false process (of probability) where the user is constantly subjected to a “fatigue of refinement and selection”; it’s difficult even for the “experts”. It’s a mix of intuition and ability and is complicated, realistically, for most people to understand where the opinions or fake news (often spread in beautiful mail) stop, and where the “nude fact” begins. I could also quote the Rashomon effect, where four direct observers of a fact report four different versions of it.
The risk is to rely on third part institutions (from digital platforms to government sources) to decide what to read, see, and search – in a selection process that inevitably can’t be transparent, cannot show the “unknown unknowns”: the things we’re not seeing (concept made famous by Donald Rumsfeld in 2002).

So a new challenge begins. That will start from putting hands on the work done, for the necessary corrections and improvements so that the book can spread with a better certainty. Afterwards, thinking about a training program on the above topics. It will be a challenging commitment, but working with people with whom there is a beautiful feeling and a profitable ideas combination, is very rare in my experience. During these months I’ve worked not only improving the ability to select, connect things, and write them correctly (especially less narratively), but I had to “invent” a method to achieve the goals I set out, and apply them! To complete the project alone, but not “alone”, thanks to the precious and patient help of the people I’ve been lucky to meet on the road.

In short: I thought I would stop, and instead there’re so many things to do now. In the Self-management course at my Athaeneum I will need some advice, probably. 🙂

Qualcosa sull’automobile: dal diesel alle alternative a idrogeno ed elettrico

Alcune mie considerazioni sull’argomento diesel (e dieselgate), e le alternative elettriche, ibride e ad idrogeno. 

winterkorn.jpg
(foto: l’algido ed inetto – dal punto di vista comunicativo – ex ad di Volkswagen M. Winterkorn)

Premessa

I diesel hanno fatto passi da gigante negli ultimi dieci anni, soprattutto dalla direttiva euro4 in poi.

Basta vedere per strada una Ford Focus Tdci, o una Mercedes Cdi, o ancora una Bravo Jtd dei primi anni 2000, per citare solo alcuni dei modelli più diffusi di turbodiesel ante-euro4: spesso fanno fumo nero dallo scarico, in determinate occasioni come le accelerazioni o le decelerazioni. E poi osservare un diesel di ultima generazione – euro5, che circolano dal 2009, se non si vuole prendere un euro6: nessuna sbuffata nera, ma soprattutto, rispetto ad un’euro3 l’abbattimento delle emissioni inquinanti è superiore all’80%: un abisso. La differenza è ancora più evidente nei piccoli centri, dove non c’è stato, come ad esempio a Roma (quando era sindaco Veltroni) il divieto di circolare introdotto per le auto più inquinanti. A volte quando vado nei paesi e nelle città più piccole, mi stupisco di come lascino ancora girare diesel che inquinano più di 10 furgoncini ante euro!  Per non parlare dei pullman, ma qui andiamo fuori tema..

I motori diesel – per costituzione – sono ben più efficienti dei motori a benzina (è il motivo per cui, tra l’altro, consumano meno dei benzina): i turbodiesel di ultima generazione o comunque ben progettati possono arrivare ad un rendimento fino al 37-38%, mentre i migliori motori a benzina non superano il 26-27%. Il rendimento è la quantità di energia fornita dal carburante che è convertita in moto effettivo: il resto si trasforma in calore (attriti, sprechi, ecc.). Quindi: in un motore a benzina, 3/4 dell’energia finisce in calore (parte del quale va peraltro smaltito per non bloccare il motore stesso, attraverso il raffreddamento, che richiede energia) e solo il restante quarto è quello che viene effettivamente usato per muovere l’auto.

Gli inquinanti

Il problema è che il diesel inquina intrinsecamente di più rispetto ai motori a benzina, prima col famigerato particolato, che può essere di dimensioni piccole (PM10, il nerofumo), ma anche piccolissime (il temibile PM2,5 – particolato fine con diametro inferiore a 2,5 µm, un quarto di centesimo di millimetro, o il PM1, con diametro inferiore a 1 µm) le più insidiose per i polmoni. Poi c’è il problema degli Ossidi di azoto (NOx),  principale motivo dello scandalo “dieselgate Volkswagen” di questi giorni.

Per ossidi di azoto si intende generalmente l’insieme di ossido e biossido di azoto anche se in realtà costituiscono una miscela più complessa, vedi in tabella 1.

(fonte Ministero dell’Ambiente)

Tabella 1 – Costituenti gli ossidi di azoto

Composto Formula
Ossido di diazoto N2O
Ossido di azoto N2O
Triossido di diazoto (Anidride nitrosa) N2O3
Biossido di azoto NO2
Tetrossido di diazoto N2O4
Pentossido di diazoto (Anidride nitrica) N2O5

Il monossido di azoto si forma in qualsiasi combustione ad elevata temperatura, insieme ad una piccola percentuale di biossido (circa il 5% del totale).

Le più grandi quantità di ossidi di azoto vengono emesse da processi di combustione civili ed industriali e dai trasporti autoveicolari (l’ossido rappresenta il 95% del totale) anche se ne esiste una quantità di origine naturale (fulmini, incendi, eruzioni vulcaniche ed azione di alcuni batteri presenti nel suolo).

Rimanendo all’auto, gli NOx vengono in realtà emessi da tutti i motori a combustione interna, ma in particolare la loro emissione è critica nei motori diesel perché per il loro funzionamento con miscela magra questi ossidi non posso essere abbattuti con il normale catalizzatore ma richiedono un apparato specifico (ad oggi di due tipi: ad accumulo, più economico, che va pulito di frequente, e “SCR”, più efficiente ma più costoso e complesso, che comporta un sistema di iniezione a monte del catalizzatore e di un additivo a base di urea, ad es. AdBlue)

Problema. Le limitazioni NOx sono molto più severe negli USA: i limiti lì sono del 50% più bassi rispetto a quelli europei (e già da noi sono abbastanza gravosi). Senza entrare troppo nel merito della questione, la sostanza del discorso è questa: per rendere i motori diesel “estremamente puliti” serve così tanta complicazione costruttiva che quasi diventa un arte da orologiaio rimanere dentro le specifiche di inquinamento imposte dai singoli stati. Basta un niente per starne fuori.
La cosa è resa più complessa dal fatto, concomitante, che i diesel degli ultimi anni hanno fatto passi da gigante anche a livello di potenza: un 2.0 turbodiesel di 15 anni fa arrivava si e no a 115 cavalli stiratissimi e fumanti mentre oggi veleggia intorno ai 150-180 cavalli senza uno sbuffo e con un consumo reale tra i 14 e i 18 km/l. Impensabile fino a pochi anni fa. Ma insieme a tanta potenza e tanta efficienza c’è, appunto, un’estrema complicazione; e le emissioni allo scarico sono diventate parte del problema. Allora forse in qualche passaggio qualcuno ha pensato di fare il furbo per non rischiare di mandare in fumo (…) il lavoro di ricerca fatto in tanti anni, e ha sbagliato. Lo scandalo di Volkswagen è partito da lì, e riguarda principalmente il motore 2.0 TDI, codice EA189, (anche 1.6) estremamente diffuso sui modelli della marca dal 2008 al 2013.

I consumi

Il problema, poi, è che i consumi dichiarati nei cicli di omologazione sono inferiori ai consumi reali: basta leggere qualsiasi prova su strada di Quattroruote per vederlo ma anche chi guida tutti i giorni la propria auto se ne rende conto. Questo perché il ciclo di consumo in omologazione è un ciclo blando, fatto sui rulli, con un modello base, con ruote di larghezza minima consentita, clima spento, servizi spenti, ecc. Un ciclo di consumo in condizioni d’uso reali con giro su strada darebbe (e dà, infatti), risultati molto differenti. Basterebbe già solamente che non fosse fatto sui rulli ma in condizioni reali di utilizzo. E infatti dal 2016 nell’Unione europea cambieranno i cicli di omologazione che includono sia gli inquinanti sia i consumi, con dei test diversi dagli attuali, mantenendo la standardizzazione necessaria.

Fino a qui abbiamo parlato dei “classici” motori a combustione interna. Abbiamo visto pregi e difetti dei diesel, cercando di evidenziare che comunque il progresso tecnico di questi anni è stato talmente grande da ridurre enormemente sia gli inquinanti sia i consumi medi, aumentando contemporaneamente le prestazioni. Anche i motori a benzina hanno beneficiato di progressi simili, con l’adozione dei piccoli turbo che consentono di diminuire la cilindrata (il famoso downsizing) e quindi avere minori consumi e di aumentare le prestazioni dei motori, soprattutto ai bassi regimi, con un buon valore di coppia, che sono le cose più importanti nella guida di tutti i giorni.

Vediamo le alternative.

 

A – Le Elettriche

Il diesel è un motore efficiente, ma come abbiamo visto, intrinsecamente molto inquinante. Il benzina lo è meno, ma comunque inquina.

Tuttavia, sostituire tout court, come alcuni sostengono, i motori attuali con motori elettrici, è velleitario. Per diversi motivi:

1)      La distribuzione. Non ci sono le strutture per la ricarica diffuse come per i carburanti. Con un programma pluriennale e standardizzato a livello sovrannazionale, potrebbe essere possibile convertire ed usare parte della rete elettrica esistente per creare delle colonnine di ricarica diffuse. Ma comunque ci vogliono anni. E non è neanche pensabile di usare il contatore domestico per caricare tutte le notti la propria auto. Non è un cellulare, e la bolletta ne risentirebbe. Ci sono dei contratti specifici che si possono stabilire con Enel per montare prese speciali ad alto amperaggio, e allora il discorso cambia, ma i costi sono ancora alti (potrebbe convenire, invece, a chi ha impianti fotovoltaici in casa che producono elettricità in sovrappiù).

2)      Scarsa autonomia. Attualmente l’autonomia media di un auto elettrica è di circa 200-250 chilometri nella migliore delle ipotesi e con una guida economica. Troppo poco per stare tranquilli: e infatti anche la più avanzata delle auto elettriche attualmente vendute, la BMW i3, ha come optional il range extender ovvero un piccolo motore tricilindrico a benzina che si attiva nel caso serva ricaricare la batteria.

3)      Sono più costose. Paradossalmente proprio l’ottimizzazione e l’efficienza raggiunta dalle auto “normali” le rende acquistabili a prezzi concorrenziali. Un’auto elettrica pura come la suddetta BMW i3 può arrivare a costare il doppio o addirittura il triplo di un’auto di classe media paragonabile. Di fatto, in mancanza di robusti incentivi statali, non è economicamente conveniente (ovvero, non raggiunge il punto di pareggio con le altre auto) l’elettrica rispetto alle altre pari di gamma. Il caso di riferimento in tal senso è quello di Renault, che da qualche anno ha sviluppato una gamma di auto elettriche pure (alcune partendo da un foglio bianco come la Zoe, ad esempio) che, però, non ha riscontrato i risultati di vendita sperati.

4)      Inquinano meno? Loro sì, ma la produzione di energia per ricaricare le batterie proviene ancora in maggioranza da carburanti fossili e da centrali nucleari, che sono entrambi tra i peggiori e più inquinanti metodi attualmente in uso per produrre energia. Il che rende il conto in perdita. Cioè alla fine della fiera non è che usando elettricità per ricaricare la tua auto invece di un pieno di benzina, hai aiutato molto l’ambiente, perché quelle energie vengono prodotte in modo identicamente inquinante. Lo hai aiutato, un pochino, perché inquini meno tu allo scarico. (ma se vicino a te c’è un simpatico signore con un’Alfa 1.9 turbodiesel e centralina modificata che quando parte crea una nuvola nera, ti ci vorranno dieci anni di guida ibrida per riequilibrare il conto..)

A parte le battute… Le elettriche sono sicuramente nel futuro dell’automobile, ma non col sistema di produzione dell’energia che c’è oggi.

La soluzione è far generare l’energia elettrica da fonti rinnovabili: energia solare, in primis (ad esempio con distributori di energia elettrica a pannellamento fotovoltaico sul tetto o nelle vicinanze, oppure da parchi eolici). Solo a quel punto l’intero ciclo è realmente pulito e non ci si prende in giro facendo finta di rispettare l’ambiente.

B – Le Ibride

Ibrido significa che nella stessa auto convivono un motore elettrico ed uno a combustione interna: in generale è quest’ultimo a spostare la macchina nella maggior parte delle volte in cui è richiesta maggiore potenza, mentre nelle partenze cittadine il modulo elettrico può risultare sufficiente. Ma tale soluzione, che sembra efficiente, in realtà non lo è molto: il peso aumenta, e la complicazione costruttiva anche. Ci sono meno inquinanti in giro sicuramente (perché, a parte il motore elettrico, il motore delle ibride è in genere a benzina), ma è una soluzione “ibrida”, appunto, cioè non risolutiva: il solo motore elettrico non può sostenere l’eterogeneità di situazioni nelle quali si trova a doversi muovere il veicolo, e quindi viene “aiutato”, e ci sono due motori invece che uno, con tutti i problemi anche di manutenzione che ciò comporta. Il meccanico di fiducia probabilmente non potrà metterci le mani (anche per il rischio dovuto al più alto voltaggio).

Questa tipologia di auto è adatta a particolari categorie di utenti, ad esempio chi fa primariamente percorsi cittadini (non è un caso che sia molto diffusa tra i tassisti), mentre non lo è per chi la usa solo in autostrada o percorsi extraurbani, dove funzionerebbe prevalentemente, il motore termico.

Inoltre, anche le ibride hanno il problema – sebbene minore – di un costo più alto di acquisto. Dove le ibride sono veramente diffuse (cioè con percentuali di vendita sopra il 15% del totale) è in alcuni paesi del Nord Europa (ad es. la Norvegia) dove gli incentivi statali sono sostanziosi e rendono il prezzo d’acquisto sostanzialmente identico alle equivalenti a benzina o diesel.

C – A Idrogeno

Sicuramente è una tecnologia molto promettente, ed è il gas più pulito che ci sia. Presenta però pro e contro ancora più problematici delle ibride:

Pro

Non ci sono problemi di autonomia: la Toyota FCV (vedi sotto) può percorrere quasi 700 km, ed anche il rifornimento è sufficientemente rapido (può essere fatto in meno di 5 minuti rispetto alle ore che richiedono le elettriche). In California, paese da sempre all’avanguardia nel settore della ricerca e dell’inquinamento, sono già operativi diversi distributori e altri dovrebbero aprirne nei prossimi due anni.

L’industria giapponese crede molto in questo carburante: lo ha dimostrato con il primo modello di serie al mondo, la Toyota FCV, o con la Honda FCX, ed altre arriveranno. Le vetture ad idrogeno funzionano benone, anche perché sono a tutti gli effetti delle auto elettriche che invece di incerte e poco capaci batterie hanno il serbatoio dell’idrogeno ad alta pressione e lo stack che lo trasforma in corrente elettrica.

Contro

1)      La gestione. L’idrogeno deve essere compresso a 7-800 bar e tenuto a temperature bassissime, nell’ordine dei -260 gradi, costringendo così a strutture e materiali complessi e costosissimi per il suo utilizzo sull’automotive.

2)      La distribuzione. Attualmente non esiste. Distribuire idrogeno richiede una struttura ad-hoc attualmente esistente solo in poche nazioni come il Giappone, la California, ed in Germania.
(Non solo, in Italia sarebbe comunque impossibile la commercializzazione perché una norma attuale limita la potenza di accumulo nei serbatoi a 350 bar)

3)      La sicurezza. L’idrogeno deve essere stivato e portato appresso (le fuel cell, che servono poi ad alimentare il motore elettrico che ne sfrutta l’energia). Ma in caso di incidenti con fortissimi compressioni meccaniche o temperature altissime, non è ancora chiaro cosa potrebbe succedere.

4)      La produzione. Di nuovo, se l’energia usata per produrre idrogeno viene creata attraverso combustibili fossili, ci stiamo ri-prendendo in giro da capo. Se l’idrogeno è invece creato dall’energia solare siamo nel giusto e nel buono. Ma non è tutto così semplice.

Insomma, a parte le politiche svolte dagli Stati, e dai volumi in cui queste vetture arriveranno sul mercato (esperti Usa dicono che per viaggiare l’equivalente di quello che si riesce a fare con un gallone potrebbero bastare tre dollari), anche l’idrogeno non sembra una soluzione a breve termine, come l’elettrico. E fra i manager c’è chi non ci crede, soprattutto fra chi ha puntato sull’elettrico, in primis Carlos Ghosn (grande capo di Renault-Nissan) ed il genietto Elon Musk, fondatore della Tesla.

E’ molto probabile che nel futuro, posso azzardare nei prossimi 30-40 anni, le tre tipologie di propulsione conviveranno, quindi avremo ancora motori a combustione interna, Euro6, 7 e così via, ibride utilizzate magari in città o elettriche per i percorsi urbani, e infine idrogeno per grandi progetti automobilistici che ora ci appaiono futuristici ma che fra 10 anni potrebbero non esserlo affatto.

Chi vivrà (a lungo) vedrà!