55af79f7428c4Una riflessione arguta sul sistema di finanziamento a livello Europeo. Il successo di un progetto è considerato come un indicatore obiettivo di qualità accademica in tutto il sistema universitario europeo. Premiando solo il 1,3% delle domande viene modellata una realtà assurda: quasi il 99% degli accademici nella UE falliscono, e solo 1,3% soddisfa questo criterio. Ora, sappiamo che il 98,7% “perdenti” devono ancora competere per dimostrare che sono abbastanza buoni; ma quando un collo di bottiglia di selezione è troppo stretto, lo sforzo e le risorse investite per superarlo, sono in effetti semplicemente sprecate.

Jan Blommaert 

Attracting external funding has become, everywhere, one of the main priorities of academics, and writing funding application has consequently also become one of their main tasks. The idea is “competitiveness”: quality will be evident when academics, individually or in teams, acquire funding after a strict and rigorously exclusive peer-review process. In addition, specific sources of funding are specified as benchmarks, suggesting that they are the “most competitive” ones, and therefore also the best and most objective indicators of quality: think of the ESRC in the UK or (the focus of this text) the European framework program Horizon 2020. In every form of performance management – for individual academics seeking promotion or tenure, for research teams, departments and entire universities – success in such benchmark external funding acquisition is given immense positive attention. Universities, consequently, impose quota on their academic units – “you shall apply for at least five EU grants and obtain at least one this year!” – and turn it into a compulsory, even key activity of their staff. Professional grant writers and administrators are hired in academic departments or labs, and universities now employ EU-targeting lobbyists to “assist” and “facilitate” their bids for funding.

Well, my team just submitted a Horizon 2020 application last week, following a thematic call several months ago. In view of the application, we had set up an international consortium earlier on, did profound content preparation, and one of our team members spent hundreds of hours and several international trips worth several thousands of Euros preparing the application.

After submitting, we heard that a total of 147 applications had been received by the EU. And that the EU will eventually grant 2 – two – projects. In a rough calculation, this means that the chance of success in this funding line is 1,3%; it also means that 98,7% of the applications – 145 of them, to be accurate – will be rejected. And here is the problem.

It would be interesting to see the grand total of labor and resources invested in the 145 applications calculated in Euros. My guess is that many millions’ worth of (usually) taxpayers’ money will have been used – wasted – in this massive and mass grantwriting effort. Several hundreds of researchers will have been involved, each spending dozens if not hundreds of their salaried working hours on preparing the application, and hundreds of university administrators will have been involved as well, also spending salaried working hours on the applications. These millions of Euros have not been used in creative and innovative research – they weren’t spent on doing fieldwork, experiments or tests, nor on writing papers and holding presentations in workshops and symposiums. They were spent on – nothing. For when a grant application is rejected, the time and energy investment spent on it evaporates, as if these hours of labor were never spent, and as if the academics who spent them had nothing else to do. Thus, while this Horizon 2020 funding line will disburse half a dozen millions of Euros to the two “winning” teams, it will have cost more millions to the EU academic community represented by the 145 others who were rejected. Money, thus, has been sucked out of an already fragile funding base for universities across the EU, in a vain attempt to “win” and “be competitive” – and therefore “good”.

The attempt is vain, because if the rejection rate is 98,7%, the message given by the EU is, in effect, that almost all of the academic units participating across the EU in the funding call are not good enough. It is nonsense to try and argue that on grounds of pure academic quality just 1,3% will qualify, for the number of grants to be awarded is known before the peer review procedure takes place. In that sense, the peer review done by the EU panels is simply useless, for it has no impact on the number of awards granted by the EU – tens of applicants will receive a letter soon stating that their project was evaluated as “excellent but not selected for funding”. The criteria determining the “selection for funding” are, needless to say, carefully guarded secrets, and not grounded in assessments of academic quality. The system of selection is, when all has been said and done, simply irrational and unreasonable.

Still, and notwithstanding the previous remark, success or rejection is seen as an objective indicator of academic quality across the EU university system. By awarding just 1,3% of the applications, thus, a rather thoroughly absurd reality is shaped: almost 99% of the competing academics in the EU do not make the mark, and just 1,3% satisfies the EU benchmark. Now, we know that the 98,7% “losers” still have to compete in order to show that they are good enough; but when a selection bottleneck is that narrow, the effort, and the resources invested into it, are in effect simply wasted.

The paradox is clear: by going along with the stampede of competitive external funding acquisition, almost all universities across the EU will lose not just money, but extremely valuable research time for their staff. Little academic improvement will be made, and little progress in science, if doing actual research is replaced by writing grant proposals with an almost-zero chance of success. And as long as academics and academic units are told that success or failure in getting EU funding (with success rates such as the one mentioned here known in advance) is a criterium for determining their academic quality, gross injustice will be committed. People will be judged inadequate, mediocre or simply poor academics because they failed to get the benchmark funding – awarded, as we saw, on grounds that have little to do with academic quality assessments of applications. Heteronomy is the word that comes to mind here: academic practices and achievements are judged by means of non-academic standards, given a thin but hopelessly unconvincing veneer of “competitiveness”. And universities seeking to acquire external funding will be losing their internal funding at extreme speed, the more they engage in this stampede for “competitiveness”.

I find this logic beyond comprehension. Those who rationalize the importance of acquiring benchmark external funding, are rationalizing an unreasonable and heteronomic system that produces tremendous numbers of “losers” and a tiny number of “winners”. The losers can be put under increasing pressure to show that they are competitive – increasingly risking their careers and spending funds better used on research and other intellectual activities.

To sum up: if the number of grants to be awarded is established before the peer-review process, this kind of “competitive” benchmark funding is not competitive at all, and a benchmark for nothing at all – least of all for academic quality. If, however, results in this weird game are maintained as serious and consequential criteria for assessing academic quality, then the conclusion is that there are no good academics in Europe – 99% of them will fail to get ratified as good enough. And these 99% will have to spend significant amounts of taxpayers’ money to eventually prove – what?

The entire thing really, seriously, begins to look and feel like buying lottery tickets or betting on horses: one spends money hoping to win some – and at moments of lucidity, one is aware of the fact that the net outcome will be loss, not gain. In the meantime, beautiful arias are sung about the extreme importance of research and innovation by the EU, by its member states, and by its universities. The question, of course, is how such a great cause is served by the present system of benchmark external funding acquisition. The money spent on it, I would say, would be better spent on … research and innovation proper.

Fonte http://alternative-democracy-research.org/2015/06/10/rationalizing-the-unreasonable-there-are-no-good-academics-in-the-eu/ (Licenza Creative Commons)

Print Friendly, PDF & Email

23 Commenti

  1. Bello ed ovvio. La compagnia di giro Europea il cui unico scopo è dare soldi a se stessa, si guarda bene, una volta avuti i soldi, di lavorare. Infatti le ricerche Europee sono assolutamente prive di una qualsiasi ricaduta sulla società. Si scopre poi che la compagnia di giro è composta da una percentuale risibile dei ‘ricercatori’ Europei: era chiaro, altrimenti che compagnia di giro sarebbe. La compagnia di giro ha definito poi ‘eccellenti’ solo le ricerche che si autofinanzia, estromettendo chiunque dalla possibilità di avere un ranking decente: era ovvio, altrimenti che compagnia di giro sarebbe.
    Ma allora gli esclusi cosa dovrebbero fare? Semplice. Basterebbe che imponessero con la loro forza che le ‘ricerche’ della compagnia di giro non sono eccellenti e che il ranking si ottiene solo attirando risorse private e facendo ricerche utili. Facile no?
    Peccato che gli esclusi non siano in grado di aggregarsi, forse perchè, attirare risorse private è faticoso e ‘lamentarsi’ è tuttosommato meglio che ‘lavorare’.

  2. Brutto e falso. Il tasso di successo per un ERC Advanced Grant (cioè il grant più prestigioso) è del 12% (e non del 1,3%), ed un tale grant dura 5 anni, per cui basta vincere una volta ogni 5 anni: circa come se il tasso di successo fosse del 50% circa.
    Il problema vero è che gli italiani che vincono questi grant sono incoraggiati ad uscire dall’italia, a causa di un sistema antimeritocratico fino al suicidio.

    • abcd: “Brutto e falso. Il tasso di successo per un ERC Advanced Grant (cioè il grant più prestigioso) è del 12% (e non del 1,3%)”
      Brutto non saprei, ma falso non direi: l’articolo non parla di ERC Advanced Grants, ma porta ad esempio una “thematic call” Horizon 2020:
      “Well, my team just submitted a Horizon 2020 application last week, following a thematic call several months ago. In view of the application, we had set up an international consortium earlier on, did profound content preparation, and one of our team members spent hundreds of hours and several international trips worth several thousands of Euros preparing the application.

      After submitting, we heard that a total of 147 applications had been received by the EU. And that the EU will eventually grant 2 – two – projects. In a rough calculation, this means that the chance of success in this funding line is 1,3%; it also means that 98,7% of the applications – 145 of them, to be accurate – will be rejected. And here is the problem.”
      Per quanto riguarda gli advanced grants c’è un evidente fenomeno di autoselezione se si considera che nel 2014 le “applications received” erano 2.287 in totale e ne sono stati finanziati 192 sui 2.250 valutati, con un tasso di successo pari all’8,5%.

    • Labini, la realtà non dipende da come mi firmo: il tasso di successo medio di Horizon2020 è attorno al 14%, e l’articolo fa un’operazione non corretta prendendo un caso limite 10 volte sotto la media (una call tematica per letterati) e usandolo per criticare tutto il sistema: «Una riflessione arguta sul sistema di finanziamento a livello Europeo. Il successo di un progetto è considerato come un indicatore obiettivo di qualità accademica in tutto il sistema universitario europeo. Premiando solo il 1,3% delle domande viene modellata una realtà assurda: quasi il 99% degli accademici nella UE falliscono».

    • Le righe introduttive sono una sorta di “catenaccio” che riassume e invoglia alla lettura. Non è detto che si possano/debbano specificare tutti i dettagli che sono comunque riportati correttamente nell’articolo. In ogni caso, l’articolo non parla di progetti ERC e il punto centrale, illustrato con un’esperienza personale dell’autore, rimane fondato anche guardando alle statistiche medie. Non per nulla su University World News si legge un articolo intitolato “Concern over low success rate of Horizon 2020 bids”:
      “The drop in the success rate of universities bidding for Horizon 2020 funding is being driven by increased demand from universities suffering from austerity programmes, according to the European University Association, or EUA.

      Of nearly 73,000 applications during the first 18 months of Horizon 2020, the average success rate was 12.9%, down from 18.5% in the previous Framework Programme 7, with some sub-programmes reporting success rates well below 10%.

      Even if a large number of universities now participate in Horizon 2020, the relative proportion of funding for universities is estimated to have sunk from about 44% in Framework Programme 7, to 36% in Horizon 2020.”
      Che la percentuale del 14,5% fosse una stima preliminare destinata rivelarsi ottimistica è ribadito anche da Science Business:
      Exclusive: Horizon 2020 success rates slide towards 12%

      The competition for European Union funding is getting hotter: new, preliminary data show the average odds of getting a grant from the EU’s €77 billion Horizon 2020 research and innovation programme has fallen to between 12 and 14 per cent.

      This percentage – disclosed to Science|Business on Tuesday – is based on 37,000 proposals which have gone all the way through the evaluation process, received during the programme’s first 100 “calls for proposals,” or grant competitions.

      It’s a sharp fall from the average 19 to 21 per cent odds that researchers enjoyed in Horizon 2020’s predecessor, the Seventh Framework Programme (FP7), which ran between 2007 and 2013. And it’s also down from the average 14.5 per cent success rate that the Commission reported in March, based on an analysis of an earlier set of calls.
      Infatti, come si può leggere sul sito di H2020, la stima di circa 14% derivava dai primi 100 bandi:
      The text and charts below have been taken from the brochure, “Horizon 2020 – first results” (PDF 3MB), which presents information on the first 100 calls for proposals.
      E anche in questo caso, si notava un calo rispetto a FP7:
      “4 315 proposals were retained for funding. The overall success rate of eligible full proposals under the first 100 calls is around 14%, compared with around 20% for the whole of FP7.

    • Mi sembra il classico commento in cui si parla delle misure del dito e non della luna cui il dito punta.
      Il problema e’ il numero esatto che esprime la percentuale di successo (1, 10 o 20 % che sia) o l’ enorme spreco di risorse che sta andando dietro la preparazione di progetti per il “grant perduto” ?
      Indipendentemente dai numeri esatti, variabili da call a call, l’ articolo mette l’accento su un problema reale: nel meraviglioso mondo del “mercato perfetto che risolve tutto”, se la qualita’ della ricerca viene giudicata dalla capacità di vincere grant, la competizione portera’ ad alzare sempre di più le richieste sui progetti, non solo in termini di bontà scientifica ma anche su altri parametri. Col risultato di far nascere una “progettologia” che già macina non poche risorse. Le richieste e la complessità di preparazione di un buon progetto Horizon 2020 e’ tale che ha già creato un mercato di esperti a pagamento per la preparazione (e la gestione) dei progetti. Il tempo per la messa a punto e’ diventato una percentuale non trascurabile del tempo dedicato agli aspetti scientifici.
      Quando leggo di università inglesi che assegnano ai singoli docenti “target di finanziamento da ottenere”, confrontabili o maggiori del costo dello stipendi del docente, mi chiedo perchè mai una persona sensata dovrebbe mettersi in questo giro passando per un’ università, invece di autofinanziarsi direttamente.
      L’ accenno alla meritocrazia poi lo trovo fuori luogo per almeno due motivi:
      1. andrebbe preventivamente giustificato in modo razionale e non ideologico l’ utilizzo del successo nei progetti come misura del “merito” individuale;
      2. i motivi per andare fuori dell’ Italia con un grant europeo non necessariamente si riducono al problema della antimeritocrazia. Un’ occhiata alle infrastrutture in cui si colloca l’ attività di ricerca aiuterebbe a capire che la bacchetta magica del “merito” non risolverebbe i problemi di fondo.

    • Ho molta difficoltà a dare un senso a quanto riportato dall’ ANSA come pensiero del ministro.

      A meno che, a pensar male, non si mette in risalto con grande enfasi rottamatoria l’ uscire da schemi del secolo passato per giustificare il non voler investire neanche un euro in più in ricerca, rispetto molto poco attuale.

  3. Non sono sicuro di quali possano essere le percentuali di successo effettivo nelle diverse “gare” europee, quello di cui sono sicuro, perche’ l’ho sentito riportare da diversi colleghi sia valutati che valutatori (e che ad un certo punto appare anche nell’articolo sopra) e’ questo: i progetti tendono ormai ad ottenere il massimo punteggio in numero significativamente superiore a quelli che poi vengono effettivamente finanziati.
    Chiunque si fermi un momento a pensare non puo’ non vedere quanto questo renda sterile il processo di valutazione. Una valutazione che satura, non e’ una valutazione. Se i vincitori sono un sottoinsieme (piu’ o meno grande) di quelli che hanno raggiunto il massimo, nel migliore dei casi si tratta di una lotteria, nel peggiore di un arbitrio nascosto.

  4. L’articolo non parla né di ERC né di FET. La call in questione non viene citata, ma i suoi numeri sono usati per generalizzare su tutto H2020, che è enorme e assai variegato al suo interno.

    FET non è solo FET Open (la cui ultima selezione si è conclusa con 1.4%). FET Open occupa circa un terzo del budget di FET. FET Proactive ha dei numeri assai diversi e percentuali di successo assai maggiori: http://ec.europa.eu/rea/pdf/fetopen_infoday_2016/3_fet_proact__ic_2016.pdf. Per chi non c’era al FET Infoday di Bruxelles del 25 gennaio scorso, tutti i materiali sono online: http://ec.europa.eu/rea/pages/fet_open_and_fet_proactive_info_day_en.htm
    Se interessa il punto di vista della Commissione su FET Open, esso è ben espresso qui: https://ec.europa.eu/digital-single-market/en/blog/what-it-takes-succeed-fet-open

    E’ palese che FET Open sia in sofferenza, ma è vittima del suo stesso successo. Le risorse ad esso dedicate sono andate aumentando in maniera significativa. Il problema è che il numero di domande è aumentato più che proporzionalmente. E’ giusto chiedersi perché vengano presentate 800 domande se già si sa in partenza che ne verrà finanziata una dozzina. Puro masochismo dei ricercatori europei? Ecco alcune spiegazioni, dal mio modesto punto di vista:
    1. Non esistono altri importanti canali per il finanziamento della ricerca cooperativa ad alto rischio e ad ampio spettro;
    1.bis. Il resto di H2020 finanzia più l’innovazione che la ricerca. ERC è un programma di successo per la ricerca di base, ma non finanzia la ricerca cooperativa;
    2. FET Open è davvero open. Non vengono forniti indicatori di autocensura come in ERC.
    3. Scrivere una proposta non è un’impresa titanica (con le regole attuali sono 15 pagine).
    4. C’è un’alta percentuale di resubmission, e la resubmission non viene sanzionata in alcun modo.

    Lo slogan di Occupy “we are the 99%” è seducente ed efficace, ma non credo che sia utile per la ricerca accademica.

    Davide Rocchesso
    coordinatore di progetti FET-Proactive (2001-03) e FET-Open (2014-2016)

  5. Si, scusa, ho sbagliato dello 0.3%: “if the rejection rate is 98,7%, the message given by the EU is, in effect, that almost all of the academic units participating across the EU in the funding call are not good enough.”

    • Bene vedo che sa leggere i numeri ma è incapace di capirne il senso. Non è scritto da nessuno parte che bisogna finanziare il 100% dei progetti, bisogna davvero avere degli occhi gonfi di insulsa ideologia per leggere una cosa del genere. ps la stessa ideologia della Gelmini by the way: “criticate la riforma = siete dei conservatori che difendono status quo”, “criticate l’anvur = siete contro la valutazione”, “criticate la maniera con cui i fondi sono distribuiti= volete i finanziamenti a pioggia”. Ma uno che insegna all’università non dovrebbe anche sapere argomentare un filo meglio ?

  6. Questo articolo mi è piaciuto molto, mette in chiaro concetti che avevo già intuito venticinque anni fa, quando provai per la prima volta a partecipare ad un bando europeo: tra viaggi in aereo, contatti, tempo perso, carta scritta, valutai che il solo fatto di “averci provato” fosse costato circa 20 milioni di lire (c’era ancora la lira…).
    Certo, se il bando fosse stato approvato, ne avrei ricevuto 200 (ma vincolati da meccanismi di spesa e burocrazia contabile assolutamente oppressivi).
    All’epoca valutai che spendendo la metà di quei 20 milioni in banale “pubblicità” presso aziende locali, avrei potuto facilmente avere contratti di ricerca su attività concrete ed utili al mondo reale. Da allora, mi dedicai con successo a tale approccio, e non ho mai più avuto problemi di finanziamento per le mie ricerche e per pagare i miei collaboratori, perchè di aziende interessate a dare dei soldi all’Università, in Italia, ce ne sono tantisisme, molto più di quanto si creda. Basta giusto farsi conoscere, e dopo un po’ fan la fila per darti dei contratti di ricerca…
    Il problema è che 20 anni fa questi contratti di ricerca applicata erano visti malissimo dalla mia Università, riuscivo a farmeli approvare solo perchè al tempo siedevo in Consiglio di Amministrazione.
    Poi il vento è cambiato, ed invece che essere criticato per fare ricerca utile al mondo reale, improvvisamente tutti apprezzavano questo approccio.
    Ma poi il vento è cambiato ancora, è venuta l’epoca della bibliometria, della VQR, delle mediane e compagnia bella, e di nuovo la ricerca utile e pratica non e’ più di valore, perchè non fa crescere l’H-index, e brevetti ed NDA non han valore bibliometrico…
    Io ormai me ne frego, la mia carriera l’ho fatta, e lavorare su cose concrete mi piace molto di più che vendere aria fritta sui journal “peer reviewed”…
    Ritengo comunque che sia meglio spendere le risorse che uno ha “poche o tante che siano” per fare ricerca vera, possibilmente su argomenti utili alla società ed alla vita reale, e non sprecarle in centinaia di ore uomo perse a scrivere programmi di ricerca triennali o quinquennali ultradettagliati, in cui si stabilsce che 36 mesi dopo l’inizio verrà “scoperta” una nuova tecnica di misurazione e 48 mesi dopo verrnno verificati sperimentalmente i risultati previsti teoricamente al mese 22…
    Come si fa a progettare un piano di ricerca di lunga durata, in ambiti dove in pochi mesi potrebbe cambiare tutto?
    E’ ovvio che chi presenta tali dettagliatissimi programmi di ricerca, o ha già tutto quanto nel cassetto, oppure se li inventa di sana pianta.
    Tutto sto valore “competitivo” a chi riesce a vincere i grant europei viene assegnato solo dagli stessi che questi grant li assegnano o li ricevono. Vi posso assicurare che là fuori, nel mondo reale, non interessa una cippa a nessuno di essere vincitore di un grant europeo, interessa che uno sia bravo ed inventivo, ed allora le aziende arrivano a finanziare i progetti…

    • Bravo.E’ esattamente quello che cercavo di dire nel primo commento (ignorato) a questo articolo. Ogni persona di buon senso ha praticato la strada di Farina. Peccato che da 4 anni a questa parte i meccanismi di valutazione e la burocrazia introdotta (non dalla 240, ma dalla interpretazione capziosa di questa ad opera solo di accademici) di fatto impedisca l’autofinanziamento, anche per chi, avendo già fatto carriera, sarebbe disposto a ‘divertirsi’ con ricerche utili e che fruttano a lui ed alla sua Università i soldi per andare avanti.

  7. Articolo molto provocatorio e assolutamente vero. Un sistema che non è in grado di offrire concrete possibiilità di successo nel finanziamento spreca più risorse di quelle che distribuisce. Sono anni che lo stesso accade anche su scala nazionale con i PRIN (quando vengono banditi). Io non so quale sia un tasso di successo accettabile, ma finanziare tutti i progetti al di sopra di un certo punteggio o proporsi di finanziare il 5% dei progetti presentati sembrerebbe ragionevole. E’ infatti chiarissimo che se si finanzia il 10% dei richiedenti dopo un po’ il 90% non finanziato è fuori del gioco e la base di selezione (quindi la probabilità statistica di finanziare ricerche importanti) si riduce enormemente.

  8. Faccio notare che questo perverso meccanismo non è presente solo nei “call” europei, ma anche nelle gare per l’aggiudicazione di appalti pubblici, laddove le imprese in gara per aggiudicrsi i lavori di costruzione debbono presentare il Progetto Definitivo dell’opera.
    Per certi tipi di opere pubbliche (ospedali, scuole, biblioteche, impianti sportivi, grandi infrastrutture di trasporto, etc.) la progettazione definitiva è assai impegnativa e costosa. Ogni impresa che decide di partecipare alla gara deve investire 150 – 200 mila euro in spese di progettazione. E magari partecipano 30 imprese, quindi vengono spesi, in tutto, 5 o 6 milioni di euro per progettare 30 volte la stessa opera pubblica!
    Dopodichè, l’impresa che vince rientra delle spese di progettazione, perchè si aggiudica un appalto da 20 o 30 milioni.
    Ma per tutte le altre 29, aver partecipato alla gara è un costo non indifferente…
    Si potrebbe pensare che questa sia una manna per i tecnici progettisti: invece no, perchè, per ridurre i costi, e poter partecipare alla gara, le imprese chiedono ai tecnici di lavorare “sottocosto”, a tariffe pari anche ad 1/5 della normale tariffa professionale. Si tratta quindi di un lavoro sottopagato…
    Il risultato finale è comunque uno spreco enorme di ore-uomo lavorate da bravi progettisti, mal pagati, che sarebbe stato meglio impiegassero il loro tempo a fare progetti che vengono poi costruiti, e non messi nel cassetto della stazione appaltante a prendere polvere…
    Ora ci si è resi conto della stortura del sistema degli appalti pubblici, e ci si augura che il nuovo Codice degli Appalti, che entra in vigore in questi giorni, riduca fortemente questo assurdo spreco di talenti e di risorse.
    Ma l’idea di riformare allo stesso modo i meccanismi per l’aggiudicazione delle “gare” per i grant di ricerca, invece, non è ancora minimamente entrato nelle zucche di chi gestisce questo sistema. Anche perchè vorrebbe dire ammettere di aver sbagliato tutto negli ultimi 20 anni…
    Ed anche perchè ai vertici del sistema siedono coloro che sono stati giudicati “eccellenti” da tale sistema, ricevendo numerosi grant. Perchè mai dovrebbero cambiare il sistema che li ha favoriti?
    Ormai è un giro dove valutatori e valutati sono sempre gli stessi, e tengono fuori tutti gli altri…

  9. La stessa logica brillantemente spiegata da Farina potrebbe venire estesa anche a taluni comitati tecnici di ‘normazione’, la cui composizione vede prevalere gli accademici che non fanno ricerca ‘applicata’, per cui da un po di tempo le norme tecniche stanno diventando appannaggio di accademici il cui interesse prevalente è riversare la loro produzione scientifica nei documenti tecnici e delle varie burocrazie ministeriali (ma anche quella che circonda la Commissione Europea non scherza) interessate a giustificare la loro stessa esistenza. A discapito della qualità della normazione tecnica che sta diventando sempre più ipertrofica e poco applicabile.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.