La corretta gestione delle risorse idriche ha come presupposto fondamentale la conoscenza dello stato attuale della qualità delle acque e della sua evoluzione nel tempo. Tale conoscenza deve permettere, tra l’altro, di evidenziare eventuali fenomeni accidentali o dolosi di inquinamento e di indirizzare di volta in volta le misure più idonee di intervento. L’ampiamento del quadro normativo in materia di tutela delle acque rafforza la necessità di potenziare l’attività di standardizzazione finalizzata sia allo sviluppo di metodologie per i nuovi parametri introdotti, sia al miglioramento dei limiti di rivelabilità e della flessibilità di metodologie già standardizzate che ne consentono l’applicazione a diverse tipologie di acque.
L’introduzione di standard agli effluenti diversificati per attività produttiva e per ciclo produttivo e di standard al corpo idrico in funzione del conseguimento di obiettivi di qualità, legati cioè all’utilizzo potenziale o in atto del corpo idrico stesso, rappresentano gli aspetti decisamente innovativi dei decreti che
storicamente si sono succeduti in questi quaranta anni. In questo settore assumono particolare rilevanza le ricerche riguardanti la messa a punto e la standardizzazione di metodi analitici per la qualità delle acque di scarico, superficiali e di mare. Questa attività, iniziata negli anni ’70 con la produzione di un primo manuale di metodi analitici per le acque, veniva potenziata a partire dal 1976 quando, con l’entrata in vigore della legge 10.5.1976 n. 319 “Norme per la tutela delle acque dall’inquinamento”, che affidava all’Istituto di ricerca sulle acque (IRSA-CNR) il compito di definire le metodologie analitiche per i parametri per i quali erano stati fissati valori limite agli effluenti; tali metodi hanno assunto il carattere di ufficialità per il controllo della qualità delle acque di scarico. I loro fini nei successivi affinamenti sono stati
a) Abbassare i limiti minimi di rivelabilità o, se mantenuti invariati, aumentare riproducibilità e/o accuratezza;
b) ridurre i tempi di analisi con conseguente aumento del numero di campioni analizzati o del numero di determinazione su ciascun campione;
c) affrancarsi da specifici reattivi prodotti da questa o da quell’industria;
d) cercare per ogni indice almeno un metodo che utilizzi strumentazione di basso costo al fine di consentirne l’adozione anche da parte di laboratori scarsamente attrezzati;
e) attivare un processo di rinnovamento dei metodi analitici strumentali, nel quale i metodi cromatografici ed elettrochimici risultino rivalutati;
f) perseguire, sia pure in prospettiva, l’adozione di metodi basati su strumentazioni più complesse (plasma, gas-massa) nella convinzione che anche per esse debba avvenire quanto è avvenuto, ad esempio, per l’assorbimento atomico e l’HPLC, in cui a una fase sperimentale limitata è seguita una progressiva volgarizzazione;
g) disaggregare gli indici complessi, ma anche quelli più semplici (vedi metalli), sulla base delle differenti proprietà dei singoli componenti, soprattutto in relazione alla capacità inquinante o delle differenti specie chimiche sotto le quali un elemento può essere presente;
h) estendere oltre i contenuti della legge Merli il numero degli indici sotto osservazione sulla base, soprattutto, della normativa europea.
In generale, è necessario poter disporre di metodologie che consentano sia la determinazione delle sostanze nella loro globalità (metodi specifici) o differenziate per classi (metodi semispecifici), sia la determinazione delle singole sostanze presenti (metodi specifici).
Le metodiche aspecifiche e semispecifiche, basate su tecniche analitiche semplici, non sono ovviamente in grado di determinare in modo corretto un gruppo di sostanze, in quanto affette sia da errori causali (presenza di interferenze) sia sistematici, che dipendono direttamente dalla complessità della matrice da analizzare. Tali metodiche, comunque, in quanto caratterizzate da semplicità e rapidità di esecuzione, possono svolgere un ruolo importante a livello di “screening” dei campioni in esame.
I metodi specifici richiedono, per le finalità che si propongono, una estrema selettività e sensibilità e si basano quindi su tecniche strumentali più avanzate, quali la gascromatografia (GC) o cromatografia liquida (HPLC) accoppiate sia a rivelatori convenzionali non specifici (FID e UV) sia a rivelatori selettivi (ECD,
PID, FPD, FD, ecc.). Rispetto a questa esperienza la chimica può fare molto. Un paio di anni fa insieme al compianto Prof. Roberto Volpi dell’Università di Cassino sono stato convocato dal Ministero dell’Agricoltura e Foreste su richiesta della Federazione delle produzioni DOC e DOP. È emerso in quella sede che il nostro Paese è alla ricerca di indicatori di qualità capaci, con misure semplici ed economiche, di evitare gli abusi, garantendo al tempo stesso la capacità di garantire la provenienza di un prodotto. Avevano elaborato una risposta in termini di misure integrali e di un algoritmo rappresentativo. La chemiometria ed il Nano Elettronico erano le due basi forti, fra loro cambiate, su cui si basava la proposta. Probabilmente, non fummo convincenti,
ma credo che con la ricchezza di esperienza nel campo da parte dei chimici, documentata dai risultati edalle pubblicazioni – si ricordi per tutti il Gruppo CIGA della Società Chimica Italiana (SCI) – ci siano lecondizioni per soddisfare questa primaria esigenza. Le potenzialità di impiego delle suddette tecniche possono essere valutate secondo due possibilifilosofie di approccio. La prima,si basa sull’impiego di metodologie mirate alla determinazione di composti selezionati o di classi di composti (fenoli, pesticidi), le quali possono essere modificate in procedure più complesse, quando necessario. La seconda è basata sull’impiego di una metodologia onnicomprensiva e flessibile che consenta la determinazione di un numero consistente di classi di composti in matrici acquose molto complesse, secondo uno schema che può essere facilmente semplificato quando debbono essere analizzate matrici meno complesse. L’inclusione della vita acquatica tra le utilizzazioni tradizionalmente più accettate della risorsa idrica (potabile, irrigua, balneare, ittica, industriale ecc.) ha costituito sicuramente un fondamentale passo avanti, focalizzando il problema in un’ottica ecologica globale, secondo la quale anche l’ambiente naturale ha un prezzo e come tale può essere danneggiato dall’inquinamento anche quando non sia utilizzato in alcun modo dall’uomo. La costituzione di un gruppo Metodi Biologici nel Manuale rappresentò a suo tempo, l’elemento normativo di tutta una serie di strumenti finalmente in grado di garantire quella auspicata “utenza vita acquatica”. Sono stati sviluppati, negli ultimi decenni, un consistente numero di sensori e analizzatori con particolare riguardo ai sistemi in grado di effettuare le analisi in continuo e in modo automatico. Sulla base delle esperienze sinora acquisite, si può affermare che tali sistemi automatici sono realisticamente utilizzabili con buoni risultati solo per un numero molto limitato di parametri, quali ad esempio temperatura, pH, conducibilità elettrica, potenziale redox, ossigeno disciolto, cloro residuo e torbidità, rimanendo quasi completamente esclusa tutta una serie di parametri chimici, primi tra tutti i microinquinanti organici e inorganici, che invece sono di notevole importanza dal punto di vista ambientale, e per i quali sono
generalmente utilizzati i metodi classici di prelievo dei campioni, nonché analisi in laboratorio. Anche per i metalli, in disarmonia con l’elevato numero di lavori che illustrano sensori e biosensori per la loro determinazione, il trasferimento ai metodi ufficiali non è avvenuto. Alcune possibili direzioni di sviluppo futuro riguardano soprattutto l’impiego di sistemi integrati, quali il monitoraggio biologico (biomonitoring) e l’acquisizione di dati mediante telerilevamento, che, rinunciando a fornire l’informazione analitica su uno specifico parametro, permettano di avere una indicazione sul livello tossicità del sistema idrico in esame, funzionando da allarme per ulteriori indagini più approfondite. L’affidabilità delle misure fisiche, chimiche e biologiche, ha assunto una rilevanza sempre più evidente, non solo in ambito strettamente tecnico scientifico ma anche per molti aspetti di carattere sociale.
Tale affidabilità si rende necessaria sia nel campo industriale per stabilire criteri di qualità dei prodotti che siano applicabili e verificabili in tutti i Paesi, sia in campo ambientale, dove la non affidabilità e la non confrontabilità delle misure ha generato molti problemi quali: misure legislative non completamente adeguate alle necessità e diverse nei vari Stati: il moltiplicarsi di campagne di misure che forniscono
informazioni difficilmente confrontabili con altre ottenute in campagne analoghe, ecc.
La qualità dei dati analitici prodotti in laboratorio dipende dalla qualità delle informazioni disponibili a chi definisce i problemi analitici, ne disegna i processi e ne aggiusta le caratteristiche, così che i risultati prodotti possano incontrare gli obiettivi richiesti. Gli strumenti a disposizione del laboratorio per valutare e incrementare la qualità delle prestazioni analitiche sono molteplici. Tra questi i più importanti sono certamente i materiali di riferimento certificati e la partecipazione a studi interlaboratorio. A proposito dei primi, il mio orgoglio chimico mi fa rivendicare
alla nostra comunità la loro introduzione e il loro sviluppo: si pensi che il primo catalogo dei MR era costituito da otto pagine e l’ultimo da parecchie centinaia.
Prof. Luigi Campanella – luigi.campanella@uniroma1.it
Grazie del Post Prof Campanella
Sono personalmente interessato alla partecipazione a studi interlaboratorio per accrescere la mia conoscenza in questo ambito.