Tutto_Misure n. 2 - 2019

Page 1

TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

ANNO XXI N. 02 ƒ 2 019

EDITORIALE Sveglia!

IL TEMA

XISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 2 - Anno 21- Giugno 2019 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi

TUTTO_MISURE - ANNO 21, N. 02 - 2019

Dalla quantità alla qualità dei dati

GLI ALTRI TEMI Una sentenza recepisce il concetto di incertezza Gravimetria barometrica

ALTRI ARGOMENTI Un’intervista al direttore Dip. Taratura di Accredia Misure, Big Data e Dataismo La covarianza nella stima dell’incertezza La qualità nel restauro e conservazione delle opere d’arte

AFFIDABILITÀ & TECNOLOGIA

WWW.TUTTOMISURE.IT




IL PRIMO LASER TRACKER CON SCANSIONE INTEGRATA DIRETTA LEICA ABSOLUTE TRACKER ATS600 Con il Leica Absolute Tracker ATS600, da oggi è possibile digitalizzare oggetti di grandi dimensioni e a grande distanza in modo automatico, senza l’uso di riflettori e con precisione metrologica. Con il primo laser tracker con scansione integrata diretta al mondo il controllo qualità è pronto per entrare in campi della produzione del tutto nuovi.

HexagonMI.com


TUTTO_MISURE

ANNO XXI N. 02 ƒ 2019

La Gestione del rischio in ambito TIC Risk Management in Testing, Inspection and Certification ALPI – Associaz. Laboratori di Prova Indipendenti

87 Metrologia e contratti: Parte 12 – Misurazione e Automazione Metrology and contracts – Part 12: Measurement and automation Luigi Buglione

132 Dalle Associazioni Universitarie di Misuristi The Italian University Associations for Measurement A. Ferrero, P. Daponte, N. Paone

137 La qualità nel restauro e nella conservazione delle opere d’arte Quality in artwork’s restoration and conservation Michele Lanna

145

IN QUESTO NUMERO

Editoriale:Sveglia! (Alessandro Ferrero) 85 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese La gestione del rischio in ambito TIC 87 Il tema: Dalla quantità alla qualità dei dati L’integrazione...fa la forza 91 Strategie e scenario del Test & Measurement 94 (Massimo Mortarino) Gli altri temi: Metrologia forense Il magnete è innocente (A. Ferrero, C. Graffer) 97 Gli altri temi: Gravimetria barometrica Un approccio storico alle misure di gravimetria barometrica (Leonardo Gariboldi) 103 La pagina di ACCREDIA Notizie dall’Ente di Accreditamento (a cura di R. Mugno, S. Tramontin, F. Nizzero) 107 Riferibilità metrologica, taratura e materiali di riferimento 111 La pagina di IMEKO Aggiornamenti sulle attività IMEKO nel 2019 (a cura di Enrico Silva) 113 Divagazioni a zonzo su metrologia e dintorni Misure, Big Data e Dataismo (Dario Petri) (a cura di Alessandro Ferrero) 115 Misure e fidatezza Sicurezza e misure per sistemi complessi (M. Catelani, L. Ciani, L. Cristaldi, A. Ferrero) (a cura di L. Cristaldi, M. Catelani, M. Lazzaroni e L. Ciani) 117 Tecnologie in campo Testing in ambito automotive 121 Ispezione delle condutture 124 Scansione 3D nell’aftermarkett 127 (a cura di Massimo Mortarino) Metrologia generale Verso un’incertezza di classificazione (L. Mari, C. Narduzzi) (a cura di Luca Mari) 129 I Seriali di T_M: Misura del software Metrologia e Contratti – Parte 12 (a cura di Luigi Buglione) 132 Metrologia legale e forense Revisione del SI e legislazione nazionale (a cura di Veronica Scotti) 135 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi (a cura di A. Ferrero, P. Daponte e N. Paone) 137 Smart Metrology La covarianza nella stima dell’incertezza di misura - Prima parte (a cura di Annarita Lazzari) 140 Manifestazioni, Eventi e Formazione 2019-2020: eventi in breve 143 Metrologia… per tutti! La qualità nel restauro e nella conservazione delle opere d’arte (a cura di Michele Lanna) 145 Commenti alle norme: la 17025 Modifiche alla ISO 17025 2a parte: accreditamento o certificazione? (a cura di Nicola Dell’Arena) 151 Storia e Curiosità Storia dell’LVDT (Claudia Taschera) 153 Abbiamo letto per voi 160 News 92-94-98-102-106-108-114-122 124-128-130-139-144-146-150-152-158-159

T_M

N.

2/19 ƒ 83



Alessandro Ferrero

EDITORIALE

n

Sveglia!

Wake up! Cari lettori, Come tutti i motti coniati più per parlare alla pancia che alla testa, anche il famigerato “Italiani, popolo di santi, poeti e navigatori” è stato molto ben assimilato dalla pancia e continua a fare danni, assegnando alla scienza, nell’immaginario popolare e rispetto ad altri campi della cultura, il ruolo della figlia di un dio minore. Come tutto ciò che è destinato alla pancia, questo motto non ha passato il filtro della testa, altrimenti ci si sarebbe accorti che, per essere bravi navigatori, la matematica e la fisica (e non solo) ci devono essere ben note. Ci si sarebbe anche accorti che, oltre a santi, poeti e navigatori, questo paese ha dato i natali a fior di scienziati che potrebbero tranquillamente essere ricordati per le loro scoperte, senza bisogno di aggiungere patenti di filosofi o letterati (Galileo docet), campi in cui, salvo rarissime eccezioni, hanno brillato assai meno che in quello scientifico. Perché inizio queste mie considerazioni da qui? Potreste pensare che questa sia, oggi, una sterile polemica e che tutti quei personaggi che ancora negano l’evidenza di risultati scientifici validati con dovizia di prove (scientifiche!), dai terrapiattisti ai no vax, ai fautori dell’agricoltura biodinamica, con i loro corni di bue riempiti di sterco, siano una minoranza alquanto rumorosa di personaggi “originali”, da guardare scuotendo la testa con aria tra il compassionevole e il rassegnato. Se così fosse, mi limiterei anche io a fare spallucce e passerei ad altro. Purtroppo, però, questo atteggiamento di strisciante sfiducia nei confronti della scienza si è radicato anche in settori che hanno ben altro peso di qualche folkloristico gruppo di terrapiattisti & C. Per esempio tra i nostri legislatori. Nell’articolo di Veronica Scotti, in questo stesso numero, troverete la loro ultima perla, per cui le misure legali (cioè quelle che regolano tutte le transazioni commerciali oggi in Italia, anzi, in tutta la UE) non sono quelle definite dal SI. Non è l’unico caso, e viene da chiedersi come mai l’apparato normativo e regolatorio sia sempre in ritardo rispetto ai progressi della scienza. È certamente normale e comprensibile che le applicazioni innovative di nuove scoperte scientifiche vengano recepite con un certo ritardo, dovuto alla necessità di comprenderle, di capirne per quanto possibile le implicazioni economiche, sociali e legali (si pensi alle auto a guida autonoma e, in genere, alle applicazioni più avanzate dell’intelligenza artificiale), per poi poterle correttamente regolamentare. Ma quando si ha a che fare con le variazioni dettate

dal normale progresso delle conoscenze, da dove viene questo ritardo? Sembrerebbe dal fatto che il legislatore non ami rimandare, per gli aspetti tecnici, alla normativa tecnica. E allora recepisce, nel testo di legge, definizioni, valori numerici, relazioni matematiche, ecc., che così perdono la loro caratteristica scientifica di essere in continua evoluzione (perché giustamente assoggettate alle sfide lanciate dalla comunità scientifica) e si cristallizzano in norme cogenti che, quando tenute in vigore troppo a lungo ignorando il progredire della scienza, assomigliano più a tabù che a giuste leggi. E da dove viene questo furor normandi che ha portato a includere nelle leggi (la direttiva 80/181 CEE, in primis, e il DPR 802/82) le definizioni delle unità di misura? Non bastava dire che le unità di misura legali erano quelle del SI, con le definizioni approvate dalla CGPM? Evidentemente non si ha abbastanza fiducia nella scienza e si teme che chissà cosa possano combinare quei matti di scienziati (per non parlare dei metrologi!): meglio definirle per legge, queste unità, che se poi la CGPM (dove peraltro non siedono tecnici, ma delegati dei governi) dovesse cambiarle in un modo che non piace, ci si tiene quelle in vigore. Con tutti i problemi che ne possono, in prospettiva, derivare. Forse è davvero arrivato il momento di svegliarsi e ridare alla scienza il ruolo che le compete nel creare conoscenza e, quindi, cultura. E, all’interno della scienza, restituire alla sperimentazione il ruolo (che le ha assegnato Galileo) di verifica e validazione delle teorie. Come ben dice Dario Petri nell’articolo che troverete più avanti, compito degli esperimenti, e quindi delle misure, è quello di comprendere i limiti dei modelli e valutare l’affidabilità dell’informazione disponibile. Senza questo approccio, in cui le misure giocano un ruolo rilevante, temo che difficilmente riusciremo a distinguere i dati realmente utilizzabili dalla massa d’informazioni che le nuove tecnologie mettono a disposizione. È per questo motivo che condivido i timori espressi da Dario Petri sulle conseguenze di una sottovalutazione della cultura delle misure a favore di una cieca e acritica fiducia nel dato: in mancanza di quell’approccio critico tipico delle misure, sarà sempre possibile estrarre dati che “provano” che la Terra è piatta, o peggio. È davvero tempo di svegliarsi: certi sonni, lungi dall’essere ristoratori, rischiano solo di riportare molto indietro l’orologio dell’umanità. Buona lettura! Alessandro Ferrero

(alessandro.ferrero@polimi.it)

T_M

N.

2/19 ƒ 85



COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

s

La Redazione di Tutto_Misure (alessandro.ferrero@polimi.it)

La gestione del rischio in ambito TIC ALPI contribuisce ad approfondire questo tema nella realtà del Testing, Inspection & Certification

NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of the most significant news from Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO Questa sezione contiene articoli e notizie significative da gruppi di ricerca, associazioni e aziende leader in Italia nel campo della scienza delle misure e della strumentazione, a livello sia teorico sia applicativo.

Si è svolto a Bologna, martedì 21 maggio scorso, il Convegno “RISK ANALYSIS E SOLUZIONI ASSICURATIVE – LA GESTIONE DEL RISCHIO IN AMBITO TIC (Testing, Inspection & Certification)”, promosso da ALPI Associazione con il patrocinio di Accredia, Confindustria Emilia e Confindustria Servizi Innovativi e Tecnologici, che ha chiamato a raccolta Laboratori e Organismi di Certificazione da tutta Italia, per approfondire, insieme a giuristi, esperti assicurativi e risk manager, il tema del “rischio d’impresa” e delle possibili tutele nei casi di procedimenti legali, penali o risarcitori, che un’impresa del settore TIC può trovarsi a dover affrontare. Un malaugurato incidente, un errore analitico, un evento imprevisto possono mettere a rischio la nostra impresa. Per contenere questo rischio facciamo ricorso alle polizze assicurative, partendo dal

presupposto che il Laboratorio/Organismo che esercita la propria attività professionale, è obbligato, in base al decreto legge n° 138/ 2011, a stipulare una polizza RC professionale che lo tuteli in tutto e per tutto da qualsivoglia rischio in caso di errori o lesioni cagionate a terzi. Tuttavia il dialogo tra le imprese operanti in ambito TIC e il mondo assicurativo non è semplice. Per molte compagnie assicurative si tratta di rischi non compresi completamente, tanto che, in base ai dati dell’analisi effettuata prima dell’avvento di ACCREDIA, molte Organizzazioni del settore TIC erano equiparate a imprese artigiane, quindi assicurate con polizze non idonee. L’Avv. Paola Raffone, esperta in materia assicurativa TIC, ha evidenziato l’importanza dell’ef fet tua zione di va lutazioni

approfondite circa le necessità assicurative della singola azienda, che riguardano sia l’attività svolta dalla stessa sia le ipotesi di subappalti o sub-affidamenti presso partner terzi. Dopo aver illustrato le tipologie as sicurative base in un Organizzazione del settore TIC e le coperture indispensabili, si è soffermata sull’esigenza di adattare le coperture assicurative in base alle specificità aziendali, ai tipi di soggetti che possono essere potenzialmente coinvolti e ai danni che possono essere cagionati nell’esercizio dell’attività. Tra i protagonisti dell’evento, 2 realtà assicurative ARAG e American International Group/ AIG Europe, e C.A. Broker Srl, rappresentata dal Dott. Angelo Nicolosi, i quali hanno messo bene in evidenza come le Compagnie di Assicurazione tendano a evitare l’assunzione del rischio di responsabilità civile per errori professionali nel mondo Testing. Tuttavia, alla luce delle recenti novità normative, esiste un interesse da parte dei grandi player del mercato assicurativo che iniziano a dare risposte interessanti per le aziende coinvolte nel mondo del testing, per quanto riguarda la copertura dei danni derivanti dalle responsabilità personali degli amministratori e delle spese lega-

T_M

N.

2/19 ƒ 87



N. 02ƒ ;2019 li inerenti procedimenti penali a carico di legali rappresentanti, di responsabili tecnici e di ispettori tecnici collaboratori esterni autonomi. Tutte le aziende più strutturate e importanti hanno compreso la necessità di una nuova forma assicurativa che risulta – al contrario – non del tutto percepita dalle imprese medio piccole: la Responsabilità Civile degli Amministratori (D&O). A tal proposito, il Dott. Marco Vantellino, American Insurance Group, ha ricordato le peculiarità del ruolo degli amministratori e il fatto che costoro sono, per legge e ovunque nel mondo, personalmente e solidalmente responsabili con il proprio patrimonio dei danni causati a terzi o alla società riguardo all’attività decisionale svolta per conto della stessa. L’azienda, a causa del comportamento dei propri Amministratori e Dirigenti, potrebbe avere responsabilità civili verso terzi. La polizza tutela il patrimonio personale degli assicurati, tenendoli indenni da richieste di risarcimento avanzate nei loro confronti per danni patrimoniali subiti da terzi a causa di errori, omissioni e/o violazioni degli obblighi a loro imposti dalla legge. L’obbligo di una polizza di responsabilità civile professionale è una garanzia sia per il professionista che lavora sia per il cliente che si rivolge al Laboratorio/Orga-

nismo. Il primo può lavorare con maggiore serenità sapendo di avere una copertura in caso di errori; il secondo può contare sul risarcimento in caso di danno. Nella ricostruzione della filiera si arriva facilmente a definire le responsabilità del Laboratorio/Organismo che ha testato/certificato quel prodotto, rivelatosi poi difettoso o non conforme, con estensione anche agli operatori tecnici delle stesse logiche punitive. L’Avv. Gabriele Bordoni ha messo così in evidenza l’approccio in base al quale, partendo dall’esistenza di un danno, si presuppone che qualcuno ne deve rispondere. Ma la norma che prevede la presunzione di non colpevolezza (di cui all’art. 27 della nostra Carta Costituzionale), agli effetti penali, ha un ruolo fondamentale per stabilire quali regole il legislatore può definire e quali l’interprete può creare in applicazione di quel principio che tutela chi è chiamato a rispondere di un reato. Inoltre, è andata via via affermandosi l’importanza delle c.d. linee guida nell’ambito dei giudizi per l’accertamento di re sponsabilità degli operatori ed è cresciuta l’attenzione della pratica forense nei confronti di tali strumenti (che storicamente rappresentato un punto di orientamento fondamentale per consulenti tecnici e periti nei giudizi civili e penali). Avv. Gabriele Bordoni Quindi, il le-

s

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

Avv. Silvia Stefanelli

gislatore ha espressamente attribuito un ruolo centrale alle linee guida, nell’ambito dell’accertamento sia della responsabilità penale sia di quella civile. Indipendente da ciò che viene stabilito contrattualmente è la valutazione continua dello stato delle procedure, dei metodi di analisi e dei dati prodotti dal laboratorio, che può ridurre al minimo tutte le circostanze che potrebbero comportare difformità rispetto ai risultati da raggiungere. Nell’ambito TIC, ma in particolare nel settore laboratoristico, si rende necessario consegnare parametri oggettivi ai quali riferirsi. Le linee guida, condivise dall’industria, diventano così solidi punti di riferimento anche ai fini di un adeguato riconoscimento nelle sedi giudiziali. L’intervento dell’Avv. Silvia Stefanelli è stato focalizzato sul contratto di assicurazione, con segnato riferimento all’esatta individuazione e delimitazione del rischio assicurato nella specifica ipotesi di assicurazione contro i danni, ai fini dell’inquadramento delle fattispecie di operatività (e azionabilità) della polizza assicurativa stessa. In entrambe le tipologie di assicurazione, ma sopratT_M ƒ 89


Più p pr preci ecci e cisione ssione one on precisione S Sensori i di di m isu isu sura misura

Sollecitazioni Est ensimetri Estensimetri Sistemi Sist emi di acquisizione dat ensimetria dati estensimetria ti per est Sist emi a corr elazione digit tale delle immagini Sistemi correlazione digitale

Spostamento p Sensorii laser l a triangolazio ti one triangolazione Sistemi Sist emi capacitivi Sensori a corr enti parassit e correnti parassite

Vibrazioni A ccelerometri monoassial Accelerometri monoassialii e triassiali A ccelerometri per ttesting esting Accelerometri A ccelerometri per manut e enzione pr e Accelerometri manutenzione predittiva

Temperatura p T ermocamere a infrarossi infrarossi Termocamere Pir ometri a puntamento puntamento las ser Pirometri laser Pir ometri compatti Pirometri

Bergamo, 24035 CURNO (BG) - Via Be ergamo, 25 T el. 035 462 678 - F ax 03 35 462 790 Tel. Fax 035 info@luchsinger r.it - www.luchsinger.it www.lu www.luchsinger uchsingerr.it .it info@luchsinger.it

N. 02ƒ ; 2019

luchsinger.i .t luchsinger.it

tutto nell’assicurazione contro i danni, l’elemento centrale è rappresentato dall’individuazione e delimitazione del rischio assicurato, ossia dell’astratta possibilità che l’evento dedotto in contratto si verifichi e, dunque, dia luogo all’obbligazione risarcitoria in capo all’assicuratore. Quale elemento essenziale del contratto, il rischio deve, dunque, essere oggetto di attenta e puntuale determinazione, secondo criteri di ordine causale, spaziale e temporale. Quali rischi e quali polizze? E soprattutto, come verificare l’effettiva congruità delle garanzie di polizza? Il Dott. Filippo Bonazzi, risk e insurance manager indipendente, ha sottolineato la necessità d’impostare un programma assicurativo aziendale coerente con le effettive necessità di tutela. Tra questi si collocano sia la prevenzione, attraverso un’adeguata mappatura del rischio, sia l’assicurazione, per finanziare le eventuali perdite economiche conseguenti a un danno. I rischi, infatti, sono numerosi, ma non sempre le soluzioni tecniche offerte dal mercato assicurativo garantiscono il pagamento integrale delle eventuali perdite economiche. È quindi indispensabile accertare preventivamente l’effettiva congruità delle garanzie della polizza da sottoscrivere, attivandosi, se necessario, per negoziarne un miglioramento senza trascurare l’equilibrio dei costi. “Le piccole realtà del settore sono quelle più esposte – ha commentato infine il Dott. Paolo Moscatti, Presidente ALPI – perché, oltre alla necessità di soddisfare esigenze normate da Regolamentazioni e/o Leggi, hanno la necessità di valutare il rischio che il mercato chiede di affrontare per guardare con ottimismo il successo della propria Organizzazione”. Il dibattito e confronto conclusivo con i relatori, hanno infine consentito ai partecipanti di porre quesiti precisi, anche in relazione alle proprie esperienze professionali. Come ben noto, individuare la polizza migliore è un lavoro complesso, che dev’essere affidato a chi quotidianamente analizza il mondo del Testing – Inspection – Certification e i suoi sinistri e possiede un’ampia conoscenza del mercato assicurativo a livello globale che è in continua evoluzione. Anche il lavoro quotidiano svolto da ALPI Associazione va in questa direzione: favorire un dialogo professionale del settore TIC con Enti istituzionali, Ministeri e Compagnie di Assicurazione in merito ai corretti contenuti da riportare nelle polizze. Il fenomeno associativo, di confronto e di rappresentatività, risulta dunque il corretto contenitore entro il quale formulare e consolidare quegli scambi culturali, quelle formazioni di riferimento uniformi, in grado di produrre parametri oggettivi e attendibili. La Redazione di Tutto_Misure è lieta di portare a conoscenza dei propri lettori iniziative come quella organizzata da ALPI, avendo da tempo affrontato, con le proprie rubriche, queste tematiche e richiamato l’attenzione dei propri lettori sull’importanza che anche gli aspetti non squisitamente tecnici e metrologici hanno sulle tante figure che operano nel mondo delle misure, del testing e della certificazione. Per ulteriori informazioni: info@alpiassociazione.it.


s

IL TEMA

M. Mortarino

(mmortarino@affidabilita.eu)

Dalla quantità alla qualità dei dati Come cambia l’offerta (e la domanda) in ambito di sistemi di acquisizione dati di misura

HOW MEASUREMENT DATA ACQUISITION TOOLS ARE CHANGING The main item of this issue is dedicated to discover how the offer of systems and solutions for measurement data acquisition is changing, according to the expressed and implicit needs of users. We are helped by representatives of two leading realities in the metrological field, directly involved in this deep change process, which concerns both supply and demand. RIASSUNTO Il Tema di questo numero è dedicato a scoprire come sta cambiando l’offerta di sistemi e soluzioni per l’acquisizione dei dati di misura, sulla base delle esigenze, espresse e implicite, delle aziende utenti. Ci aiutano i rappresentanti di due realtà leader in ambito metrologico, direttamente coinvolte nel processo di cambiamento in atto, non solo nell’offerta ma anche nella domanda.

L’INTEGRAZIONE…FA LA FORZA! Intervista ai vertici commerciale e marketing di Hexagon Manufacturing Intelligence Italia Poco più di un anno e mezzo fa avevamo pubblicato la seconda “chiacchierata” con Bruno Rolle e Levio Va letti, rispettivamente General Manager e Marketing & Communication Ma nager della Divisione Commerciale Italia di Hexagon Manufacturing Intelligence. Un’intervista a tre voci che si ripeteva a distanza di un anno e mezzo dalla prima edizione, con lo scopo di proporre ai nostri lettori lo stato dell’arte aggiornato dell’offerta di soluzioni per l’acquisizione dei dati, in ambito sia di produzione sia di controllo e collaudo finale. Ed eccoci nuovamente a confrontarci con i nostri due gentili (e ormai tradizionali) interlocutori, per fare un nuovo punto della situazione a tutto vantaggio dei potenziali utenti di questi sistemi e soluzioni, certamente desiderosi di conoscere se e in quale misura le strategie di Ricerca & Sviluppo e Commerciali dei grandi player in ambito metrologico tengano in dovuto conto le reali esigenze di tutti i clienti, anche di quelli di piccole dimensioni, e di

conseguenza come stiano muovendosi per soddisfarle al meglio. D.: Ci eravamo lasciati con la descrizione di uno scenario dominato, da un lato, dalla politi-

ca di acquisizione di piccole società specializzate da parte delle grandi multinazionali, finalizzata a aumentare le competenze e quindi anche a ampliare il mercato potenziale, e dall’altro dal rapido cambiamento del focus principale, dalla quantità alla “qualità” del dato. Dopo un anno e mezzo cos’è cambiato…? (B. Rolle) L’obiettivo per i fornitori del settore (che peraltro è frutto delle esigenze espresse e implicite dei clienti) è sempre più la “qualità del dato”, mettendo in condizioni il cliente, magari semplicemente premendo un tasto, di entrare in possesso di quei pochi numeri che gli servono veramente per gestire al meglio la propria azienda in ottica competitiva. Oggi dobbiamo essere capaci di interfacciare qualsiasi strumento in grado di generare dati, registrare le informazioni e elaborarle grazie ai nostri software, offrendo al responsabile dell’azienda l’opportunità di conoscere in ogni momento l’esatta situazione, con semplicità, precisione e immediatezza. Per fare questo, ovviamente, è fondamentale disporre delle migliori competenze e, in quest’ottica, continua e si incrementa il trend di acquisizioni mirate di cui davamo conto nella scorsa intervista, non solo da parte di Hexagon. La nostra più recente acquisizione è quella della società statunitense Catavolt, una start-up che sviluppa APP finalizzate proprio alla visualizzazione dei dati di specifico interesse: ad esempio, il manager d’azienda, che si trova a New York per lavoro, può monitorare in tempo reale la produttività di ciascuna macchina ubicata negli stabilimenti produttivi del Gruppo in ogni parte del mondo. E, magari, usando un tool di diagnostica che evidenzia i parametri di funzionamento della singola macchina, può T_M

N.

T_M 91 2/19 ƒƒ91


s

NEWS

IL PRIMO LASER TRACKER CON SCANSIONE 3D INTEGRATA È stata recentemente presentata la nuovissima linea Leica Absolute Tracker ATS600 di Hexagon Manufacturing Intelligence, che introduce un nuovo tipo di strumento metrologico, quello dei laser tracker che sono in grado di effettuare scansioni anche senza riflettore. Il nuovo strumento può scansionare una superficie con precisione metrologica fino a 40 metri di distanza, senza la necessità di target, spray, riflettori o sensori. Seguendo le orme del Leica Absolute Scanner LAS-XL rilasciato nel 2017, l’ATS600 fornisce il grado di precisione richiesto dalle applicazioni di misura specifiche, con un maggiore focus su semplicità di misura e velocità di elaborazione. Aree in precedenza di difficile accesso, si misurano ora in modo semplice senza neppure la necessità di riposizionare il tracker. Mentre le superfici che in passato avrebbero richiesto ore di scansione manuale, possono essere ora digitalizzate in pochi minuti. “Siamo sempre molto focalizzati sulla facilità d’uso. La produttività in tutto il nostro processo di ricerca e sviluppo e la scansione a portata estesa è un concetto molto interessante per noi”, afferma Matthias Saure, Laser Tracker Product Manager in Hexagon. “Come già il LAS-XL in precedenza, l’ATS600 cambia in modo radicale la portata della scansione non-contatto come la inten-

T_M ƒ 92

diamo noi. Sappiamo che gli utilizzatori sono sempre più interessati a digitalizzare i componenti per garantire in modo assoluto la qualità di produzione e pensiamo che l’ATS600 sia un prodotto che possa veramente portare la digitalizzazione in nuovi campi della produzione industriale, e svolgere un ruolo chiave nell’estendere il ruolo dell’assicurazione qualità”. Il sistema identifica un’area di scansione all’interno del suo campo visivo e poi crea una griglia misurata in sequenza di punti che definiscono quella superficie, con precisione fino a 300 micron. La densità dei punti di misura è completamente personalizzabile. Gli utilizzatori possono quindi scegliere l’equilibrio ideale tra dettaglio e velocità del processo per la loro applicazione specifica. Il Leica Absolute Tracker ATS600 è unico nel fornire questa funzionalità con precisione metrologica e, contemporaneamente, una facile integrazione in processi di misura consolidati (il laser tracker è compatibile con tutte le principali piattaforme di software di misura). L’ATS600 offre anche tutte le caratteristiche dei laser tracker Hexagon esistenti, dalla portabilità e facilità d’uso alle funzioni chiave, come il PowerLock e la MeteoStation integrata. Per ulteriori informazioni: www.hexagonmi.com.


N. 02ƒ ;2019 (L. Valetti) A partire dal 2000 (quando comprendeva 4 grandi realtà: DEA – Leitz – Brown & Sharpe – TESA), Hexagon ha già portato a termine ben più di 100 acquisizioni, società ubicate in ogni parte del mondo e operanti in vari segmenti di mercato (anche se con un’ovvia prevalenza di software house specializzate), ciascuna in grado di portare valore aggiunto all’offerta globale del gruppo. Confermo che in ogni caso si è trattato di realtà acquisite non per eliminare un concorrente, bensì per migliorare il nostro livello di competenza nel loro settore e, naturalmente, garantire un ritorno rapido agli investitori. Aziende che sanno lavorare bene e continueranno a farlo negli anni, al servizio delle aziende del gruppo Hexagon

e di tutti i loro clienti, ciascuna delle quali ha un proprio parco clienti acquisiti e, di conseguenza, una propria struttura commerciale. Risulta quindi evidente anche l’enorme potenzialità a livello commerciale derivante da queste acquisizioni, che tuttavia può tradursi in vantaggi realmente rilevanti solo se si riesce a attuare una stretta integrazione fra le società del Gruppo, e quindi fra le varie strutture commerciali, e una modalità di approccio comune e sinergica fra funzionari che fino a ieri sono andati a parlare di software CAD/CAM a un target prevalentemente di responsabili di uffici tecnici, oppure di soluzioni di misura e controllo a responsabili qualità, mentre da oggi possono presentarsi a uno stesso cliente come fornitori globali di soluzioni per migliorare la produttività dell’azienda utilizzando i dati di qualità. (B. Rolle) Una grande “potenza di fuoco”, se mi si consente questo paragone, che va però in primo luogo motivata, coordinata e gestita. A questo proposito è interessante notare come debba cambiare profondamente il nostro approccio commerciale, a partire dall’età media dei nostri venditori (scesa negli ultimi anni da 42/43 a 37/38 anni) e al loro skill, sempre più rivolto al “problem solving” piuttosto che alla vendita pura. Un tecnico commerciale, quindi, in grado di ascoltare e interpretare le precise esigenze del cliente, traducendole in proposte operative che coinvolgano anche altre realtà del Gruppo. Un tecnico commerciale che applichi il metodo “Look left and right”, moltiplicando la “portata” del singolo contatto, ottimizzandolo anche a vantaggio di altre realtà del Gruppo, e la sua efficacia complessiva. Ben vengano i commerciali “che sanno aprire le porte delle aziende clienti”, ma con alle spalle una struttura evoluta di supporto e assistenza. Per chiarire con un esempio concreto le dimensioni di questo cambiamento di skill, basti pensare che oggi un tecnico “meccatronico” è sufficiente a accompagnare una macchina dal cliente, mentre in passato occorreva al suo fianco un tecnico “elettronico”… D.: Come nelle precedenti interviste, potreste presentare ai lettori qualche dato reale riguardante il vostro mercato italiano…?

s

gestirne la manutenzione predittiva: se i dati indicano che uno dei componenti è a rischio o prossimo a dover essere sostituito, automaticamente l’informazione è trasferita al sistema informativo aziendale che gestisce gli acquisti; il responsabile deve solo approvare l’operazione, senza alcuna ulteriore incombenza da svolgere. D.: Molte acquisizioni significano maggiori competenze disponibili e maggiori mercati di sbocco, ma immaginiamo che tutto ciò richieda grandi sforzi a livello d’integrazione, giusto…?

IL TEMA

(B. Rolle) L’obiettivo 2018, che prevedeva un incremento del fatturato Italia del 10%, è stato pienamente rispettato: circa 34 milioni di euro, contro i 30 milioni del 2017. Nell’ambito del Gruppo, siamo al terzo posto in classifica, dietro la Germania e a ridosso della Francia. E aggiungo con soddisfazione che siamo al primo posto assoluto per quanto riguarda il primo trimestre 2019: risultato parziale ma molto significativo e incoraggiante, soprattutto se si considera che l’effetto del piano “Industria 4.0” quest’anno sarà molto più tiepido, in quanto la maggior parte dei clienti hanno già effettuato gli investimenti supportati dagli incentivi. A livello di “settori di mercato”, a fronte di una certa stagnazione nel comparto Automotive, vanno rilevati i segnali di crescita ben visibili nel comparto Aerospace (dove possediamo competenze di assoluta eccellenza, in ambito sia di strutture sia di motori), nel Medicale (ci stiamo approcciando ora, soprattutto nei distretti di Mirandola, Brescia e Latina/Frosinone) e Oil & Gas (piattaforme, sistemi petroliferi, ecc.). D.: Per finire, due parole sul “cliente PMI”, che nel nostro Paese rappresenta una percentuale intorno al 95% delle aziende totali… (B. Rolle) Naturalmente l’approccio al cliente medio/piccolo richiede da parte nostra particolare cura e attenzione, ma soprattutto la capacità di offrire loro le competenze e il supporto tecnico che non possiedono o che non hanno mai posseduto. È il “problem solving” di cui parlavamo prima, il cui valore aggiunto si evidenzia ancora più significativamente nel caso di un cliente di piccole e medie dimensioni. (L. Valetti) E, per concludere, non sottovalutiamo l’importanza per una PMI di poter avere un fornitore abituato a servire le grandi aziende, che quindi possa contribuire a farla crescere e, parallelamente, sia disposto a trattarla con pari dignità. Questa è la chiave per essere fornitori leader, anche nel mercato italiano, così particolare! Per ulteriori informazioni: www.hexagonmi.com T_M ƒ 93


N. 02ƒ ; 2019

s

IL TEMA

STRATEGIE E SCENARIO DEL TEST & MEASUREMENT Intervista a Joe Vorih, neo-presidente del gruppo HBK-Hottinger Brüel&Kjaer

NEWS

t

La seconda intervista, mirata sul tema principale di questo numero di TUTTO_ MISURE, vede come protagonista Joe Vorih, nuovo presidente del gruppo HBK, realtà di spicco in campo metrologico, che comprende società leader in specifici ambiti delle misure e delle prove, come HBM Hottinger Baldwin Messtechnik e Bruel & Kjiaer Sound & Vibration, entrambe di proprietà di Spectris PLC, e altre realtà di minori dimensioni ma tutte quante ai vertici dello specifico comparto d’attività. Vorih, recentemente nominato al vertice di questo gruppo industriale dopo aver svolto con successo il ruolo di pre-

MISURA E CONTROLLA “CON UN CLIP” ClipX è il nuovo condizionatore di segnale industriale HBM, preciso e di facile integrazione Si chiama ClipX il nuovo condizionatore di segnale di ultima generazione proposto da HBM per effettuare misurazioni di forza, coppia, pressione e di molte altre grandezze, rendendo disponibili tutte le moderne interfacce in un unico modulo! Grazie alla classe di precisione 0,05, il condizionatore di segnale immune alle interferenze ClipX ha stabilito nuovi standard nell’ambito del controllo di processo industriale. ClipX si adatta a tutti i compiti di misura, indipendentemente dal fatto che venga utilizzato con applicazioni a canale singolo o multiplo, in macchinari di produzione, su banchi prova o nel monitoraggio della produzione. Grazie al principio Plug and Play, è possibile collegare contemporaneamente fino a sei dispositivi in una configurazione modulare e calcolare preventivamente i dati misurati. Ecco le principali caratteristiche dello strumento:

T_M ƒ 94

sidente in Spectris, è statunitense ma ha trascorso buona parte della propria adolescenza e svolto i propri studi superiori in Italia, soprattutto a Roma, e quindi, oltre a parlare benissimo la lingua italiana, conosce molto bene i nostri comportamenti, umani, sociali, commerciali e industriali. Un’occasione più unica che rara per ottenere anticipazioni di prima mano, preziose per gli utenti di soluzioni e servizi di T&M, in particolare focalizzate sul mercato italiano. D. Mr. Vorih, grazie per la disponibilità innanzitutto! I nostri lettori sono doppiamente interessati a quanto ci sta per raccontare relativamente alle strategie che sottintendono all’evoluzione del gruppo HBK e allo sviluppo organizzativo, grazie anche alla sua approfondita conoscenza delle

– Classe di precisione: 0,05; – Input di misura: Estensimetri full-bridge e half-bridge, trasduttore piezoresistivo, potenziometro, Pt100, corrente e tensione; – Interfacce: PROFINET, EtherCAT®, PROFIBUS, Ethernet/IP™, analogica, I/O digitale (V/mA,) e Ethernet (TCP/IP); – IIoT (Industrial Internet of Things): Diagnosi in remoto, integrazione web

e archiviazione dati sul Cloud tramite l’interfaccia OPC-UA. Per per ulteriori informazioni e per guardare il breve filmato di presentazione: www.hbm.com/it/7077/condizionatoredi-segnale-preciso-e-di-facileintegrazione


N. 02ƒ ;2019

più indispensabile cercare “in outsourcing” le conoscenze non più presenti in azienda, quindi presso il fornitore che, a questo punto, deve essere in grado di assurgere al ruolo di partner. Ora, tornando alla realtà italiana, popolata di PMI, è lecito domandarci se il piccolo cliente possa avere sufficiente potere d’acquisto per interessare il grande fornitore… La risposta, per quanto ci riguarda, è tassativamente affermativa: HBK è un grande fornitore, al quale interessano allo stesso modo i clienti di qualsiasi dimensione e, in tale ottica, strutturato e organizzato per poter svolgere efficacemente tale ruolo ottenendo la soddisfazione di ogni cliente. Ciò significa continui investimenti, non solo nella Ricerca ma anche nella formazione dei propri tecnici, che devono poter garantire ritorni importanti, principalmente nella fidelizzazione dei clienti. Un esempio italiano di partnership fra azienda cliente e fornitore è quello che vede attualmente impegnata HBM al servizio di Loccioni spa, azienda specializzata marchigiana che ha recentemente realizzato nuove sale per il testing di sistemi di trazione completi (endotermici, ibridi o elettrici). Il sistema eDrive GEN7ta di HBM, corredato di schede GN610B e Perception Software, è risultato essere perfetta per tali am bienti di sviluppo, grazie alla semplice integrazione del sistema di acquisizione con i sensori, i torsiometri a flangia e i trasduttori di corrente a ef fetto hall di cui Loccioni era già dotata. D. Tutto ciò, magari, in

s

“cose” italiane. Ma andiamo per ordine, e vediamo di iniziare con una breve presentazione del gruppo che da qualche settimana la vede sulla plancia di comando. (Joe Vorih) Il nostro gruppo nasce con l’intento di ampliare gli investimenti in T&M da parte di Spectris, da anni impegnata a fondo in quest’ambito, attraverso acquisizioni mirate in grado di ap portare ulteriori competenze e conoscenze a favore di clienti operanti in svariati settori applicativi, a cominciare da quelli principali: automotive, aerospace & defence, impiantistica. HBM e Brüel & Kjaer sono leader globali sul mercato nelle rispettive aree di competenza: rispettivamente l’affidabilità, lunga durata, efficienza della propulsione, caratteristiche elettriche, controllo dei processi industriali e pesatura per HBM, gestione del suono, rumore e vibrazioni per BKSV. Con la fusione fra le due aziende, ufficializzata il primo gennaio 2019, si è gettata una solida base, composta dal meglio delle due aziende e delle loro rispettive abilità. Il cambiamento in atto viene ulteriormente evidenziato anche dal nuovo nome del gruppo: HBK (Hottinger, Brüel & Kjær). Unendo le forze dei due leader del mercato nei rispettivi ambiti di interesse, HBK avrà la forza e le competenze utili per guidare attivamente la trasformazione digitale dei clienti dei vari settori e sarà in grado di dare un valore ancora maggiore ai clienti in tutto il mondo. D. Una strategia che sembra calzata sulle esigenze di una clientela di fascia alta: non ri schia di risultare fuori portata per molti clienti italiani, soprattutto quelli di piccole e mediopiccole dimensioni, che peraltro rappresentano la gran parte delle realtà manifatturiere del nostro Paese…? (Joe Vorih) Non dimentichiamo che negli ultimi anni, non solo in Italia, si è drasticamente ridotto il numero di ingegneri in dotazione alle aziende e, nello specifico, in possesso di adeguate competenze in ambito Test & Measurement. Questo cambiamento “strutturale” ha via via reso sempre

IL TEMA

uno scenario ideale in cui il fornitore/partner in ambito Test & Measurement sia anche “unico” fornitore per tutta la catena di misura…?! (Joe Vorih) Il nostro progetto di sviluppo organizzativo punta proprio in tale direzione e, in questo senso, va letta l’acquisizione di società operanti in ambiti non prettamente metrologici, come quella recentissima dell’italiana Vi-grade, giovane società friulana esperta nella simulazione e virtual testing, molto specializzata nel settore automotive (simulazione e drive testing finalizzati alla R&S nel settore). In passato, HBM e BKSV erano focalizzati sui sensori, mentre hanno progressivamente spostato la propria attenzione sull’analisi dei dati, sempre più attenti al mondo della simulazione affiancato a quello del testing. In questo contesto, l’esigenza non è tanto quella di acquisire montagne di dati quanto di poterli leggere e interpretare, e di avere un unico fornitore di T&M evitando il data-chaos. I tecnici della società fornitrice devono saper supportare i dirigenti dell’azienda cliente che oggi sono sufficientemente esperti riguardo al comporta-

T_M ƒ 95


mento di un autoveicolo ma non altrettanto dei test necessari a questo scopo. Poc’anzi segnalavo proprio questo importante cambiamento in atto nelle aziende italiane di questa e altre filiere e alla soluzione ottimale insita in una nuova figura (sempre più emergente) di fornitore/partner, in grado di supportare il cliente e fornirgli tale servizio a valore aggiunto compreso nel prezzo del prodotto. Con un unico fornitore per tutta la catena di misura anche il cliente ritenuto “piccolo” può diventare “interessante” e in grado di remunerare l’investimento in know-how che il fornitore stesso è obbligato a fare quotidianamente. Il modello di fornitore/partner al quale vogliamo ispirarci non è, quindi, né la società molto grande ma poco flessibile (focalizzata sul cliente di grandi dimensioni) né tanto

T_M ƒ 96

N. 02ƒ ; 2019

n

IL TEMA

meno quella piccola in grado di fornire solo uno o comunque pochi strumenti/servizi, bensì quella che di spone di adeguate competenze e conoscenze e di adeguate risorse umane specializzate. D. La “battaglia” dei fornitori di T&M continua, dunque, sempre più aspra ed evoluta ma anche a vantaggio del mercato…? (Joe Vorih) Ritengo proprio di sì, anche perché l’importanza del Test & Measurement nel modello di impresa competitiva è sempre più riconosciuta e la metrologia è sempre più inquadrata con pari dignità rispetto a tutti gli altri strumenti aziendali. Si sta passando decisamente dalla sfera della semplice conformità al valore aggiunto che T&M sono in grado di portare, ad esempio, a livello di abbattimento del time-to-market, all’in-

cremento della sicurezza, dell’affidabilità, della qualità di un mezzo di trasporto. Ma non dimentichiamo la “cultura metrologica”, sche occorre diffondere con sempre rinnovato impegno a favore di tutto il sistema produttivo, e non solo. E permettetemi di chiudere affermando, con cognizione di causa, quanto importante e arricchente possa essere per HBK (e per tutte le società concorrenti) “misurarsi” (mi scuso per il gioco di parole, tutt’altro che casuale…) con il mercato italiano degli utenti di T&M, non soltanto per gli aspetti evidenziati finora ma anche perché la metrologia è parte integrante della storia del mondo, nel cui contesto è evidente il ruolo primario svolto dal vostro Paese. Per ulteriori informazioni: www.hbm.com


s

METROLOGIA FORENSE

GLI ALTRI TEMI

Alessandro Ferrero1, Chiara Graffer2

Il magnete è innocente Una sentenza di assoluzione del Tribunale di Verona

MAGNETS ARE INNOCENT – A RELEASE SENTENCE BY VERONA’S COURT This journal has already published a paper that doubted the capability of external magnetic fields to alter the energy measurement of the digital energy meters installed in Italy, despite the high number of people prosecuted for having tampered the energy meters with a magnet. This paper reports on a recent sentence with which Verona’s court released the defendant on the basis of technical considerations. RIASSUNTO Questa rivista ha già pubblicato un articolo in cui la capacità di un magnete di alterare le misure eseguite da un moderno contatore digitale veniva posta in forte dubbio, nonostante l’elevato numero di denunce per furto aggravato di energia con magnete. Questo articolo relaziona su una recente sentenza del Tribunale di Verona che ha assolto, sulla base di considerazioni tecniche, un imputato per furto aggravato di energia, perché “il fatto non sussiste”.

PREMESSA

Questa rivista si è già occupata, in passato, dei tentativi di manomissione dei contatori di energia elettrica e di conseguente furto di energia per mezzo di potenti magneti appoggiati sulla faccia superiore dell’involucro del contatore [1]. In quella sede si erano espressi forti dubbi, basati su considerazioni teoriche, sui possibili effetti di un campo magnetico stazionario su trasduttori elettromagnetici di tensione e corrente e si era giunti alla conclusione, peraltro suffragata dalle prescrizioni della vigente norma di legge [2], che l’effetto di tale campo, su un contatore progettato secondo lo stato dell’arte e la buona pratica, fosse del tutto trascurabile. Tuttavia, l’elevato numero di casi di persone denunciate e sottoposte a procedimento penale per furto aggravato di energia, a seguito del rinvenimento di magnete posto sul contatore in occasione di verifiche tecniche sugli stessi contatori condotte dai distributori di energia elettrica, aveva fatto fortemente dubitare o dell’analisi teorica condotta, o della buona progettazione del contatore. È poi capitato, agli autori di questo arti-

colo, di occuparsi, in qualità di difensore e di consulente tecnico di parte, di un caso emblematico di denuncia per presunto furto aggravato di energia con conseguente processo penale che, fortunatamente – non solo per l’imputato, ma anche per spazzare i dubbi sulla correttezza delle considerazioni teoriche svolte – si è concluso con l’assoluzione dell’imputato perché “il fatto non sussiste” (NdA: è la formula assolutoria più ampiamente liberatoria, che indica come non risulti provato alcuno degli elementi integrativi della fattispecie criminosa, dunque né l’elemento oggettivo né l’elemento soggettivo) e, per traslato, con l’”assoluzione” del magnete dall’accusa di alterare le misure. I FATTI

locale stazione, a effettuare la verifica di un contatore di energia elettrica installato presso un ristorante. Rinvengono un magnete posto sul contatore e, a seguito di verifica effettuata con contatore a confronto, verbalizzano una fraudolenta riduzione “del 62% circa di energia attiva” e “dell’84% circa di energia reattiva”. Magnete e contatore vengono posti sotto sequestro giudiziario e il titolare del ristorante indagato “in ordine al delitto di cui agli artt. 624 e 625 n.2 C.P.”. In parole povere, per furto aggravato. L’indagato ammette di aver posto il magnete sul contatore, ma con motivazione ben diversa. Ha installato nel locale un nuovo aspiratore che occasionalmente, quando si avvia, probabilmente, riteniamo noi, per un abbassamento di tensione causato dalla corrente di spunto, va in protezione, con conseguente propagazione del fumo nel locale. Né l’installatore dell’aspiratore, né il distributore sono in grado di risolvere il problema. In occasione di uno di questi eventi, un avventore occasionale suggerisce di apporre il magnete sul contatore per risolvere il problema e vende il magnete all’indagato. A conclusione delle indagini, l’indagato viene rinviato a giudizio con l’imputazione del reato di cui ai sopra citati artt. 624 e 625 n.2 C.P. Nel frattempo il distributore informa il fornitore di energia elettrica delle risultanze della verifica effettuata, ponendo arbitrariamente a un anno prima della verifica l’inizio dell’asserito irregolare prelievo, che viene quantificato in circa 17000 Euro e che l’imputato corrisponde al fornitore per non avere pendenze.

Siamo sulla sponda veneta del lago di Garda. In una sera d’estate di qualche anno fa – restiamo volutamente nel vago per proteggere la privacy di chi è stato coinvolto in questa vicenda – i tec- 1 Politecnico di Milano nici del distributore che alimenta le alessandro.ferrero@polimi.it utenze elettriche della zona si recano, 2 Avvocato - Foro di Trento accompagnati dai Carabinieri della chiara.graffer@gmail.com T_M

N.

2/19 ƒ 97


Nelle fasi iniziali dell’indagine, la Procura, su richiesta della difesa, dispone perizia tecnica sul contatore per verificare se la presenza del magnete possa realmente alterare la misura. Viene incaricato un laboratorio accreditato che tuttavia non può effettuare la prova richiesta perché il contatore, una volta alimentato, probabilmente per la presenza di qualche protezione anti frode, si disinserisce automaticamente non appena viene percorso da corrente. L’ANALISI TECNICA

t

A questo punto del procedimento la difesa chiede al proprio consulente tecnico un’approfondita analisi tecnica del verbale di verifica e dello storico dei consumi. Come vedremo, questa analisi ha fornito le basi tecniche per la

NEWS

NUOVI RUGOSIMETRI COMPATTI CON RISOLUZIONE DI 0,1 NM

Accretech ha recentemente presentato i nuovi modelli di rugosimetri Surfcom Touch, flessibili, per gli ambienti di produzione e la sala metrologica, progettati in particolare per le piccole e medie imprese. Gli strumenti di misurazione di questa gamma sono contraddistinti da un’estrema semplicità di utilizzo, elevata precisione e flessibilità di impiego, che li rendono adatti a soddisfare diverse esigenze. ACCRETECH, focalizzandosi particolar-

T_M ƒ 98

N. 02ƒ ; 2019

s

GLI ALTRI TEMI

sentenza, avendo riscontrato numerose evidenti incongruenze. Una prima, macroscopica incongruenza che balza immediatamente all’occhio è l’inconsistenza dei valori riscontrati di riduzione dei consumi. Il 62% di riduzione nella misura dell’energia attiva e l’84% di riduzione nella misura dell’energia reattiva porterebbero, nella ricostruzione dei presunti valori reali, a un incremento di energia reattiva di 6,25 volte il valore misurato e a un incremento di energia attiva pari a 2,63 volte il valore misurato, con conseguente crollo del fattore di potenza a valori compresi tra 0,6 e 0,7, palesemente impossibili per i carichi elettrici tipicamente installati in un ristorante. Questa prima riflessione ha quindi portato a un’analisi molto più approfondita delle modalità con cui è stata condotta la verifica. È subito balzata all’occhio una seconda incongruenza:

non è stata effettuate una verifica in assenza di magnete. Si è dato per scontato, senza nessun elemento tecnico a sostegno della tesi, che la riduzione dei consumi rilevata fosse dovuta alla presenza del magnete, non ripetendo la prova in sua assenza per escludere che la riduzione dei consumi non fosse dovuta a difetti del contatore. Non si è poi provveduto a valutare e dichiarare l’incertezza di misura, nonostante la pertinente norma tecnica, cioè la norma CEI 13-4:2005-02 “Sistemi di misura dell’energia elettrica – Composizione, precisione e verifica” indichi chiaramente, all’art. 9, che “che “la valutazione dei risultati dovrà tener conto dell'incertezza insita nel procedimento di verifica”. La necessità di dichiarare l’incertezza di misura è implicitamente richiamata dallo stesso verbale di verifica in cui si dichiara che la riduzione dei consumi

mente sulla facilità di utilizzo, ha sviluppato un’unità di visualizzazione unica nel suo genere, dotata di un ampio display touch a colori da 7 pollici, che può essere utilizzata con i vari modelli della serie. Il ciclo completo di misurazione (dalla messa in punto del tastatore sino alla stampa dei dati di misurazione) è stato progettato all’insegna della semplicità e della sicurezza. Oltre alla taratura della sonda, è possibile controllare anche l’usura della punta, con un una funzione chiamata “controllo stilo”. Durante il processo è possibile quindi memorizzare le condizioni di misurazione, i parametri e gli ulteriori valori delle impostazioni utilizzati per il pezzo misurato, e ripristinarli in qualsiasi momento. Al termine di ogni ciclo di misurazione, l’utente è in grado di visualizzare sul display a colori la curva di rugosità o del profilo: a seconda dei parametri preimpostati i risultati vengono pertanto immediatamente classificati con I.O. (“Regolare”) oppure N.I.O. (“Non regolare”).

– SURFCOM TOUCH 50: si contraddistingue per la sua elevata precisione: vanta infatti una risoluzione fino a 0,0001 μm e un’area di misurazione Z massima fino a 1.000 μm (2.000 μm in caso di braccio di tastatura con lunghezza doppia), con una precisione di azionamento dell’asse X di 0,3 μm e una lunghezza di misurazione fino a 50 mm. – SURFCOM TOUCH 550: modello top di gamma, sistema semiautomatico di misurazione della rugosità con il controllo automatico degli assi Z e X e che vanta gli stessi eccellenti parametri di precisione del mod. 50. Per avviare il programma di misurazione è sufficiente premere un pulsante, il pezzo viene portato in posizione e dopo il contatto viene eseguita la misurazione. Successivamente, il sistema di tastatura si allontana di nuovo dal pezzo e analizza la misurazione. Per ulteriori informazioni: www.accretech.eu.

Cinque modelli diversi per innumerevoli ambiti di misurazione – SURFCOM TOUCH 35/40/45: portatili, di ridotte dimensioni e dotati di tecnologia a pattino, sono ideali per le misurazioni nell’ambito della linea di produzione, in alternativa ai tastatori di misurazione;


N. 02ƒ ;2019

s

è stata “del 62% circa” per l’energia attiva e “dell’84% circa” per l’energia reattiva. È ben noto, a chi si occupa di misure, che l’unico modo per quantificare l’approssimazione dei risultati di misura è quello di valutarne l’incertezza. Apparentemente questo punto risulta ancora oscuro a chi fa misure per conto del distributore… La terza macroscopica incongruenza sta nelle modalità di verifica verbalizzate. In Fig. 1 è riprodotta la parte di verbale in cui si dichiara di aver eseguito la verifica a carico reale, con fattore di potenza pari a 0,8. Ma subito sopra sono riportati i valori misurati delle tensioni e correnti di fase e gli sfasamenti tra tensione e corrente. Balza subito all’occhio che, per sfasamenti misurati di 18° e 19° (a seconda della fase considerata), il fattore di potenza è pari a 0,95, ben diverso da quello a cui si è dichiarato di aver eseguito la misura. Quale credibilità può avere un verbale che si contraddice in modo così palese e evidente? Credibilità che svanisce completamente alla luce di due ulteriori considerazioni. Dalle foto del contatore sequestrato si evince che lo stesso, avendo la marcatura metrologica M, come indicato in Fig. 2, era omologato secondo i requisiti della MID e della sua legge di recepimento italiana [2]. Orbene, la MID, sia nella versione 2004, nella Tab. 3 dell’All. MI-003, sia nella versione 2014, nella immutata Tab. 3 dell’All. V, prescrive che in presenza di campi magnetici (senza ulteriore specificazione sull’entità di tali campi) l’errore commesso dallo strumento non superi l’errore massimo ammissibile per più del ±2% per i contatori della stessa classe di quello installato presso l’utenza dell’imputato. Pertanto, tenendo conto della classe di accuratezza di questi contatori, l’errore in presenza di campo magnetico non può superare il ±4%, ben lontano dal –62% rilevato in sede di verifica dai tecnici del distributore. Dobbiamo pensare che l’omologazione di quei contatori non sia stata correttamente eseguita, o dobbiamo ritenere più plausibile qualche macroscopico errore in sede di verifica? Che la seconda ipotesi sia quella corretta emerge dall’ultima considerazio-

GLI ALTRI TEMI

Figura 1 – Parte del verbale di verifica in cui si riscontrano palesi incongruenze tra valori dichiarati e valori rilevati

Figura 2 – Particolare dei dati di targa del contatore. La qualità della foto è scadente, ma si è volutamente utilizzata la foto agli atti

ne tecnica: l’analisi dei consumi dell’utenza asservita a quel contatore nel periodo di presunto prelievo irregolare e nei periodi precedenti e successivi. L’andamento dei consumi è indicato in Fig. 3, dove la linea rossa indica i consumi ricostruiti dal distributore. È evidente l’andamento fortemente stagionale dei consumi, quasi nulli nei mesi invernali di bassissimo afflusso di turisti, e è altrettanto evidente che i consumi, lungi dal diminuire nel periodo di maggior prelievo, si mantengano costanti, con una tendenza a aumentare nel corso degli anni. Se, in via del tutto ipotetica, si potrebbe pensare che anche i consumi preceden-

Figura 3 – Andamento dei consumi misurati dal contatore nel periodo di presunto prelievo irregolare e nei periodi precedente e successivo (curva blu) e consumi ricostruiti dal distributore nel periodo di presunto prelievo irregolare (curva rossa)

T_M ƒ 99


N. 02ƒ ; 2019

Tecnologia in Movimento P R E C I S I O N E , A F F I D A B I L I TA’ ED INNOVAZIONE

ti possano essere stati influenzati dalla presenza del magnete, dal momento che la data di inizio del presunto prelievo irregolare avrebbe potuto essere posta a un anno prima della verifica non sulla base di considerazioni tecniche, ma in maniera del tutto arbitraria, certamente non è possibile mettere in dubbio la correttezza dei consumi successivi alla rimozione del magnete. Se il magnete avesse avuto l’effetto dichiarato dal distributore, in corrispondenza della sua rimozione i consumi sarebbero dovuti aumentare di 2,6 volte e non diminuire, come appare dal grafico, per poi portarsi sugli stessi livelli dei consumi storici. L’inattendibilità della ricostruzione dei consumi operata dal distributore appare evidente dal confronto con i consumi storici e quelli successivi alla rimozione del magnete e contemporanea sostituzione del contatore e non merita ulteriori commenti. LA SENTENZA

Per informazioni: Physik Instrumente (PI) S.r.l. Telefono +39 02 66501101 info@pionline.it · www.pionline.it

MOTION

T_M ƒ 100

|

POSITIONING

Le considerazioni esposte al paragrafo precedente sono state presentate al Giudice sia in sede di consulenza tecnica della difesa, sia in sede di discussione del caso e sono state recepite nella quasi totalità. Si legge infatti nella motivazione della sentenza, già passata in giudicato, che “il primo aspetto controverso attiene alla fondatezza dell'ipotesi accusatoria riguardante l'an e il quantum della sottrazione abusiva di energia elettrica mediante il sistema del magnete. Si tratta di un dato che non risulta assolutamente dimostrato”. Dopo aver sottolineato che gli atti di indagine si fondano unicamente su accertamenti di parte forniti dal distributore, il Giudice così argomenta: “Il fondamento di tale accusa non viene però corroborato da alcun elemento oggettivo e, al contrario, l'unico dato tecnico di cui si dispone, individuabile nell'elaborato del consulente tecnico della difesa, smentisce puntualmente i postulati che fondano l'ipotesi accusatoria specificando le lacune e contraddizioni della tesi accusatoria”. Viene quindi sottolineata la mancanza di verifica del funzionamento del contatore in assenza di magnete e, conseguentemente che: “tale genericità di dati comporta l'impossibilità di un effettivo riscontro sulle premesse dalle quali muovere essendo incompleti i dati necessari al fine di una corretta valutazione del fatto”. Il Giudice prende quindi in esame l’andamento dei consumi, sottolineando come essi “non permettano di rilevare scostamenti significativi dei consumi nel periodo di interesse rispetto a quelli non oggetto di contestazione da parte di Enel”. Inoltre, “tale oggettiva rilevazione contrasta in maniera evidente con l'intera tesi accusatoria che implicherebbe una diminuzione degli importi rispetto all'annata precedente quella contestata e un aumento di almeno la metà, data l'individuazione dell'errore del 62%, nell'anno successivo. Dall'esame degli atti in oggetto risulta nettamente insostenibile tale asserzione”. Il Giudice passa quindi a una disamina puntuale delle tesi della difesa e della consulenza tecnica evidenziando i


N. 02ƒ ;2019 un magnete possa alterare i valori misurati senza descrivere le interazioni tra magnete e dispositivi di misura basati su circuiti magnetici e senza poter quantificare queste interazioni in funzione di dimensione e posizione di questi circuiti è quanto di più estraneo a un rigoroso approccio scientifico. Anche in presenza di modello, i risultati di misura non hanno valore se non accompagnati dalla valutazione dell’incertezza di misura, condotta tenendo conto di tutti i contributi significativi. Questo è concetto ben noto nella buona pratica delle misure e conforta vedere che inizia a essere considerato anche nelle aule di tribunale. La sentenza ha anche ribadito un concetto che dovrebbe essere ovvio: misure e rilievi sperimentali devono essere condotti con estremo rigore e i dati riportati sui verbali o rapporti di misura devono essere scrupolosamente controllati, soprattutto quando da loro possono dipendere sanzioni penali, inclusa la restrizione della libertà individuale. Nel caso di specie sembra essere venuto meno anche il più elementare controllo dimostrando una leggerezza di comportamento tanto più grave in quanto proveniente da un ente che è sempre stato noto per l’elevata qualificazione delle sue maestranze e che, per questo, ha goduto di alta reputazione. Infine, si è ancora una volta dimostrato come le vicende giudiziarie che coinvolgono anche aspetti tecnici di una certa complessità, come la correttezza delle misure di energia su sistemi trifase, richiedano, per essere risolte, competenze non solo giuridiche, ma anche tecniche e che solo un buon gioco di squadra tra esperti tecnici e giuridici possa portare ai buoni risultati qui presentati. È un ulteriore elemento a favore della multidisciplinarietà che deve caratterizzare la CONCLUSIONI formazione e la qualificazione di tutte le figure professionali, soprattutto in un La vicenda di cui abbiamo qui brevemen- campo così delicato come la Giustizia. te riferito riporta in primo piano diversi concetti già discussi su questa rivista. Innanzitutto, nessun dato sperimentale RIFERIMENTI BIBLIOGRAFICI ha valore se non è confermato da un modello teorico dichiarato e validato. [1] A. Ferrero, Truffe con i contatori di Nel caso di specie, ritenere apodittica- energia elettrica, Tutto_Misure, vol. mente, sulla base di misure poi rivela- XVIII, n. 1, pp. 35-37, 2016. tesi mal condotte, che la presenza di [2] D.Lgs. 19 maggio 2016, n. 84,

n

diversi “macroscopici errori metodologici” (riferendosi a quelli qui riportati al precedente punto) e, soprattutto, il mancato rispetto della normativa tecnica. Scrive il Giudice, citando un passo della consulenza tecnica: “In particolare, non veniva riportato dagli ausiliari di P.G. il dato comprensivo dell'incertezza derivante dall'attività di misura avendosi quindi che ‘questo modo di presentare i dati di misuro viola la vigente normativa tecnica e la buona pratica delle misure e rende inaccettabili e inutilizzabili i risultati di misura’”. A conoscenza di chi scrive, è la prima volta che, in una sentenza, si fa riferimento alla necessità di riportare i dati di misura con la loro incertezza, senza la quale i valori misurati risultano inutilizzabili. Per chi da tempo si occupa di metrologia forense è indubbiamente un bel risultato. Infine, dopo aver sottolineato l’incongruenza del presunto errore di misura del –62% in presenza di magnete con le prescrizioni della MID, il Giudice conclude: “Tali considerazioni, dunque, permettono di ritenere inficiato il dato – rilevato in maniera atecnica ed empirica – offerto dalla società che erogava l'energia elettrica all'esercizio commerciale dell'imputato”. Riconoscendo poi che l’imputato aveva provveduto a estinguere il suo debito (a questo punto non dovuto, NdA) nei confronti del fornitore di energia elettrica determinato sulla base della ricostruzione effettuata dal distributore e considerando questo come ulteriore elemento a suo favore, indicativo dell’assenza di volontà di lucrare sui consumi elettrici, il Giudice assolve l’imputato del reato allo stesso ascritto perché il fatto non sussiste.

GLI ALTRI TEMI

Attuazione della direttiva 2014/32/UE concernente l'armonizzazione delle legislazioni degli Stati membri relative alla messa a disposizione sul mercato di strumenti di misura, come modificata dalla direttiva (UE) 2015/13. GU Serie Generale n.121 del 25-05-2016 – Suppl. Ordinario n. 16. Alessandro Ferrero è professore Ordinario di Misure Elettriche ed Elettroniche al Politecnico di Milano. Si occupa di misure sui sistemi elettrici di potenza, di elaborazione numerica di segnali, di metodi di valutazione ed espressione dell’incertezza di misura e di metrologia forense. Ha presieduto il GMEE nel triennio 2004-2007 e la Instrumentation and Measurement Society dell’IEEE nel biennio 2008-2009. È stato Editor in Chief delle IEEE Transactions on Instrumentation and Measurement dal 2012 al 2016. È l’attuale direttore di Tutto_Misure. Chiara Graffer si laurea cum laude in Giurisprudenza nel gennaio 2009 presso l’Università degli Studi di Trento. Nel corso degli studi universitari ha conseguito in Francia una “licence en droit et sciences politiques” (laurea breve) presso l’Université Paris XIII di Parigi (Francia); ha svolto un internship presso i Tribunali Penali Internazionali delle Nazioni Unite per l’ex Yugoslavia e il Rwanda, all’Aia (Olanda); ha svolto un tirocinio presso l’Ufficio del Giudice per le Indagini Preliminari presso il Tribunale di Trento. Dopo la Laurea ha conseguito il Diploma di Specializzazione per le Professioni Legali presso le Università diTrento eVerona. Ha conseguito il titolo di Avvocato nell’anno 2012 e a oggi è iscritta nella Lista Unica Nazionale dei difensori d’ufficio e nella lista per il Patrocinio a Spese dello Stato presso il Consiglio dell’Ordine degli Avvocati di Trento. Nel corso dell’attività professionale ha potuto seguire personalmente procedimenti a carico di importanti soggetti dell’economia e della finanza italiana e internazionale, che comprendevano reati quali false comunicazioni sociali, aggiotaggio, usura, truffa, reati fiscali, bancarotta fraudolenta, corruzione internazionale, concussione, abuso d’ufficio, e ancora reati relativi a incidenti sul lavoro o ambientali o alla contraffazione di marchi e di famose opere d’arte, oltre che reati contro la persona e il patrimonio. T_M ƒ 101


N. 02ƒ ; 2019

s

NEWS

SISTEMI DI NANOPOSIZIONAMENTO NEL CAMPO DELL’AUTOMAZIONE Le applicazioni in ambito industriale per i sistemi di posizionamento piezoelettrici ad alta precisione sono in costante aumento e la produzione di semiconduttori ne rappresenta un tipico esempio. PI (Physik Instrumente), ad esempio, offre il controllore digitale piezo E-727 in una nuova variante che, rispetto a quella precedente, può essere azionata mediante interfaccia EtherCAT, integrandosi così direttamente con tutti i controllori industriali della nostra divisione ACS Motion Control. Il nuovo controllore può quindi essere integrato nell’ambiente di automazione come “driver intelligente” per i sistemi di attuazione piezoelettrica, indipendentemente dal fatto che questi lavorino con sensori capacitivi, piezoresistivi o estensimetrici. Un controllore PI con due filtri notch ottimizzati per il funzionamento piezoelettrico consente un’elevata larghezza di banda di controllo (20 kHz). I servo-algoritmi intelli-

genti riducono al minimo i tempi di assestamento e ciò consente una ripetibilità nell’intervallo del subnanometro. Ulteriori dettagli del controllore digitale includono la linearizzazione polinomiale di 4° ordine per la meccanica e l’elettronica, un registratore di dati integrato, un chip ID per lo scambio rapido e veloce dei componenti del sistema e una compensazione di deriva programmabile. Inoltre, esiste la possibilità di una linearizzazione digitale dinamica. Questa funzione DDL riduce gli errori di spostamento di fase e di traiettoria a un livello indiscernibile nel caso di applicazioni a frequenza dinamica. Questo è importante per le applicazioni di scansione che devono identificare una determinata posizione e raggiungerla di nuovo in modo accurato. PI in Breve PI (Physik Instrumente) è da sempre una delle aziende di riferimento nel mercato globale per i sistemi di nano-posizionamento e da oltre 40 anni sviluppa e realizza prodotti standard e OEM, su tecnologie convenzionali e piezoelettriche. Acquisendo le quote di maggioranza di ACS Motion Control, fra i leader mondiale nello sviluppo e nella produzione di controllori di movimento modulari per sistemi di azionamento multi-asse e ad alta precisione, PI ha compiuto un importante passo in avanti nella fornitura di sistemi completi per applicazioni industriali con la più alta richiesta di precisione e dinamica. Per ulteriori informazioni: www.pionline.it.

NOVITÀ

IL PUNTO DI RIFERIMENTO DEFINITIVO PER LA METROLOGIA 3D PORTATILE Risultati precisi e ripetibili in condizioni reali Interfaccia utente semplice e visualizzazione delle mesh in tempo reale ,GHDOH SHU VXSHUÀ FL FRPSOHVVH

+39 02 89730645 l creaform3d.com

T_M ƒ 102


s

BAROMETRIA GRAVIMETRICA

GLI ALTRI TEMI

Leonardo Gariboldi

Un approccio storico alle misure di gravimetria barometrica La determinazione della gravità terrestre

AN HISTORICAL APPROACH TO BAROMETRIC GRAVIMETRY MEASUREMENTS The gravimeter designed and built by Aldo Pontremoli for the 1928 Italian scientific expedition in the Arctic lead to the conclusion of the secular attempts to measure the acceleration of gravity in each location on the Earth’s surface and to determine the shape of our planet from it. The experimental choices made by Pontremoli and the other scientists in the previous measurements strongly depended on the analysis of the measurement uncertainties. RIASSUNTO Il gravimetro progettato e costruito da Aldo Pontremoli per la spedizione polare scientifica italiana del 1928 permise di avviare alla conclusione i tentativi secolari di determinare l’accelerazione di gravità in ogni località sulla superficie terrestre e da ciò la forma del nostro pianeta. Le scelte strumentali compiute da Pontremoli e dagli altri scienziati nelle precedenti misure dipesero fortemente dall’analisi delle incertezze di misura.

INTRODUZIONE STORICA AL MOTO gnano della quantità di moto) anticipata da Giovanni Filopono nel VI DI CADUTA DEI GRAVI

Se i cosmologi e gli astronomi ellenici ed ellenistici raggiunsero un notevole successo nella descrizione dei moti celesti, un analogo successo non fu conseguito nello studio dei moti terrestri, tra questi in particolare quello di caduta dei corpi gravi. Strumenti matematici adeguati allo studio della caduta dei gravi furono formulati dai calculatores di Oxford nel XIV secolo, con l’enunciato del teorema della velocità media. Nello stesso secolo, a Parigi, Nicola d’Oresme utilizzò metodi geometrici, molto simili ai grafici cartesiani e alle tecniche di integrazione alla Riemann, per lo studio dei movimenti accelerati giungendo così a una descrizione cinematica completa del moto uniformemente accelerato (Tractatus de configurazione qualitatum et motuum). Un’analisi più dinamica del moto dei corpi gravi è identificabile nelle Quaestiones super octo Physicorum libros Aristotelis di Giovanni Buridano, sempre nella Parigi del XIV secolo, nella quale formula la teoria dell’impetus (un antesi-

inclinato muta esclusivamente il valore dell’accelerazione di caduta ma non la sua costanza ha permesso di avere a disposizione uno strumento per confermare sperimentalmente l’uniforme variazione della velocità durante la caduta. Il piano inclinato permette così di calcolare g dalla misura dell’angolo di inclinazione del piano e dell’accelerazione di caduta lungo il piano. Sempre con Galilei entra in uso un secondo strumento per la misura di g, il pendolo, la cui massa oscillante è di fatto un corpo in caduta vincolata su un piano inclinato con inclinazione continuamente variabile. Nell’approssimazione delle oscillazioni isocrone, il pendolo semplice permette di determinare g dalle misure della lunghezza l del filo e del periodo di oscillazione t secondo la semplice formula g = 4p2l/t2. L’orologio a pendolo, con il superamento del limite delle piccole ampiezze per avere oscillazioni isocrone grazie a un doppio vincolo cicloidale che variava opportunamente l durante ogni oscillazione ideato da Christiaan Huygens (1629-1695) (Horologium oscillatorium, 1673), divenne lo strumento principe per la misura di g. La teoria della gravitazione universale di Isaac Newton (1642-1727) (Philosophiae naturalis principia matematica, 1687) unificò il moto della caduta dei gravi sulla superficie terrestre al moto gravitazionale dei corpi celesti con la dimostrazione che l’orbita lunare attorno alla Terra è una traiettoria di caduta continua verso la Terra con un’accelerazione di caduta collegata a quella dei corpi gravi dalla relazione: g x R 2T = aLuna x d 2TL.

secolo nel suo commentario alla Physica di Aristotele. In assenza di misure, restava in dubbio che il moto di caduta fosse uniformemente accelerato o con velocità variabile in altro modo. È solo con lo studio della caduta dei gravi per mezzo di un piano inclinato con Galileo Galilei (1564-1642) che si può finalmente ricondurre il moto di caduta dei gravi a un moto uniformemente accelerato in assenza di attrito (Discorsi e dimostrazioni matematiche intorno a due nuove scienze attenenti alla mecanica & i movimenti locali, giornata terza, 1638). L’ostacolo principale a qualsiasi tentativo di identificare sperimentalmente il tipo di moto di caduta di un grave è dato dal valore dell’accelerazione di gravità g. Per quanto il valore di circa 9,8 ms-2 possa apparire innocuo a prima vista, in un’epoca precedente la possibilità di riprendere la caduta con una cinepresa tale valore rendeva di fatto impossibile determinare la posizione di un corpo in caduta libera già dopo Università degli Studi di Milano, i primi secondi. La dimostrazione da Dipartimento di Fisica parte di Galilei del fatto che il piano leonardo.gariboldi@unimi.it T_M

N.

T_M 103 2/19 ƒ ƒ103


N. 02ƒ ; 2019

s

GLI ALTRI TEMI

L’ACCELERAZIONE DI GRAVITÀ E posizione geologica del sottosuolo. mento. Durante la presa dati, la lunLA GEODESIA I principali problemi da affrontare nella ghezza del filo varia per dilatazione ter-

Lo stesso Newton dimostrò inoltre che, assunto il moto di rotazione assiale della Terra, la forma del nostro pianeta non poteva essere sferica, ma doveva essere schiacciata ai poli ed espansa all’equatore. Variando così il valore RT, data la costanza del prodotto g x R2T, ne conseguiva che g non è uniforme sulla superficie terrestre. Un possibile modo per determinare la forma del nostro pianeta consisteva così nel misurare g in luoghi a diversa latitudine. Una delle più importanti campagne di misura di g ebbe luogo durante la spedizione geodetica del 1735-45 in America equatoriale di Pierre Bouguer (1698-1758) e Charles Marie de La Condamine (1701-1774). La spedizione mise per la prima volta in evidenza anche le variazioni locali di g dovute alla diversa com-

T_M ƒ 104

misura di g richiedevano una valutazione degli effetti dell’aria (dinamici e termici) sul pendolo, della stabilità della struttura di sospensione, e della durata della presa dati. La misura del periodo avveniva con tecniche astronomiche, andando a contare il numero di oscillazioni del pendolo corrispondenti a una durata astronomica ben determinata, ad esempio la durata di un giorno sidereo (pari a circa 86.164 s). Per un pendolo il cui filo è lungo circa 1 m si tratta di contare circa 43.000 oscillazioni al giorno. Si può valutare pertanto, con una presa dati così lunga, un’incertezza relativa sul periodo di oscillazione dell’ordine di 10-5. Un’analoga incertezza sulla misura del filo richiede di determinarne la lunghezza con un’incertezza assoluta di 10-2 mm, impossibile da determinare a occhio nudo e su un pendolo in movi-

mica, pertanto occorre anche una misura molto frequente della temperatura. L’incertezza assoluta su g non poteva così mai essere inferiore a 10-2 ms-2. Solo alla fine del XIX secolo, utilizzando il pendolo reversibile, si poté giungere a un’incertezza di 10-5 ms-2 nelle misure che Friedrich Kühnen (1858-1940) e Philipp Furtwängler (1869-1940) eseguirono a Potsdam nel 1898-1904. Se il pendolo reversibile aveva portato a un risultato soddisfacente per quanto riguardava il problema dell’incertezza sulla misura di g, lo stesso non poteva essere detto per il complesso dei risultati ottenibili. Il vincolo necessario della stabilità della struttura di sospensione impediva di effettuare misure di g al di fuori delle terre emerse. Essendo il nostro pianeta coperto per due terzi da acqua soggetta a correnti, moti ondosi e mareali,


N. 02ƒ ;2019 IL BAROMETRO GRAVIMETRICO

Un barometro gravimetrico può essere schematizzato come in Fig. 1. La parte sinistra del tubo a U è una normale colonna barometrica in vetro, riempita di mercurio, chiusa in alto. Sopra la colonna Figura 1 – Schema di mercudel barometro gravimetrico rio si ha il vuoto barometrico (cioè un vuoto con una piccola quantità di vapori di mercurio). In un barometro normale, la parte destra del tubo a U è aperta in alto e sulla superficie del mercurio agisce la pressione atmosferica. All’equilibrio, alla quota B agisce la stessa pressione in entrambi i rami e si può determinare la pressione atmosferica dalla differen-

za tra le quote A e B secondo la formula: Patm = pHg (hA – hB)g. Una misura indipendente della pressione atmosferica permette di determinare g. Una doppia misura della pressione atmosferica, con un barometro a mercurio e con un barometro aneroide, fu compiuta per la prima volta nel 1859 a Gibilterra dal vice-ammiraglio della marina austriaca Bernhard von Wüllerstorf-Urbair (1816-1883) per determinare la differenza di gravità tra la base e la cima della rocca. Questo metodo non ebbe seguito a causa della scarsa precisione nelle misure effettuate con i barometri aneroidi. Il secondo metodo, caldeggiato da Helmert, consiste nel chiudere il ramo aperto del barometro intrappolandovi una massa di un gas non reattivo con il mercurio. Sopra la quota B il gas esercita una pressione data dalla legge dei gas perfetti: Pgas = nRT/Vgas. Assunto il mercurio incomprimibile, una variazione di g causa nel ramo a sinistra una variazione congiunta della pressione del mercurio e dell’altezza (hA – hB), e nel ramo a destra una variazione congiunta della pressione e del volume del gas. Se il gravimetro viene tarato in laboratorio a una data T e a una data g, le successive misure di (hA – hB) e di T permettono di calcolare g dall’uguaglianza delle pressioni:

s

nessuna struttura di sospensione imbarcata su una nave poteva dirsi sufficientemente stabile per le misure di g. La forma della Terra era stata sì determinata nella forma prevista da Newton, ma soltanto in prima approssimazione. Le deviazioni locali dovute alla diversa struttura geologica del sottosuolo, stabilenti la forma nota come geoide, erano ignote sulla maggior parte della superficie terrestre. Un forte impulso a trovare metodi di misura di g in mare aperto venne dalla Commissione Permanente della Misura Internazionale della Terra riunitasi in congresso a Innsbruck nel 1894. Grazie ai finanziamenti suggeriti da Friedrich Helmert (1843-1917), si sviluppò un metodo che era già stato tentato alcune volte e che si basa sulle proprietà elastiche dei gas in un barometro opportunamente modificato per permettere misure gravimetriche.

GLI ALTRI TEMI

IL GRAVIMETRO DI PONTREMOLI

Se il problema delle misure in mare aperto era stato brillantemente risolto e le informazioni sulla forma della Terra si accumulavano rapidamente, lo stesso non Figura 2 – Schema poteva andel gravimetro di Pontremoli cora dirsi per le zone polari artiche e antartiche che ponevano ulteriori problemi dovuti al funzionamento degli strumenti a basse temperature. Aldo Pontremoli (1896-1928), professore di Fisica Complementare della Regia Università degli Studi di Milano, fu ingaggiato da Umberto Nobile (1885-1978) per progettare ed eseguire una serie di misure fisiche durante la spedizione polare a bordo del dirigibile Italia del 1928. Il gravimetro progettato da Pontremoli (schema in Fig. 2), oltre a dover funzionare a temperature polari, doveva essere uno strumento resistente alle sollecitazioni meccaniche durante il volo, sufficientemente leggero (meno di 10 kg) e poco ingombrante, e doveva poter essere montato, utilizzato e smontato sulla banchisa in meno di 3-4 ore. Tentarono di tarare lo strumento, che usava l’azoto come gas, nelle camere frigorifere della ditta Dell’Orto a Milano, con 700 misure tra i –35 °C e i +10 °C. Diversi problemi nelle operazioni di taratura spinsero Pontremoli a rinviare la taratura nella base polare. Noti valori di taratura ad esempio a 0° C, dalla misura (Fig. 1) delle quote x e y con microscopi micrometrici, si ricavava g dalla formula:

nRT Vgas Il primo gravimetro di questo tipo fu inventato da Éleuthère Mascart (1827-1908) che lo usò in condizioni isoterme per misurare il dislivello tra il Collège de France a Parigi e la località di Plessis-Piquet e, successivamente, in diverse località europee. Con l’ausilio di un microscopio le posizioni dei due menischi del mercurio potevano essere determinate con un’incertezza di 10-2 mm portando a un’incertezza relativa su g che, a seconda della località, era di alcune unità di 10-5. Era giunto il momento di tentare la misura di g in mare aperto. Oskar Hecker (1864-1938), assistente di Helmert, condusse una serie di misure di g sugli oceani nel corso di varie spedizioni negli anni 1901-1909. Misure analop 0° C V 0° C 1 + α T 1 g= ghe sugli oceani furono eseguite da VT pHg x T − y T Walter Duffield (1879-1929) riprendendo il confronto con le misure di pres- Misurando g in due località diverse (g’ nella stazione base e g in un’altra posisione con un barometro aneroide. pHg ( hA − hB )g =

T_M ƒ 105


zione sulla banchisa) alla stessa temperatura si ha il rapporto: g V ′ x ′T − y T′ x ′ x ′ − y T′ (T ) = T = T T ′ VT VT x T − y T xT xT − y T g da cui:

g = g′

x T′ x ′ − y T′ xT xT − y T

neta era stata però tracciata e si pote- Potsdam mit Reversionspendeln, Veröfva giungere alla determinazione della fentlichung des königl. preuszischen geoforma della Terra in qualsiasi località. dätischen Institutes, 27, 1906, 390. RIFERIMENTI BIBLIOGRAFICI

[5] T.R. LaFehr, History of geophysical exploration: Gravity method, Geophysics, 45, 1980, 1643. [6] E. Mascart, Sur les variations de la pesanteur, Comptes Rendus, 95, 1882, 126. [7] E. Mascart, Sur le baromètre à gravité, Comptes Rendus, 95, 1882, 631. [8] M.N. Nabighian et al., Historical development of the gravity method in exploration, Geophysics, 70, 2005, 63. [9] B. Wüllerstorf-Urbair, Das Aneroid als Instrument zur Messung der Aenderungen der Schwere, Zeitschrift der Österreichischen Gesellschaft für Meteorologie, 1, 1866, 97.

[1] P. Bouger, La figure de la Terre, Déterminée par les Observations de Messieurs Bouger, & de la Condamine, de l’Académie Royale des Sçiences, envoyés par ordre du Roy au Pérou, pour observer aux environs de l’Equateur. Avec une Relation abregée de ce Voyage, qui contient la description du Pays dans lequel les Opérations ont été faites (Parigi: Jombert, 1749). [2] G. De Mottoni, E. Pugno Vanoni, Einige Instrumente, die von Prof. Aldo Pontremoli für die Polfahrt Nobiles sim Jahre 1928 konstruiert worden sind, Petermanns MitteilunLeonardo Gariboldi è rigen, Ergänzungsheft, 1929, 205, 89. cercatore di Storia e Didattica [3] A. Hirsch (a cura di), Verhandlungen der della Fisica presso il Diparvom 5. bis 12. September 1894 in Innsbruck timento di Fisica dell’Universiabgehaltenen Conferenz der permanenten tà degli Studi di Milano. Si ocCommission der internationalen Erdmescupa di storia della fisica milasung (Berlino: Georg Reimer, 1895). [4] F. Kühnen, P. Furtwängler, Bestimmung nese durante il regime fascista e di storia della der absoluten Grösze der Schwerkraft zu strumentazione scientifica.

t

Il dislivello x – y, misurato durante le tarature a Milano a 0° C, era di 380 mm, con incertezze sulla posizione dei menischi di 0,05 mm. La stima dell’incertezza relativa su g era pertanto di 0,0000263 (una parte su circa 40.000) corrispondente all’incertezza assoluta di 0,00025 ms-2. A causa della conclusione tragica della spedizione polare non sappiamo se lo strumento di Pontremoli sia mai stato utilizzato, e se gli eventuali dati siano scomparsi insieme a Pontremoli e al dirigibile Italia nel mare di Barents. La strada per misurare g anche nelle ultime zone inesplorate del nostro pia-

NEWS

N. 02ƒ ; 2019

n

GLI ALTRI TEMI

NUOVO TORSIOMETRO AD ALBERI

Magtrol, leader mondiale nelle soluzioni di misura di Coppia, Torsione e Motor Testing, aggiunge alla propria gamma un nuovo torsiometro, dedicato alle misure di processo e controllo di qualità.

T_M ƒ 106

Con il preciso obbiettivo di disporre dello “stato dell’arte” nelle misure di coppia mediante torsiometri ad alberi, il nuovo torsiometro serie TS include tutte le funzionalità che consentono un perfetta integrazione negli ambienti di misura, grazie all’uscita analogica +/-10 V e l’uscita digitale USB per una connessione diretta con il PC. 3 Led sul corpo del torsiometro lato connettori, consentono di verificare lo stato della misura (sovraccarico, Test, Tare etc..) La funzione BITE (Built In Test), attivabile mediante software e chiusura contatti sul cavo di segnale, completa la verifica funzionale del sistema. Le dimensioni sono contenute e consentono un montaggio vincolato a terra oppure sospeso, con interasse alberobase di 45 mm. Perfetta compatibilità

del torsiometro con tutti gli hardware e software Magtrol. Caratteristiche principali: Range di misura: +/-0,05 Nm….+/-500 Nm Sovraccarico: 400 % FS Rpm: 15.000 max Accuratezza: 0,1% FS Banda passante: 1 kHz Uscita analogica: +/-5 V (+/-10 V al 200% FS) Connessione digitale USB 2x360 Impulsi / giro (sfasamento 90°) + Index Alimentazione: 12-35 Vdc Per ulteriori informazioni: https://goo.gl/mhNUZM. Contattaci per discutere la tua applicazione: info@dspmindustria.it.


LA PAGINA DI ACCREDIA

s

Rubrica a cura di Rosalba Mugno 1, Silvia Tramontin 2 e Francesca Nizzero 3

La pagina di Accredia Notizie dall’Ente di Accreditamento

THE PAGE OF ACCREDIA Accredia, The Italian National Accreditation Body plays an active role in “TUTTO_MISURE”, as a permanent strategic partner, ensuring a high addedvalue contribution to the quality of the Magazine, in the context of the measurement and testing sector, for the benefit of the industry. RIASSUNTO Accredia, L’Ente unico di Accreditamento Nazionale gioca un ruolo attivo nella squadra di “TUTTO_MISURE”, garantendo valore aggiunto a livello contenutistico per quanto riguarda l’ambito delle misure e delle prove.

L’ACCREDITAMENTO IN ITALIA, 40 ANNI DI STORIA CONSULTABILI ON LINE

Accredia celebra i suoi 10 anni di attività con la realizzazione del primo archivio storico digitale dell’accreditamento in Italia, un mini-sito in cui consultare tutti gli atti più importanti della storia del sistema italiano di valutazione della conformità, dai primi passi ai 10 anni di attività dell’Ente Unico. Su www.accredia.archiui.it è visibile il progetto nato per dare valore al passato e al presente, e per orientare il futuro dell’Ente, partendo dalla creazione di Sit, Sinal e Sincert, attraverso il percorso di unificazione, fino agli sviluppi più recenti. Una raccolta di materiali storici, lettere, contributi scritti ad hoc e immagini, divisi per argomento e per autore. La raccolta dei documenti storici comprende un arco cronologico che va dalla metà degli anni ’70 al 2010. Si tratta di piccole raccolte documentarie, in cui fondamentali per la ricostruzione della storia sono state le testimonianze di alcuni dei protagonisti dei singoli Enti, come Mario Mosca per Sit, Roberto De Giovanni per Sinal, Alberto Musa per Sincert. Suddivisa in cinque “capitoli” (Sinal, Sincert, Sit, Percorsi verso l’Ente Unico, Accredia), la ricostruzione storica si basa sui “Fondi” redatti dagli stessi pro-

tagonisti, in cui sono raccolti i documenti relativi alla costituzione dell’Ente, allo svolgimento dell’attività, alle convenzioni con istituzioni ed Enti, agli Accordi internazionali, alla divulgazione tramite convegni e seminari. Il tutto cercando di tracciare il contesto socio-economico in cui ogni Ente si è sviluppato, con un accento particolare sulla competenza e sulla reputazione, nazionale e non, acquisita nel corso degli anni. La serie “Percorsi verso l’Ente Unico” contiene inoltre i documenti che precorrono la costituzione di Accredia, e che si riferiscono alle numerose forme organizzative con cui si è tentato di raggiungere l’obiettivo di costituire un Ente Unico di accreditamento, in un arco di tempo di circa cinque anni (2004-2009). Importante in questa fase la lettura del contesto legislativo in costante evoluzione, orientato a razionalizzare il sistema di accreditamento europeo, e quindi italiano. Infine, il “capitolo” dedicato ad Accredia, che parte dalla serie “Fusione”, quella tra Sinal e Sincert, che ha rappresentato la base per la costituzione dell’Ente. Consultando l’archivio, è possibile ripercorrere anche le storiche e significative relazioni con gli Enti di accreditamento stranieri. “Grazie agli accordi internazionali di mutuo riconoscimento gestiti da EA, IAF e ILAC, di cui Accredia è firmataria – continua Trifiletti – le

valutazioni di conformità rilasciate dagli organismi e dai laboratori accreditati sono accettate in tutti i Paesi aderenti al sistema globale dell’accreditamento. Questa è una delle eredità che ci hanno lasciato Sit, Sinal e Sincert, per cui l’attività internazionale ha sempre rivestito un ruolo strategico”. L’archivio storico permette di capire come la nascita di Sinal, Sincert e Sit abbia gettato le basi per il sistema dell’accreditamento italiano, ritenuto fin da subito, come si legge nelle carte, un bisogno fondamentale per lo sviluppo del tessuto imprenditoriale italiano oltre i confini nazionali, con il supporto costante della Pubblica Amministrazione. SENTENZA TAR, LA GIURISPRUDENZA RICONOSCE IL RUOLO DELL’ENTE UNICO

Due sentenze, emesse dal Tribunale del Lazio e della Sicilia, hanno attestato la correttezza dell’operato di Accredia, basato sul Regolamento europeo 765/2008 e hanno ribadito il ruolo di Accredia come Ente Unico nazionale di accreditamento, incaricato di qualificare gli organismi di certificazione e ispezione e i laboratori di prova e taratura per garantire la circolazione di beni e servizi di qualità. A dicembre 2018, il Tribunale Amministrativo Regionale del Lazio ha respinto il ricorso proposto da alcuni organismi di certificazione che richiedevano l’annullamento dell’atto denominato “Adden1

Direttore Dipartimento Laboratori di taratura, ACCREDIA Torino r.mugno@accredia.it 2 Direttore Dipartimento Laboratori di prova, ACCREDIA Roma s.tramontin@accredia.it 3 Relazioni esterne, ACCREDIA Roma f.nizzero@accredia.it

T_M

N.

T_M 107 2/19 ƒ ƒ107


t

dum alla Convenzione del 6 luglio 2017”, sottoscritto il 26 settembre 2017 tra il Ministero dello Sviluppo Economico e Accredia. Con questo atto, il Ministero ha affidato ad Accredia il compito di rilasciare accreditamenti, in conformità alla norma UNI CEI EN ISO/IEC 17020, agli organismi incaricati di svolgere attività ispezione ai sensi del DPR 462/2001, sugli impianti di messa a terra, e sanciva l’accreditamento rilasciato da Accredia come prerequisito obbligatorio per il rilascio dell’abilitazione ministeriale. La sentenza ha ribadito che l’operato di Accredia si basa sul Regolamento (CE) 765/2008 del 9 luglio 2008 che ha stabilito norme in materia di accreditamento e di vigilanza del mercato per quanto riguarda la commercializzazione dei prodotti. Ruolo “confermato” anche dal Ministero dello Sviluppo Economico che, con il DM del 22 dicembre 2009, ha designato Accredia quale Ente Unico

NEWS

POSIZIONAMENTO LASER CON PRECISIONE NANOMETRICA Aerotech, fornitore di sistemi ad alte prestazioni per il posizionamento e il controllo del movimento, ha recentemente presentato le sue innovative soluzioni laser e di controllo del movimento in occasione della fiera internazionale “LASER World of PHOTONICS” di Monaco di Baviera (24-27 giugno scorsi). Per la prima volta, il nuovo sistema di posizionamento IGM è stato esposto con il nuovo scanner galvanometrico AGV-SPO. Un’altra grande novità presentata in fiera è stato il nuovo controller Automation1, successore del ben noto modello A3200. Nello stand di Aerotech, infine, è stato presente il nuovo partner strategico Micronix, produttore di piccoli azionamenti tipo mandrino, motori lineari, bobine mobili e motori stepper piezoelettrici per una varietà di applicazioni industriali e di ricerca. “Per noi questa fiera è la manifestazione più importante per la tecnologia del laser e dei sistemi di scansione”, afferma Norbert Ludwig, amministratore delegato di Aerotech. “A Monaco approfittiamo di questa eccellente piattaforma per presentare i nostri più recenti svi-

T_M ƒ 108

N. 02ƒ ; 2019

s

LA PAGINA DI ACCREDIA

nazionale di accreditamento. Vicenda analoga in Sicilia, dove il 6 ottobre 2017 il Tribunale siciliano aveva ribaltato la sentenza del Tar (ordinanza n. 951/2017), che aveva accolto in sede cautelare il ricorso di un laboratorio siciliano (Analisi G. Caracciolo S.r.l) di analisi su prodotti alimentari. Il laboratorio aveva chiesto l’annullamento del Decreto Regionale del 9 marzo 2017 con il quale era stato escluso dall’elenco dei laboratori autorizzati, perché non accreditato da Accredia, sostenendo di essere in possesso di un certificato di accreditamento rilasciato dalla Perry Johnson Laboratory Accreditation Inc., Ente di accreditamento avente sede negli Stati Uniti d’America. Il Consiglio di Giustizia Amministrativa aveva invece accolto l’appello di Accredia, avvalendosi di quanto indicato sempre nel Regolamento europeo 765/ 2008. Il provvedimento, tra le altre cose,

luppi nelle la vo razioni al la ser a un più vasto pubblico di esperti provenienti da tutto il mondo”. Maggiore rigidità, più dinamicità e velocità di clock più elevate Con lo scanner galvanometrico AGV-SPO, Aerotech definisce nuovi standard nell’ambito della tecnologia laser di precisione. In combinazione con il sistema di posizionamento IGM (Integrated Granite Motion) di Aerotech, il laser scanner dimostra appieno i suoi punti di forza. “I nostri tavoli di posizionamento IGM sono molto più rigidi, per via della combinazione del granito con gli assi fissati direttamente. Grazie al design più flessibile, possiamo rispondere molto meglio a ogni specifica richiesta della nostra clientela”, aggiunge Norbert Ludwig a proposito delle prime applicazioni nel campo. La maggiore rigidità influenza inoltre la precisione di posizionamento del laser. Poiché le

stabilisce che per ogni Paese ci sia un solo Ente di accreditamento. L’Ente deve inoltre essere membro dell’organismo europeo EA (European co-operation for accreditation), riconosciuto dalla Commissione europea e deve aver superato con successo le valutazioni inter pares per garantire agli Stati membri l’equivalenza dei servizi prestati. Il Regolamento, come si legge agli articoli 6 e 7, obbliga i soggetti interessati a rivolgersi “all’organismo nazionale di accreditamento dello Stato membro in cui sono stabiliti” e non a un Ente di un Paese terzo. L’ACCREDITAMENTO DELLE BIOBANCHE SECONDO LA NUOVA NORMA UNI ISO 20387

Raccogliere, conservare, distribuire materiali biologici e le informazioni collegate, a fini di ricerca e diagnostici, è l’attività delle biobanche. Oggi

dinamiche vengono trasferite dal sistema laser agli assi dell’IGM, la velocità del clock di scansione e il throughput aumentano in modo significativo. “Tutto ciò a beneficio degli OEM nostri clienti, che potranno sostituire lo scanner galvanometrico con l’IGM nei luoghi in cui l’area di lavoro è più grande dell’effettivo campo di scansione”, conclude Ludwig. Inoltre, il sistema IGM sfrutta più efficacemente le caratteristiche tecniche del laser. Per ulteriori informazioni: www.aerotech.com. Aerotech Italy: Simone Gelmini – Tel. 327/8360128 – E-mail: sgelmini@aerotech.com.


N. 02 03ƒ ;2019 8

s

possono dimostrare la loro competenza e il loro corretto funzionamento grazie all’accreditamento secondo la norma UNI ISO 20387 “Biobanking – Requisiti generali per il biobanking”. Gestito a livello internazionale nell’area dei produttori di materiali di riferimento, l’accreditamento delle biobanche risponde all’esigenza dei settori di ricerca e dei servizi per la salute di avere a disposizione materiale biologico in grado di garantire la riproducibilità e la comparabilità dei risultati della ricerca, attraverso la pianificazione e l’attuazione di processi e procedure che coprano il ciclo di vita dei materiali biologici e i loro dati associati. La norma UNI ISO 20387, che verrà utilizzata come norma autonoma di accreditamento per le biobanche, specifica infatti i documenti che devono essere generati nelle diverse fasi di acquisizione, trasporto, elaborazione, test, archiviazione, e nella distribuzione sia dei campioni che delle informazioni associate. I campioni e i dati conservati in strutture organizzate come le biobanche rappresentano risorse essenziali che stanno assumendo un ruolo sempre più strategico per la nuova frontiera della cosiddetta medicina personalizzata. È dunque fondamentale che i materiali biologici di riferimento siano raccolti, conservati e gestiti in modo strutturato e razionale, secondo principi di qualità consolidati e conformi ai vigenti principi etico-regolatori. L’accreditamento gioca un ruolo fondamentale e rappresenta una tappa rilevante verso la regolamentazione definitiva delle biobanche a livello internazionale. Fornendo garanzie circa la qualità e l’affidabilità, l’imparzialità e la riservatezza del servizio a

LA PAGINA DI ACCREDIA

li contengono, possono oggi contare sulle prove di laboratorio e sulle certificazioni degli organismi accreditati per dimostrare il rispetto dei limiti di emissione di formaldeide fissati dalla legislazione USA nel Toxic Substances Control Act (TSCA). Il 22 marzo scorso, infatti, a conclusione del percorso di riconoscimento richiesto dall’Environment Protection Agency statunitense (EPA) che regola il settore, i laboratori e gli organismi accreditati da Accredia per le verifiche e i controlli relativi alla formaldeide nei prodotti a base di legno, sono diventati ufficialmente EPA Third-Party Certifiers. Un risultato importante, che consente alle imprese italiane del settore legno, dai pannelli ai complementi di arredo, ai mobili, di entrare nel mercato statunitense grazie alle prove e alle certificazioni accreditate, con cui dimostrare che i loro prodotti sono realizzati con materiali conformi ai requisiti tecnici previsti dal California Air Resources Board (CARB) o dall’EPA, e ottenere l’etichettatura TSCA Title VI. Il Regolamento nazionale EPA del 2017 ha recepito la logica già introdotta dal CARB della California, che non solo ha imposto a produttori, importatori, distributori e trasformatori di pannelli di legno di rispettare limiti di emissioni ben precisi, ma ha definito metodi di verifica e di certificazione del prodotto, che dev’essere rilasciata da un ente certificatore riconosciuto dallo stesso CARB. L’EPA, inoltre, ha esteso le regole e le procedure di controllo previste per i produttori a tutti gli attori che operano lungo la filiera di valutazione della conformità, fino agli Enti di accreditamento. Tra questi, Accredia, che è stata qualificata come EPA Recognized Accreditation Body, e i laboratori di prova e gli organismi di certificazione di prodotto che operano sotto il suo accreditamento, in conformità alle norme ISO/IEC 17025 e ISO/IEC 17065, MOBILI A PROVA DI da oggi come Third-Party Certifiers ufficiali. FORMALDEIDE PER GLI USA, ACCREDIA AUTORIZZATA DALL’EPA Il sistema italiano delle prove e certificazioni accreditate relative alla preLe imprese italiane produttrici di pan- senza di formaldeide sui pannelli a nelli a base di legno, e di prodotti che base legno è quindi garanzia della tutte le parti interessate, l’accreditamento accresce la fiducia del mercato e dei consumatori nei confronti di un campo di attività emergente, con grandi potenzialità di sviluppo. Applicabile a tutte le organizzazioni che eseguono il “biobanking” per la ricerca e lo sviluppo, incluso il “biobanking” di materiale biologico da organismi multicellulari (ad esempio umani, animali, funghi e piante) e microrganismi, l’accreditamento secondo la norma UNI ISO 20387 si rivolge agli operatori delle biobanche di campione biologico di qualsiasi natura, destinato al mondo della ricerca accademica e imprenditoriale, di sviluppo biotecnologico, e ai tecnici impegnati nel settore, sia pubblico che privato, che necessitano di collezioni di campioni e/o dati ai fini della conoscenza e dello sviluppo applicativo. Non rientra nel campo di applicazione della norma il materiale biologico destinato alla produzione di alimenti e mangimi, ai laboratori che effettuano analisi per la produzione di questi e/o all’uso terapeutico. Accredia, in stretta collaborazione con l’Istituto Superiore di Sanità, ha portato avanti il progetto del nuovo schema per l’accreditamento delle biobanche che sarà gestito dal Dipartimento Laboratori di taratura. La sinergia tra le competenze istituzionali e quelle tecniche di Accredia per la valutazione dei laboratori di prova e di taratura ha permesso di definire regole chiare e condivise tra tutti i soggetti interessati, dalle biobanche alle loro associazioni e clienti, dai servizi industriali alle associazioni di categoria, dagli organismi di regolamentazione governativi alle organizzazioni non governative, comprese le organizzazioni dei consumatori.

T_M ƒ 109


qualità e sicurezza dei prodotti anche di fronte alle norme obbligatorie statunitensi. Un sistema che conferma il ruolo strategico dell’accreditamento per le imprese del nostro paese, assicurando che il comparto italiano dei produttori di pannelli e complementi d’arredo in legno possa accedere e operare nel mercato USA e competere a livello internazionale. L’INFRASTRUTTURA DELLA QUALITÀ PER LO SVILUPPO DEL COMMERCIO INTERNAZIONALE

Fondamentale sia per l’efficace funzionamento del mercato interno che per lo sviluppo del commercio internazionale, l’Infrastruttura della Qualità (Quality Infrastructure, QI) si basa su: metrologia, normazione, accreditamento, valutazione della conformità. La metrologia è la scienza della misurazione corretta e affidabile, comunemente suddivisa nei settori della metrologia scientifica, industriale e legale. La standardizzazione prevede l’adozione di sistemi comuni di misura o di riferimento, definiti con il coinvolgimento di tutte le parti, nell’interesse della collettività. L’accreditamento è l’attestazione, da parte di un ente autorevole che agisce quale garante super partes, della competenza di un organismo d’ispezione e verifica, o di un laboratorio di prova e taratura, a svolgere determinate attività di valutazione della conformità. La valutazione della conformità concerne la verifica dei requisiti definiti nella normativa di riferimento riguardo a prodotti, processi, sistemi di gestione, persone. Sotto questa definizione rientrano le attività di certificazione, ispezione e verifica, le prove di laboratorio e le tarature. La rilevanza dell’IQ nel sostenere le politiche pubbliche è evidente nei settori caratterizzati da un alto grado di standardizzazione e di controllo della qualità: la tutela dell’ambiente, la protezione dei consumatori, la sicurezza alimentare, il commercio internazionale. La condivisione di standard a livello internazionale è sempre più importante per favorire la riduzione delle barriere agli scambi commerciali, obiettiT_M ƒ 110

N. 02ƒ ; 2019

s

LA PAGINA DI ACCREDIA

vo di ogni modello d’integrazione economica – zona di libero scambio, unione doganale, mercato comune. L’importanza e l’efficacia dell’Infrastruttura della Qualità aumentano in proporzione al grado d’integrazione dei mercati. Nel caso di semplici accordi commerciali preferenziali, il suo utilizzo è legato al superamento degli ostacoli agli scambi in alcuni settori selezionati, mentre in forme più profonde d’integrazione economica – il mercato unico in Europa – l’armonizzazione si estende a quasi tutti i settori industriali, per arrivare alla creazione di un quadro socioeconomico uniforme. Il mercato unico dell’Unione europea dimostra come un’efficiente Infrastruttura della Qualità possa essere la base su cui costruire la più grande area di libero scambio fino ad oggi conosciuta. La qualità delle “istituzioni”, nel senso di regole, meccanismi di applicazione e organizzazioni di cui si avvale l’Infrastruttura della Qualità, gioca un ruolo essenziale nel determinarne l’efficacia in concreto. Le strutture su cui questa poggia devono essere espressione delle parti interessate, e rispondere ai requisiti di competenza tecnica, indipendenza, imparzialità. Principi, questi, che ispirano e caratterizzano da sempre l’attività di accreditamento. Una valutazione di conformità svolta da un laboratorio (attività di prova e taratura) o da un organismo accreditato (attività di certificazione, ispezione e verifica) garantisce il rispetto di standard di qualità condivisi a livello internazionale e il riconoscimento del suo valore intrinseco sul mercato rappresenta un’importante forma di regolamentazione. In base alle norme tecniche armonizzate a livello europeo, inoltre, i governi degli Stati membri sono incoraggiati a ricorrere agli Enti nazionali di accreditamento nel processo di designazione degli organismi notificati. A partire dal 1985, la libera circolazione delle merci in Europa è stata resa possibile grazie all’armonizzazione delle norme. L’obiettivo originario – l’eliminazione delle barriere tecniche agli scambi – si è poi esteso alla definizione di una politica globale orientata a creare un contesto nel quale cittadini e imprese possano sentirsi sicuri, che

pone principi come la tutela dei lavoratori e la salvaguardia dell’ambiente alla base dell’azione economica. Il quadro legislativo di riferimento ha trovato espressione nel Regolamento CE 765/2008 e nella Decisione CE 768/2008, che promuovono le attività di accreditamento e vigilanza del mercato, e definiscono regole globali che consentono di operare efficacemente per la sicurezza e la conformità dei prodotti alle norme di riferimento, nel pubblico interesse e per il corretto funzionamento del mercato unico. Il Regolamento prevede un approccio alla valutazione della conformità rigoroso e uniforme in tutti gli Stati membri, incaricati di designare un unico Ente di accreditamento nazionale, in Italia Accredia. L’equivalenza delle valutazioni di conformità da essi rilasciate è in particolare garantito dal sistema delle valutazioni inter pares, organizzato dall’European co-operation for Accreditation (EA), riconosciuta dall’Unione europea quale infrastruttura europea di accreditamento. Grazie all’accreditamento vengono ridotti gli oneri per le imprese europee e viene al contempo regolata l’immissione di beni e servizi sul mercato, nel rispetto degli standard internazionali a tutela della salute e della sicurezza dei lavoratori, dell’ambiente e dei consumatori. Su queste basi poggia la più grande area economica del mondo con 512 milioni di consumatori e un commercio di beni tra Stati membri che vale 3.300 miliardi di euro, con un trend di crescita costante negli anni. Nel 2015 la Commissione europea ha presentato una roadmap per valorizzare appieno le potenzialità del mercato unico, in cui l’armonizzazione delle norme tecniche continua a essere una delle principali azioni a sostegno dello sviluppo. Il Mercato Unico in Europa è una storia di successo resa possibile dall’Infrastruttura di Qualità. Grazie al mercato unico, le imprese dell’Unione hanno accesso a input più diversificati, di più alta qualità e più economici, diventando più competitive a livello globale. L’Unione europea, con le proprie politiche, richiama l’accreditamento negli accordi preferenziali di libero scambio


N. 02 03ƒ ;2019 8 mento del Regno Uni to, è membro di EA, European co-operation for Ac creditation, e firmatario degli Accordi di mutuo riconoscimento EA MLA, ma con l’uscita del Regno come modello per un’efficace funzioUnito dall’Unione europea, non sodnamento dei mercati internazionali. disfa più i criteri di adesione a EA, in L’EFFETTO BREXIT SUGLI ACCORDI quanto non è più l’Ente di accreditamento di uno Stato membro. INTERNAZIONALI DI MUTUO EA ha però rivisto lo Statuto dell’asRICONOSCIMENTO EA sociazione, in considerazione delUKAS, l’Ente nazionale di accredita- l’importanza di UKAS come membro

s

LA PAGINA DI ACCREDIA

di EA. È stata pertanto introdotta una clausola che prevede un periodo di transizione che permetterà a UKAS di mantenere lo status di EA full member per altri due anni. Durante questo transitorio, EA, in collaborazione con UKAS, esaminerà i risultati della trattativa tra Unione europea e Regno Unito e rivedrà di conseguenza i criteri di adesione all’associazione. L’obiettivo è permettere a UKAS di mantenere la membership EA e rimanere firmatario degli Accordi internazionali di mutuo riconoscimento EA MLA. Questo significa che UKAS continuerà a ricevere le visite di peer evaluation da parte degli altri membri di EA. Per ulteriori informazioni sulla Brexit e i suoi effetti sull’accreditamento UKAS, visitare la sezione dedicata sul sito della Commissione europea.

Riferibilità metrologica, taratura e materiali di riferimento Intervista a Rosalba Mugno (Direttore – Dip. Laboratori di taratura di Accredia) Dal rilascio del primo rapporto di qualificazione SIT a un laboratorio metrologico sono passati 40 anni e oggi sono 189 gli operatori accreditati da Accredia per tarare strumenti e apparecchiature di misura e produrre materiali di riferimento. In un mondo governato dalla tecnologia, come quello contemporaneo, la riferibilità metrologica è quanto mai decisiva, per garantire che strumenti e apparecchiature di misura siano sempre precisi e affidabili. Il Dipartimento Laboratori di taratura di Accredia si occupa di fornire e diffondere la riferibilità metrologica, verificando la competenza e rilasciando gli accreditamenti a laboratori e produttori di materiali di riferi-

mento. Parliamo di queste attività con il Gli operatori accreditati rilasciano sul Direttore, Rosalba Mugno. mercato certificati di materiali di riferimento o, in caso di campioni e strumenD: Il Dipartimento Laboratori di ti, certificati di taratura. I certificati rilastaratura opera all’interno del- ciati sotto accreditamento vengono l’Ente unico di accreditamento quindi utilizzati non solo da altri laboradal 2010, raccogliendo l’eredità tori di prova e taratura, e dagli organisdel Servizio di Taratura in Italia mi di certificazione, ispezione e verifi(SIT) che, sin dagli anni ’70, ope- ca, ma anche dall’utente finale (sia esso rava per qualificare i laboratori industria o singolo cittadino) per avere metrologici, denominati Centri in la sicurezza che l’apparecchiatura di virtù dell’accreditamento otte- cui si dispone abbia un errore adeguanuto. Oggi quali tipologie di ope- to rispetto all’utilizzo cui è destinato. ratori accreditate? D: Anche nel campo della riferi(R. Mugno) Il Dipartimento verifica e bilità metrologica l’accreditaattesta la competenza dei laboratori di mento ha acquisito negli anni un taratura e dei produttori di materiali di ruolo sempre più importante, riferimento, che solo da pochi anni con un conseguente aumento sia vengono gestiti con due percorsi di val- delle richieste di certificati di utazione e accreditamento ben distinti, taratura sia del numero dei labin termini di procedure e processi, a oratori accreditati per rilasciarli partire dalle differenti norme che ne sul mercato. Qual è la misura di disciplinano i requisiti, rispettivamente questo trend? la UNI CEI EN ISO/IEC 17025 e la UNI CEI EN ISO 17034. (R. Mugno) Dal 2010-2012, anni T_M ƒ 111


N. 02ƒ ; 2019

n

LA PAGINA DI ACCREDIA

nei quali si registravano crescite nella misura di 2 o 3 laboratori accreditati per anno, siamo arrivati a un incremento di 10 laboratori l’anno, fino ai 189 operatori del 2018, di cui 5 accreditati anche come produttori di materiali di riferimento. Un trend positivo, al quale ovviamente corrisponde un notevole aumento del numero dei certificati emessi sul territorio, quasi 150.000 alla data del 31 dicembre scorso. L’incremento è dovuto, in parte, alla generale maggiore richiesta di certificati di taratura, ma anche alla nascita di nuove tipologie di certificati in seguito all’introduzione di strumenti non tradizionali, come l’analizzatore di spettro o il contatore di particelle, usati in settori quali quelli del controllo dei gas di scarico o delle polvere sottili. Si registrano inoltre richieste per singole tipologie di strumenti customizzati, ad esempio quelli con cui vengono effettuati i rilievi del profilo rotaie, gli strumenti ottici e quelli per il rilevamento della velocità. Tutti strumenti che devono garantire il massimo livello di affidabilità possibile. Negli anni, quindi, a parità di richieste di accreditamento per gli strumenti impiegati nelle attività tradizionali, crescono quelle per strumentazioni di nuova generazione, introdotte grazie all’avanzare della tecnologia. Infine, nel 2018, l’incremento è dovuto anche all’ampliamento della sfera di competenza dei laboratori di taratura, sancito dal DM 93/2017, per la verificazione periodica degli strumenti di misura in ambito fiscale, o dal DM 282/2017 per gli autovelox, che hanno riconosciuto e formalizzato l’obbligo di accreditamento. D: Una particolare categoria di operatori per l’affidabilità dei risultati di misura è quella dei produttori di materiali di riferimento. Il Dipartimento ha riorganizzato il loro accreditamento in tempi relativamente recenti, ma l’attività è stata intensa sin dagli inizi. Ci racconta i passaggi più importanti?

zione della presenza, anche in Italia, di produttori di materiali di riferimento accreditati secondo la norma internazionale UNI CEI EN ISO 17034:2017. Prima i produttori venivano qualificati in base alla Guida ISO 34. Tale accreditamento, pur avendo valore sul piano nazionale, non rispondeva alle regole di libera circolazione sul mercato internazionale. Con l’introduzione della norma ISO armonizzata, questi limiti di applicazione sono caduti. Pubblicata nel 2016, la norma ISO 17034 ha fissato un periodo di transizione di 3 anni, che si concluderà a novembre di quest’anno, entro il quale i produttori di materiali di riferimento dovranno adeguarsi alle nuove regole fissate per l’accreditamento. La situazione italiana è positiva: dei 5 produttori accreditati, 4 sono già transitati alla ISO 17034; il quinto è in fase avanzata di transizione. La produzione dei materiali di riferimento (Reference Materials – RM) e, tra essi, dei materiali di riferimento certificati (Certified Reference Materials – CRM) è ora svolta in conformità a una norma riconosciuta a livello internazionale e l’accreditamento dei produttori (Reference Material Producers – RMP) ha appena conseguito la validità a livello europeo con la definizione del nuovo Accordo di mutuo riconoscimento EA MLA. Accredia è stato uno dei primi Enti di accreditamento ad aver svolto tutto l’iter per il riconoscimento, consentendo anche a EA di farsi portavoce per il riconoscimento degli accordi internazionali a livello ILAC che comporteranno la piena equivalenza a livello mondiale dei certificati rilasciati sotto accreditamento ai sensi della norma ISO 17034. Lo scorso 9 maggio, infatti, il Comitato MAC (Multilateral Agreement Council) di EA, ha deliberato lo status di Accredia come firmataria del nuovo Accordo, insieme agli Enti UKAS (Gran Bretagna), RvA (Paesi Bassi), CAI (Repubblica Ceca), ENAC (Spagna) e INAB (Irlanda).

(R. Mugno) Il 2018 ha segnato la storia dei materiali di riferimento. Alla D: I produttori di materiali di fine dell’anno è stato infatti compiuto riferimento operano in un nul’ultimo passo decisivo verso la ratifica- mero crescente di settori, dalla T_M ƒ 112

produzione manufatturiera alla sicurezza degli alimenti, dalla tutela della salute alla protezione dell’ambiente. Può farci degli esempi? (R. Mugno) Dei 5 produttori italiani accreditati, storicamente il numero maggiore opera nell’ambito dei gas, ma anche delle soluzioni alcoliche (utilizzate in ambito vinicolo, per esempio). Abbiamo poi le matrici solide di suolo utilizzate per valutare la contaminazione del suolo in termini di metalli presenti. Nuove frontiere e settori di punta in futuro saranno senz’altro l’alimentare, ma anche i nuovi materiali utilizzati nella superconduttività così come nell’illuminazione stradale. La ricerca scientifica e lo sviluppo industriale si basano infatti sempre più sull’utilizzo dei materiali di riferimento, perché garantiscono la riferibilità metrologica, la validazione dei metodi e il controllo di qualità.

Abbonarsi ORA per 2 anni a TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

CONVIENE!!!

70 euro (anziché 80) L’abbonamento biennale Vi offre 8 numeri cartacei + 8 sfogliabili + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, telefonare al n° 011/0266700 o inviare una e-mail a: info@tuttomisure.it


LA PAGINA DI IMEKO

n

Rubrica a cura di Enrico Silva (enrico.silva@uniroma3.it)

La pagina di IMEKO Aggiornamenti sulle attività IMEKO nel 2019 AN INTRODUCTION TO IMEKO IMEKO, International Measurement Confederation, has been added to the permanent collaborations to the Journal starting from the beginning of 2014. This section contains information about the Association, publications, events and news of interest to our readers.

RIASSUNTO IMEKO, International Measurement Confederation, si è aggiunta tra i collaboratori stabili della Rivista a partire dall’inizio del 2014. Questa rubrica contiene informazioni sull’Associazione, pubblicazioni, eventi, e notizie di utilità per i nostri lettori. Il 2019 prevede la consueta, vibrante attività di IMEKO per quanto riguarda eventi e congressi sempre di grande interesse per la comunità scientifica e industriale, articolata su congressi tematici o simposi dei comitati tecnici di IMEKO. L’elenco è assai ampio, e non possiamo dilungarci sui contenuti, tutti però di sicuro interesse. La stagione estiva si apre con una opportunità per i lettori più giovani: il “17th Youth Symposium on Experimental Solid Mechanics”, Tel (Repubblica Ceca), 6 - 8 giugno 2019 (contattare: kytyr@itam.cas.cz), organizzato dal TC15. Abbiamo poi già segnalato “TEMPMEKO & TEMPBEIJING 2019 – 14th International Symposium on Temperature and Thermal Measurements in Industry and Science” (www.temp meko2019.cn), Chengdu (Cina), 1014 giugno 2019, e “FLOMEKO 2019 - 18th International Flow Measurement Conference” (flomeko2019.lnec.pt), Lisbona (Portogallo), 26-28 giugno 2019. A seguire, l’evento interdisciplinare congiunto “Joint IMEKO TC1-TC7TC13-TC18 Symposium 2019” (https://imeko19-spb.org), San Pietroburgo (Russia), 2-5 luglio 2019. Questo simposio unisce le attività: Education and Training in Measurement and Instrumentation (TC1), Measurement Science (TC7), Measurements in Biology and Medicine (TC13), Measurement of

Human Functions (TC18). È evidente l’interconnessione esistente fra diversi campi della scienza e tecnica, attraversati dal filo unificatore della scienza delle misure. Gli eventi autunnali iniziano con la 16ma conferenza del comitato tecnico TC10, “Testing, Diagnostics & Inspection as a comprehensive value chain for Quality & Safety”, Berlino (Germania), 3-4 settembre 2019 (www. imekotc10-2019.sztaki.hu). Proseguendo, incontriamo un evento che dovrebbe essere molto sentito dalla comunità scientifica e aziendale italiana: la “4th IMEKOFOODS Conference”, Bruxelles (Belgio), 16-18 settembre 2019 (https://www.imekofoods4.be), che affronterà il tema “Metrology supporting emerging food topics”. Cambiando argomento, d’interesse sarà certamente l’evento co-organizzato da TC1 e TC2: “International Symposium for Photonics and Education in Measurement Science”, Jena (Germania), 17-19 settembre 2019 (https: //www.imeko-jena.com). Con il TC17 IMEKO attraversa l’oceano in occasione di “ISMCR 2019 22nd International Symposium on Measurement and Control in Robotics”, Houston (Texas, USA), 19-21 settembre 2019 (www.ismcr.org). Infine, ci teniamo a segnalare nuovamente “MetroSea 2019 - 2019 IMEKO TC19 International Workshop on Metrology

for the Sea” (www.metrosea.org), organizzato nella nostra nazione a Genova dal 3 al 9 ottobre 2019. L’attività congressuale non potrebbe essere così articolata senza il supporto continuo di IMEKO, ad esempio attraverso guide all’organizzazione di eventi quali quelle pubblicate qui: https://www.imeko.org/index. php/organization/downloads. Vale la pena rimarcare come negli eventi internazionali qui citati la presenza italiana nei comitati organizzatori e scientifici è sempre ampia e di altissimo livello: la scienza delle misure ha un’impronta italiana ben stabilita. IMEKO pubblica un utile e completo bollettino sul proprio sito web www. imeko.org, nel quale sono riassunte le attività effettuate nell’anno, gli esiti delle riunioni degli officer di IMEKO e altre notizie d’interesse per chi si occupa di misure. Altri documenti sono liberamente scaricabili dal sito IMEKO: presentazioni, documenti di governo dell’associazione e newsletter. ACTA IMEKO

ACTA IMEKO, rivista scientifica di IMEKO e indicizzata su Scopus, rende disponibili liberamente (open access) tutti gli articoli pubblicati all’indirizzo: https://acta.imeko.org/index. php/acta-imeko. È stato pubblicato il primo fascicolo del 2019, che comprende 13 contributi scientifici e una introduzione. Cinque articoli scientifici sono stati selezionati dalle presentazioni alla conferenza congiunta “IMEKO TC3, TC5 and TC22 International Conference 2017” (Helsinki, Finlandia, 30/5-1/6 2017), mentre i restanti otto sono articoli liberamente sottomessi e selezionati a testimoniare il crescente interesse che la rivista riscuote nella comunità scientifica. T_M

N.

2/19 ƒ 113


N. 02ƒ ; 2019

Esapodi HexGen™ di Aerotech • Potenti azionamenti e software di controllo con visualizzazione del moto secondo qualsiasi work o tool coordinate system ȏ 9LVXDOL]]D]LRQH JUDȴFD VHPSOLFH SHU L VLVWHPL GL FRRUGLQDWH H SHU OH SRVL]LRQL GHL SLYRW SRLQWV ȏ 3RVL]LRQDPHQWR GL SUHFLVLRQH Ȃ DFFXUDWH]]D ȴQR D s wP H ULVROX]LRQH ȴQR D QP

HexGen Software di visualizzazione

HEX RC Controllore Multi Asse HEX500-350HL

Ph: +39 02 94759294 • Email: sales@aerotech.co.uk AT0219A-RAD-IT

NEWS

s

COMPLESSI MOVIMENTI D’ALTA PRECISIONE NEI 6 GRADI DI LIBERTÀ... RESI SEMPLICI

STAMPA 3D DI METALLI: PRODUTTIVITÀ SENZA COMPROMESSI A EMO Hannover 2019 (16-21 settembre), Renishaw, azienda globale specializzata in metrologia, controllo di processo e additive manufacturing, presenterà anche i suoi hardware e software per la produzione additiva (AM). I visitatori dello stand Renishaw dedicato all'Additive Manufacturing (Pad. 9) potranno assistere a dimostrazioni incentrate sulle tecnologie di produzione di alta qualità, tra le quali spicca il recentissimo sistema a quattro laser RenAM 500Q. Questa macchina, grazie ai suoi 4 laser da 500 W, accelera il processo di produzione fino a quattro volte e rende più accessibile la stampa 3D in metallo anche per applicazioni che in passato risultavano essere troppo costose, estendendone così la portata anche ad altri settori. Grazie alla competitività di RenAM 500Q, Renishaw offre ai clienti costi di produzione ridotti, senza compromessi sulla qualità e sulla precisione del prodotto finito. Il clou tecnologico della RenAM 500Q risiede nel sistema ottico e nel software di controllo. I quattro laser vengono focalizzati dinamicamente ed entrano in un singolo gruppo galvanometrico controllato termicamente. Questo gruppo ospita quattro paia di specchi controllati in maniera digitale, che guidano i laser in modo da coprire interamente l'area di lavoro del letto di polvere. “Le macchine e i sistemi ottici per la produzione additiva Renishaw sono progettati, sviluppati e realizzati internamente, e ciò significa avere il controllo totale sulle loro prestazioni" spiega Robin Weston, Marketing Manager per i prodotti Additive Renishaw. "Grazie all'innovativa progettazione del sistema ottico, al controllo digitale e alla messa a fuoco dinamica, tutti e quattro i laser possono lavorare contemporaneamente incrementando velocità, produttività e capacità della macchina". "La produzione additiva è un grande fattore abilitante per il sistema ottico", continua Weston. "Lo stesso supporto dei galvanometri è realizzato per mezzo di additive manufacturing e consente un montaggio più compatto degli specchi incorporando canali di raffreddamento conformi interni per mantenere la stabilità termica e di conseguenza, la precisione dei laser”. Diverse aziende stanno già monetizzando i vantaggi offerti da RenAM 500Q, come ad esempio Atherton Bikes, marchio di mountain bike di alta gamma e per competizione, che sta lavorando con Renishaw alla produzione additiva di componenti in titanio per i suoi telai, aumentando la produttività e sviluppando rapidamente i componenti personalizzati in base alle esigenze del ciclista. Per offrire assistenza e supporto alle aziende manifatturiere che adottano l’additivo Renishaw ha lanciato la sua Guida alla Produzione Additiva, consultabile in un'area specifica nel sito Web dell'azienda (www.renishaw.it/amguide). Per ulteriori informazioni: www.renishaw.it/emo.


DIVAGAZIONI A ZONZO SU METROLOGIA E DINTORNI

s

Rubrica a cura di Alessandro Ferrero (alessandro.ferrero@polimi.it) Articolo di Dario Petri

Misure, Big Data e Dataismo I dati sono importanti, ma il metrologo li sa “anche” usare ... dabili in quanto ottenute mediante procedure formali e dati oggettivi anziché WANDERING AROUND METROLOGY essere basate su opinioni, interpretaAND ITS NEIGHBOROUGH zioni e pregiudizi individuali. This column is aimed to appear whenever events, occurrences or public discussion triggers the interest about metrology and related topics DATAISMO E DATAISTI

RIASSUNTO Questa rubrica farà la sua comparsa tutte le volte che A fronte di un evidente indebolimento eventi, accadimenti o dibattiti accenderanno l’interes- delle ideologie su cui si fondano le società moderne, quali ad esempio la se su metrologia, misure e argomenti correlati democrazia e il liberalismo, le persone sono raramente consapevoli del diffonI BIG DATA zione, con l’avvento dell’internet delle dersi di una nuova ideologia: il dataicose (internet of things), la disponibili- smo [1]. Il dataista: La storia delle misurazioni coincide tà di dati sperimentali permea la socie- – tende a percepire l’universo come un sostanzialmente con la storia dell’u- tà a tutti i livelli. flusso di dati (si parla di “world datafimanità, dell’intelligenza umana e I cosiddetti “big data” promettono cation”); della civilizzazione. Fin dall’antichità progressi inimmaginabili e una trasfor- – ritiene che i dati siano una rapprele misure sono state uno strumento mazione profonda del nostro modo di sentazione oggettiva, imparziale ed indispensabile per il commercio, la lavorare, di vivere, di pensare. Deci- esaustiva della realtà; costruzione di edifici e la produzione sioni che finora hanno richiesto il lavo- – ripone sui dati una fiducia incondidi manufatti. Negli ultimi secoli le ro di esperti sono sempre più spesso zionata e basa le sue decisioni esclusimisure sono poi diventante un fattore gestite in modo automatico grazie ai vamente su di essi; determinante per l’avanzamento della dati forniti da sensori o acquisite dalla – crede che l’intelligenza artificiale conoscenza, l’industrializzazione, la rete. In tal modo si ottiene un incredibi- possa superare l’intelligenza umana; medicina, i trasporti e, in generale, il le miglioramento nell’efficienza e nella – considera gli organismi viventi alla progresso sociale ed economico. velocità decisionale; inoltre le conclu- stregua di sistemi di elaborazione bioNella moderna società dell’informa- sioni sono percepite come giuste e affi- logici. Il dataismo si sta velocemente diffondendo anche all’interno della comunità scientifica. Idealmente la “data science” sembra infatti possedere le potenzialità per abbattere le barriere che dividono le diverse discipline scientifiche e diventare quindi il “sacro graal” scientifico, ossia una teoria universale unificante [2]. Il dataista si attende infatti di poter studiare le composizioni musicali, le quotazioni dei titoli azionari, la diffusione di una malattia virale utilizzando gli stessi principi, metodi e strumenti. Spesso però la correttezza di una decisione non dipende dalla quantità di Università di Trento Dip. Ingegneria Industriale dario.petri@unitn.it

T_M

N.

2/19 ƒ 115


dati a disposizione, ma dal loro significato, dalla loro utilità per il problema in esame e da un loro uso appropriato. In altre parole, non servono “big data”, ma occorre una “smart exploitation” di “smart data”. IL LATO OSCURO

La quantità di dati è un parametro immediato da percepire e, in generale, semplice da valutare. Al contrario, determinare l’utilità dei dati non è di solito semplice: occorre conoscere il problema da affrontare e possedere una cultura adeguata. Utilizzando l’efficace linguaggio della saga di “Guerre stellari”, si può affermare che la focalizzazione sui big data può rappresentare il “lato oscuro dei dati”, ossia un modo apparentemente semplice e seduttivo per raggiungere il risultato voluto, ma anche estremamente pericoloso e potenzialmente molto costoso. Basare decisioni critiche e complesse solo sull’uso acritico dei dati può avere conseguenze disastrose. Si pensi ad esempio all’impatto che la carenza nella valutazione dell’affidabilità dei dati ha avuto nel recente disastro del Boeing 737 Max [3]. Senz’altro meno tragiche, ma non prive di possibili conseguenze negative, sono le valutazioni della qualità della ricerca basate esclusivamente su indicatori bibliometrici. Di sicuro molti lettori di questa rubrica hanno potuto constatare l’assurdità di certe decisioni derivanti dall’uso acritico dei cosiddetti indicatori. Chi è interessato può comunque trovare numerosi esempi emblematici nel libro “Weapons of math destruction” [4]. Occorre infatti vigilare costantemente per evitare di cedere alle lusinghe del lato oscuro, come correttamente insegnano gli Jedi di “Guerre stellari”. È evidente che per usare correttamente ed efficacemente i dati in un processo decisionale occorre possedere le conoscenze e gli strumenti essenziali per: -– interpretare criticamente le informazioni disponibili, distinguendo quanto è rilevante nello specifico problema affrontato da quanto è invece trascurabile; – comprendere i limiti dei modelli a cui i dati (esplicitamente o implicitamente) T_M ƒ 116

N. 02ƒ ; 2019

n

DIVAGAZIONI A ZONZO SU METROLOGIA E DINTORNI

fanno riferimento, ricordando che tutti i modelli forniscono una descrizione parziale della realtà, affetta dai preconcetti e dai limiti conoscitivi di chi ha prodotto il modello; – identificare e stimare l’entità delle sorgenti di incertezza che influenzano i dati, al fine di valutare l’affidabilità dell’informazione disponibile e, in definitiva, di stimare l’entità del rischio di decidere in modo errato. Queste conoscenze e questi strumenti rappresentano i fondamenti della metrologia, la scienza delle misure. LE MISURE: LA FORZA!

Basandosi sui fondamenti della metrologia, al contrario del dataista, il misurista: – è ben consapevole dell’importanza dei dati nel processo decisionale, ma anche dei loro limiti; – è in grado di quantificare il livello di fiducia assegnabile ai dati e ai modelli del mondo reale a cui essi fanno riferimento; – basa le sue decisioni sui dati, ma anche sulla sua esperienza, conoscenza, capacità di analisi critica, intuizione e onestà intellettuale; – è consapevole dei limiti della tecnologia e la usa per risolvere problemi pratici e per potenziare l’intelligenza umana, non per sostituirla. La conoscenza dei principi e dei concetti fondamentali della metrologia dovrebbero quindi essere patrimonio di tutti e, in particolare, di coloro che hanno la responsabilità di prendere decisioni critiche. La formazione sui fondamenti della metrologia è però praticamente assente, non solo nelle scuole dell’obbligo, ma anche nella maggior parte dei corsi di studio universitari, compresi quelli in ambito scientifico-tecnologico. Addirittura, la cultura metrologica è marginale anche in alcune organizzazioni internazionali che hanno come obiettivo l’avanzamento e la diffusione della cultura delle misure e della strumentazione. Non c’è quindi da meravigliarsi se lo tsunami di dati che ci travolge viene usato in modo improprio. Ci si può chiedere perché la comunità scientifica non dedichi un’adeguata

attenzione alla metrologia data la sua importanza cruciale. Forse una motivazione può essere trovata facendo riferimento al problema della demarcazione di Popper [6], secondo il quale le diverse discipline scientifiche sono raggruppate in due grandi classi: quelle empiriche – che si occupano di produrre teorie atte a spiegare il funzionamento del mondo empirico – e le discipline formali – che hanno l’obiettivo di derivare teorie formali a partire da un insieme limitato di assiomi. La metrologia – il cui corpo di conoscenze è costituito da un insieme organizzato di concetti, principi e metodi finalizzati a costruire un ponte tra le discipline empiriche e quelle formali – non appartiene a nessuna di queste due classi. Forse per questo motivo molti studiosi non riconoscono alla metrologia la dignità di disciplina autonoma, ma la considerano solo un mero insieme di tecniche e di strumenti. Nell’era in cui le misure permeano l’intera società a tutti i livelli (dalle relazioni tra Stati e tra grandi multinazionali alle semplici azioni quotidiane) sottovalutare l’importanza della cultura metrologica sta purtroppo producendo conseguenze molto gravi e spesso irreversibili. RIFERIMENTI BIBLIOGRAFICI

[1] Y. N. Harari, Homo Deus: A Brief History of Tomorrow, Vintage, 2016. [2] Y. N. Harari, “Big data, Google and the end of free will”, https://www.ft. com/content/50bb4830-6a4c11e6-ae5b-a7cc5dd5a28c. [3] A. Ferrero, “Imputato software: assolto”, Tutto Misure, n.1 pp. 43-44, 2019. [4] C. O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Broadway books, 2016. [5] L. Mari, D. Petri, “The metrological culture in the context of big data: managing data-driven decision confidence,” IEEE Instrumentation and Measurement Magazine, pp. 4-20, 2017. [6]L. Mari, D. Petri, “Measurement science: constructing bridges between reality and knowledge,” IEEE Instrumentation and Measurement Magazine, pp. 6-11, 2014.


MISURE E FIDATEZZA

s

Rubrica a cura di L. Cristaldi (loredana.cristaldi@polimi.it), M. Catelani, M. Lazzaroni, L. Ciani Articolo di M. Catelani1, L. Ciani1, L. Cristaldi2, A. Ferrero2

Affidabilità delle misure e Misure per l’affidabilità Sicurezza e misure per sistemi complessi

SAFETY AND MEASUREMENT FOR COMPLEX SYSTEMS This paper deals with the centrality of the measurements for a correct management of Safety in complex systems, from the early stage of the analysis of the possible consequences of a fault. Fault classification and safety integrity are reconsidered and the implications of an incorrect metrological approach to the analysis of the sensors’ impact are covered. At last, the recent crashes of the Boeing 737 MAX planes are considered as a clear example of the catastrophic aftermaths of having neglected the consequences of wrong measurement data. RIASSUNTO Questo articolo tratta della centralità delle misure per una corretta gestione della Sicurezza nei sistemi complessi, fin dalla fase iniziale dell’analisi delle possibili conseguenze di un guasto. La classificazione dei guasti e la Safety Integrity vengono riconsiderate e sono analizzate le conseguenze di un approccio metrologicamente non adeguato all’analisi dell’impatto dei sensori. Infine, i recenti disastri aerei dei due Boeing 737 MAX sono brevemente presentati come chiaro esempio delle catastrofiche conseguenze di non aver considerato gli effetti di dati di misura errati. UN BREVE RIPASSO SUL CONCETTO DI SICUREZZA E SAFETY RELATED SYSTEM (SRS)

ll concetto di sicurezza (safety) viene descritto come “assenza di rischi inaccettabili” e il suo studio ha l’obiettivo di minimizzare le condizioni che tengono conto della frequenza con cui si manifesta un evento dannoso e della criticità degli effetti che tale evento può avere sull’uomo, l’ambiente e il sistema stesso [1]. Un sistema di sicurezza SRS (Safety Related System) è un sistema che implementa le funzioni di sicurezza richieste, ovvero le funzioni necessarie per mantenere o riportare il dispositivo sotto controllo in uno stato sicuro [2]. I sistemi di sicurezza hanno quindi il compito di rilevare pericoli e mitigarne le conseguenze, ovvero intraprendere le azioni necessarie per ridurre le conseguenze di un evento pericoloso [3], [4].

saria (intervento spurio) con conseguente perdita di disponibilità del sistema. A loro volta, tali guasti si suddividono in rilevabili e non rilevabili dalla diagnostica a bordo dell’SRS. Un guasto è non rilevabile quando tale tipologia di guasto non è rilevabile dai test automatici. Un ulteriore modo per classificare un guasto è basarsi sui diversi modi di guasto. Come già messo in luce dal diagramma di Fig. 2, gli errori sistematici rappresentano guasti non fisici per i quali il servizio fornito si discosta dal servizio specificato senza alcun degrado fisico del prodotto. Tali guasti possono essere eliminati da una modifica del progetto o del processo di fabbricazione, delle procedure operative o della documentazione. Gli errori di progettazione hanno origine nei processi di realizzazione o d’installazione e possono comunque rimanere latenti a partire dal primo giorno di funzionamen-

CLASSIFICAZIONE DEI GUASTI IN RIFERIMENTO ALLA SICUREZZA

La classificazione dei guasti, necessaria a qualificare il sistema di sicurezza e i suoi sottosistemi, può essere fatta utilizzando l’idea di analizzarli in funzioFigura 1 – Classificazione dei guasti ne delle cause e degli effetti [2]. Una prima classificazione, come già to. Un esempio è rappresentato dal richiamato in [3] e come evidenziato in problema dei guasti legati al software Fig. 1, divide i guasti di un SRS in peri- che porta a una lettura dell’uscita dei colosi e sicuri. Un guasto è definito peri- sensori non valida. I guasti d’interaziocoloso se è tale da non permettere al ne dipendono da errori umani durante sistema SRS l’esecuzione della funzione il funzionamento (o durante le fasi di di sicurezza quando questa è richiesta; si definisce invece guasto sicuro quel guasto che porta ad attuare la funzione 1 Università degli Studi di Firenze di sicurezza senza che questa sia neces- 2 Politecnico di Milano T_M

N.

2/19 ƒ 117


N. 02ƒ ; 2019

s

MISURE E FIDATEZZA

manutenzione o di lettura dei test). L’errore umano non può mai essere considerato nullo e tutte le varie interazioni uomo-macchina dovrebbero essere analizzata al fine di limitare gli effetti di un eventuale errore. I guasti sistematici, per la loro natura,

possono esistere diverse funzioni di sicurezza, ciascuna relativa a un determinato pericolo, a cui andrà associato un opportuno SIL. Quanto detto mette in luce un aspetto: il SIL non è relativo al singolo componente ma è relativo alla funzione di sicurezza dove il componente opera. La classe SIL viene quindi raggiunta solo se l’insieme dei componenti impiegati, nel loro complesso, rispettano i requisiti. Ad ogni livello SIL corrisponde un set di requisiti definiti, nella IEC 61508-2, a proposito dell’Hardware Safety Integrity e riporFigura 2 – Classificazione dei modi di guasto tati in Tab. 1.

possono quindi appartenere sia alla categoria dei guasti pericolosi che a quelli sicuri. Una combinazione però di errore di progettazione e d’interazione fa sì che tale guasto possa ricadere nella categoria dei non rilevabili.

Tabella 1 – Requisiti qualitativi e quantitativi dei SIL

Requisiti quantitativi

La proprietà di guasto di una funzione di sicurezza dovute a guasti hardware di tipo random dovrà essere stimata in modo che essa sia minore o uguale al valore del target da raggiungere. La stima dovrebbe tener conto di quanto segue: – architettura hardware (configurazione) – guasti pericolosi rilevati e non rilevati – suscettibilità rispetto ai guasti di causa comune utilizzando uno specifico fattore correttivo – Diagnostic Coverage dei test diagnostici – tempi di ripristino per guasti rilevati – pianificazione del proof test (test periodici) – la probabilità di guasti non rilevati di ogni processo di comunicazione dati

Requisiti qualitativi

Dovranno essere identificati gli architectural constraints che limitano il SIL ottenibile in base all’Hardware Fault Tolerance (HFT) e alla Safe Failure Fraction (SFF) di un sottosistema del SRS.

VERSO LA DEFINIZIONE DEL SAFETY INTEGRITY DI SRS E DEL SIL

L’efficacia di un sistema SRS è valutata per mezzo del parametro Safety Integrity Level (SIL) inquadrato dalla norma internazionale IEC 61508 in termini di Hardware safety integrity (riferita ai guasti hardware di tipo casuale, random failure) e systematic safety integrity riferita ai guasti di tipo sistematico [1]. Sempre lo standard inquadra la safety integrity in quattro livelli da SIL 1 a SIL 4 che rappresenta il livello dalle caratteristiche più stringenti in termini di probabilità di guasto. Il SIL è di fatto una metrica che indica la necessaria riduzione del rischio legato a una potenziale fonte di danno del nostro sistema; esso dà quindi una misura indiretta dell’affidabilità obiettivo del sistema di sicurezza, ovvero dell’affidabilità richiesta dalla missione attraverso l’intervento della safety function. Il SIL è relativo alla singola funzione di sicurezza, quindi all’interno di un determinato sistema T_M ƒ 118

Fault Tolerance – HFT) e alla frazione di guasti sicuri (Safe Failure Fraction – SFF) di un sottosistema. È bene porre l’accento su questo aspetto; l’analisi della sicurezza richiede la determinazione dell’indice SFF: esso rappresenta la frazione dei guasti considerati sicuri, cioè guasti che non portano il sistema di sicurezza in uno stato potenzialmente pericoloso di non funzionamento, combinata con la parte dei guasti pericolosi ma rilevati dalla diagnostica a bordo di un SRS. Per componenti e/o sottosistemi complessi (è il caso, per esempio, dei dispositivi elettronici a logica programmabile) si assume come realistica una situazione in cui, rispetto al tasso di guasto complessivo, vi sia una ripartizione paritetica tra i guasti sicuri e i guasti pericolosi.

Come si vede in Tab. 1, i requisiti qualitativi sono relativi alle caratteristiche dell’architettura che consentono di ottenere una sufficiente tolleranza al guasto. Il SIL dipende quindi dalla tolleranza ai guasti hardware (lo standard introduce a tal proposito l’Hardware

Il punto focale, come riportato in [1] a proposito del Safety Life Cycle, è quindi definire la strategia che consenta di raggiungere il SIL obiettivo attraverso un’analisi preliminare dei rischi sul dispositivo da proteggere mediante un SRS. Ovvero:


N. 02ƒ ;2019 – Determinare i pericoli e gli eventi pericolosi del sistema e del suo sistema di controllo (in tutte le modalità operative) per tutte le circostanze ragionevolmente prevedibili, incluse le condizioni di guasto e di uso improprio; – Determinare la sequenza di eventi che portano agli eventi pericolosi individuati; – Determinare i rischi per il sistema

possibile, alle informazioni raccolte in banche dati come lo storico MILHDBK217 o Telcordia ecc.) [6]. Lo schema di Fig. 3, evoluzione di quanto proposto in [2], aiuta a comprendere come l’analisi FMEA (e quindi FMEDA) sia fondamentale per poter affermare di conoscere la percentuale dei guasti rilevabili che coinvolgono il dispositivo oggetto di analisi.

Figura 3 – Relazione tra causa, modo ed effetto

associati agli eventi pericolosi individuati. Questa analisi, corredata dal valore dell’indice SFF, consente poi di agire a livello architetturale per raggiungere la configurazione funzionale mi gliore (in questo caso vuol dire operare con ridondanze che portano a ottenere il valore corretto per l’indice di Hardware Fault Tolerance – HFT). L’analisi dei rischi trova nella tecnica nota come FMEA (Failure Mode Effects Analysis, descritta dalla IEC 60812 [5]) lo strumento per condurre l’analisi secondo un approccio sistematico e completo. L’evoluzione della FMEA ha portato alla definizione della tecnica FMEDA (Failure modes, effects, and diagnostic analysis) dove l’analisi tiene conto della capacità diagnostica del componente nel rilevare i guasti (DC Diagnostic Coverage) e, nello sviluppo della procedura, la classificazione dei guasti in termini di sicuro e pericoloso e quindi nelle sottocategorie diagnosticabile e non diagnosticabile (facendo ricorso, se

Le colonne centrali dello schema mostrano come un modo di guasto relativo a un singolo componente può a sua volta trasformarsi in modo di guasto ai livelli superiori che compongono il sistema. Riprendendo una delle considerazioni precedenti, è possibile osservare che una combinazione tra gli errori di progettazione e interazione possano portare un guasto nella categoria dei non rilevabili; ciò equivale a dire che a livello di sistema l’ipotizzato modo di guasto “sistema funzionante in condizioni degradate” sia da modificare in “sistema non funzionante”. L’ESEMPIO DEL BOEING 737 MAX

Un esempio di tale combinazione è dato dai sensori di angolo d'attacco del Boeing 737 MAX. In questo caso infatti la combinazione delle due modalità rende il sensore estremamente critico. La progettazione non accurata, soprattutto dal punto di vista metrologico, del sistema di controllo sembra

s

MISURE E FIDATEZZA

essere la causa nascosta che, abbinata al malfunzionamento di uno dei due sensori dedicati al rilievo dell’angolo d’attacco e alla mancanza, nel software di controllo, di verifica in linea delle prestazioni metrologiche del sensore, ha determinato la tragedia. A far capire la criticità del sensore si pensi al problema riscontrato da un Airbus A321 che nel 2014 ha sofferto una perdita di quota di circa 4.000 piedi a seguito del blocco per ghiaccio dei due sensori di angolo d'attacco. Il sistema ha ritenuto che l'aereo a un certo punto stesse stallando e ha comandato il “nose down”. In questo caso i piloti sono riusciti ad arrestare la discesa probabilmente disconnettendo le Air data inertial reference unit relative e a riprendere il controllo dell’aereo. Il caso del 737 MAX, che ha causato i due disastri della Lion e dell’Ethiopian, è ancora più emblematico di come l’assenza di adeguate considerazioni metrologiche, fin dalla predisposizione degli schemi dell’analisi FMECA ed FMEDA, possa causare malfunzionamenti dalle conseguenze catastrofiche. Il problema è noto: la versione MAX del “vecchio” e affidabile 737, a causa delle aumentate dimensioni dei motori e del loro avanzamento rispetti al baricentro del velivolo, rischia di diventare instabile, nelle fasi di volo a velocità relativamente bassa e con alta spinta dei motori, a causa della coppia che si viene a creare e che tende a far cabrare il velivolo oltre l’angolo di stallo. Per evitare questo rischio, i progettisti hanno modificato il sistema di controllo, facendolo intervenire in modo automatico – anche nelle fasi di pilotaggio manuale, a pilota automatico disinserito – per abbassare il naso dell’aereo se il sensore di angolo d’attacco rileva un angolo d’imbardata pericolosamente vicino all’angolo di stallo. Un sistema simile è già operativo sui velivoli della serie precedente (i B737800) come unico sistema che interviene automaticamente a pilota automatico inserito e si limita ad avvisare i piloti in pilotaggio manuale. Nel caso del 737 MAX, si è ritenuto il rischio stallo significativamente più elevato che nelle serie precedenti e si è considerato critico il sistema di controllo. Per questa ragioT_M ƒ 119


ne, è stato ridondato, in modo che ciascun pilota fosse “controllato” dal proprio sistema MCAS (Maneuvering Characteristics Augmentation System). Poiché esistono due sensori di angolo d’attacco, uno su ciascun lato del velivolo, si è pensato di far leggere, a ciascun sistema MCAS, il sensore posto sul lato del velivolo corrispondente al pilota a cui il sistema MCAS era abbinato. Questo è stato l’errore fatale, commesso preoccupandosi solo (si veda la Fig. 3) che il sensore fosse tarato, ma non preoccupandosi di verificare le reali prestazioni metrologiche del sensore. Nelle serie precedenti, l’unico sistema MCAS presente riceveva le informazioni da entrambi i sensori e, in caso di disaccordo, non interveniva, limitandosi a emettere una segnalazione di allarme critico. La cosa funzionava perché l’informazione fornita dal sensore di angolo d’attacco può essere ricavata, sia pure con minore accuratezza, combinando i dati forniti da altri sensori (principalmente orizzonte artificiale e velocità all’aria). I piloti erano quindi perfettamente in grado di stabilire quale sensore fosse uscito dalle condizioni ottimali di funzionamento, disabilitandone la lettura. La stessa cosa poteva tranquillamente essere fatta dal MCAS del 737 MAX: bastava tenere ben presente che un sensore, come un qualsiasi strumento di misura, può guastarsi e fornire indicazioni errate, e la consapevolezza che il suo stato metrologico poteva essere confermato da una opportuna pseudo misura, cioè dalla stima della grandezza misurata dal sensore stesso, combinando i dati provenienti da altri sensori e valutando l’incertezza del dato così ottenuto: se l’indicazione del sensore differisce da quella del dato proveniente dalla pseudo misura, per più di un opportuno multiplo dell’incertezza combinata, il sensore è considerato guasto e il controllo dell’apparecchio viene affidato ai piloti, eventualmente aiutati dal secondo sistema (quello del monitoring pilot, se considerato funzionante). In fondo, si trattava solo di verificare che indicazione fornita dal sensore e indicazione fornita dalla pseudo misura fossero metrologicamente compatibili. La domanda che ci si pone, a valle di quanto successo, è se i progettisti del T_M ƒ 120

N. 02ƒ ; 2019

n

MISURE E FIDATEZZA

sistema di controllo avessero le minime conoscenze di base di metrologia, incluso il concetto fondamentale di compatibilità metrologica e la altrettanto fondamentale consapevolezza che tarare uno strumento o un sensore non basta a garantire la correttezza del valore misurato: può sempre guastarsi poco dopo la verifica, come pare sia successo al sensore del 737 della Lion.

sati su sole ridondanze hardware. Purtroppo, ancora una volta, siamo di fronte ai guasti causati da una scarsissima diffusione della cultura metrologica, a iniziare dalla colpevole assenza di corsi di misure nelle università che preparano i progettisti di questi sistemi. Una volta tanto, negli USA sono messi perfino peggio di noi! BIBLIOGRAFIA

CONCLUSIONI

[1] IEC 61508 – “Functional Safety of Electrical/Electronic/Programmable Electronic Safety Related Systems”, Second Edition, International Electrotechnical Commission; May 2010. [2] M. Rausand, A. hoyland, “System Reliability Theory” second edition, J. Wiley & Sons, Inc., Hoboken, New Jersey, 2004. [3] M. Catelani, L. Ciani, “Introduzione all’analisi di sicurezza per sistemi complessi”, T_M n.4/2016 pagg 285-288. [4] M. Catelani, L. Ciani, “Analisi di sicurezza per sistemi complessi”, T_M n.1/2017 pagg. 49-51. [5] IEC 60812, “Failure modes and effects analysis (FMEA and FMECA).” International Electrotechnical Commission, 2018. [6] M. Catelani, L. Ciani, V. Luongo, The FMEDA approach to improve the safety assessment according to the IEC61508, Figura 4 – Boeing 7373 MAX Microelectronics Reliability, Volume 50, Issues 9–11, 2010, Pages 1230-1235, La criticità di un sistema di misura è ISSN 0026-2714, https://doi.org/ direttamente collegata alla criticità 10.1016/j.microrel.2010.07.121. delle decisioni prese basandosi sui risultati di misura forniti. Andrebbe sempre valutato, sulla base dell’incertezza di misura nelle reali condizioni TUTTO MISURE d’impiego, il rischio che una decisione www.tuttomisure.it errata comporta per la sicurezza delTutto_Misure, trimestrale, diretta l’intero sistema. dal professor Alessandro Ferrero, Questa analisi richiede una solida è l’unica rivista italiana interamente base di conoscenze metrologiche, dedicata alle Misure, Prove e Controlli troppo spesso trascurate. Peraltro, una corretta applicazione di queste compe- Qualità: organo ufficiale d’informazione dell'Associazione GMEE tenze, inclusa la possibilità offerta dai e della manifestazione “A&T”, vanta moderni sistemi di elaborazione di un Comitato Scientifico e Comitati segnali e dati di ridondare i dati prodi Redazione delle Rubriche venienti dai sensori con pseudo misucomprendenti i rappresentanti re, porta a un livello di sicurezza eledei maggiori organismi nazionali (associazioni, istituzioni, enti, ecc.) vato a costi decisamente inferiori a quelli di approcci più tradizionali baSi è voluto fare riferimento ai recenti tragici disastri aerei che hanno coinvolto due nuovissimi Boeing 737 MAX per enfatizzare come un corretto approccio alla sicurezza e ai sistemi SRS non possa prescindere da una corretta analisi metrologica delle apparecchiature di misura se queste fanno parte del sistema di cui si deve garantire la sicurezza.

_


TECNOLOGIE IN CAMPO

s

Rubrica a cura di Massimo Mortarino

(mmortarino@affidabilita.eu)

Testing in ambito automotive Ispezione delle condutture Scansione 3D nell’aftermarket Testing & Measurement al servizio di applicazioni di vari settori

TECHNOLOGIES IN ACTION The section “Technologies in action” presents a number of recent case studies of industries or institutions gaining profit from the latest innovation in measuring instruments and systems. RIASSUNTO La Rubrica “Tecnologie in campo” presenta un compendio di casi di studio di Aziende e/o istituzioni che hanno tratto valore aggiunto dalla moderna strumentazione di misura.

L’IMPORTANZA DEL TESTING NELLA MISURA E CONTROLLO IN AMBITO AUTOMOTIVE, E NON SOLO…

evolvendo. Le vendite di vetture ibride e full electric sono in continuo aumento, mentre è sempre più diffuso l’utilizzo di motori elettrici, sia in combinazione con motori endotermici tradizioLe soluzioni HBM per il T&M nali sia in soluzioni stand-alone. A al servizio della “sartoria una rapida evoluzione delle soluzioni tecnologica automotive” tecnologiche deve pertanto corrisponLoccioni spa dere un altrettanto rapido avanzamento e sviluppo delle metodologie di A cura di Massimo Mortarino analisi. Ed è sempre più prioritaria, Nel corso dell’ultimo decennio il con- nel mondo automotive, non solo l’otticetto di automobile si sta rapidamente mizzazione dei singoli componenti che vanno a comporre l’unità mo trice del veicolo, ma an che la loro integrazione.

Figura 1 – Loccioni-Transmission and Powertrain Testbench

In questo panorama tecnologico si colloca il gruppo marchigiano Loccioni, leader dal 1968 nello sviluppo di sistemi automatici di misura e controllo, dai banchi prova da fine linea o da laboratorio agli strumenti di misura per powertrain ibrido/elettrico, fino al servizio di testing conto terzi su powertrain ibridi o full electric. Loccioni, che conta 450 dipendenti operanti in 5 sedi internazionali (USA, Germania, Cina, Giappone e India), oltre al Quartier Generale in Italia, è specializzato in molteplici settori (dall’automotive al biomedicale, passando per l’ambiente, l’elettrodomestico e l’aeronautico, ecc.). La Ricerca & Sviluppo proprietaria di di versi brevetti, si pone l’obiettivo di sviluppare nuove tecniche e strumentazioni di misura strategiche per l’impresa ed eseguire test per conto dei propri clienti. La divisione dispone di due laboratori e di ben sei sale test, metà delle quali dedicate ai componenti motore e ausiliari e metà specializzate nel testing di sistemi di trazione, sia tradizionali sia ibridi o elettrici (Powertrain test cell; E-Axle test cell; Electric Motor Test).

Figura 2 – Loccioni-Transmission and Powertrain Testbench

T_M

N.

2/19 ƒ 121


Una realtà imponente e molto specializzata, nel cui contesto gioca un ruolo estremamente importante il rapporto di partnership con la HBM, multinazionale tedesca leader nel settore T&M: il gruppo Loccioni ha recentemente realizzato nuove sale per il testing di sistemi di trazione completi (siano essi endotermici, ibridi o elettrici). “Il sistema eDrive GEN7ta di HBM, corredato di schede GN610B e Perception Software, è risultato essere la scelta più ovvia per tali ambienti di sviluppo, grazie alla semplice integrazione del sistema di acquisizione con i sensori, i torsiometri a flangia e i trasduttori di corrente a effetto hall di cui Loccioni era già dotata” – dichiara Maurizio Bosi (R&D - Loccioni). “Grazie al software Perception infatti, non è più necessario modificare le caratteristiche del canale di acquisizio-

t

Figura 3 – Loccioni-Transmission and Powertrain Testbench

NEWS

MACCHINE DI MISURA E CONTROLLO QUALITÀ AL 100% DIRETTAMENTE IN PRODUZIONE Con la linea di celle robotizzate CheckBox di VEA CheckBox di VEA è una linea di celle robotizzate compatte, capaci di eseguire controlli qualitativi, misure, analisi di superfici e oggettivazione dei controlli. Questi impianti utilizzano la tecnologia LIF, che permette di eseguire misure micrometriche su tutti i pezzi direttamente in ambiente di produzione, con la stessa precisione che si può ottenere nel laboratorio metrologico. CheckBox è semplice da usare, flessibile al cambio di prodotto, con poca manutenzione. Questi impianti utilizzano un robot controllato da un sistema di visone (guida robot) e possono prendere pezzi in modo disordinato, anche di forma diversa, senza che questo comporti onerose messe a punto

T_M ƒ 122

N. 02ƒ ; 2019

s

TECNOLOGIE IN CAMPO

meccaniche. L’interfaccia uomo macchina è veramente innovativa e naturale: essa risiede, infatti, in un unico grande monitor touch che permette di comandare in modo agevole e immediato tutte le funzioni della macchina. Questi impianti vengono personalizzati sui pezzi del cliente e possono eseguire analisi di superfici, analisi colore, presenza bave, misure dimensionali, rilevazione cricche, soffiature o grumi e tutto quello che può servire per controllare la produzione. All’interno della CheckBox vengono montati i sistemi di visione HQV®PPM appositamente studiati per ridurre al minimo la produzione di falsi-scarti e garantire contemporaneamente l’affidabilità del riconoscimento del difetto con ordini di grandezza di qualche parte in 106. Nei sistemi CheckBox ogni pezzo può essere controllato e misurato in tutte le sue facce e in diverse angolazioni. Il

ne ogni qualvolta si interfacci un nuovo trasduttore con il sistema di acquisizione, poiché è già disponibile un database con un’ampia varietà di sensori presenti sul mercato”. Inoltre, l’espandibilità e la flessibilità garantite dai 7 slot presenti nell’hardware Gen7ta, permette di adattarlo alle esigenze di misura odierne e future, in base alle richieste nelle numerose differenti soluzioni tecnologiche sviluppate dalle case automobilistiche. Queste caratteristiche sono di fondamentale importanza per un’impresa come Loccioni, che sviluppa progetti per i migliori OEM e tier1 del settore auto secondo il criterio della sartoria tecnologica. Contrariamente agli altri analizzatori di potenza elettrica, la soluzione eDrive testing è in grado di effettuare misurazioni non solo durante punti stazionari del sistema ma anche durante i transi-

sistema permette di vedere il pezzo da oltre 50 diversi punti di vista e consente di eseguire più di 1.000 misure o controlli nell’arco di qualche secondo. Al termine dell’analisi è possibile marchiare il prodotto controllato per garantire l’eseguito controllo e si possono memorizzare le foto e le fasi di controllo di ogni singolo pezzo in conformità alle ultime direttive sulla qualità. Checkbox è inoltre predisposto per l’imballaggio automatico. Per ulteriori informazioni: www.vea.it.


N. 02ƒ ;2019

s

TECNOLOGIE IN CAMPO

acquisizione di sensoristica per l’analisi di potenza e il rilevamento sincrono di segnali vibrazionali, acustici e funzionali del sistema (CAN BUS; temperature) – conclude Maurizio Bosi. “Risulterebbe interessante processare anche i segnali vibrazionali/acustici acquisiti direttamente all’interno di un unico ambiente software, come Perception”. Vantaggi: – Possibilità di salvare dati grezzi -> post-processing; – Possibilità di registrare transitori così da vedere fenomeni impulsivi; – Semplicità d’integrazione sensori e gestione database;

Figura 4 – Esempio di fenomeno impulsivo Correnti di fase generate da un inverter ad alta frequenza di switching

tori. Risulta vitale durante lo sviluppo di nuovi sistemi di trazione ibrida/elettrica riuscire a registrare e salvare rapidamente i transitori così da poter postprocessare e analizzare anche fenomeni impulsivi e/o non ripetitivi. “Trattandosi di sistemi complessi, per comprendere a pieno i fenomeni in atto e il comportamento dell’oggetto sottoposto ai test, non ci si deve limitare all’acquisizione delle sole grandezze elettriche, ma acquisire, ad esempio, anche lo stato termico del sistema e le grandezze trasferite tramite protocollo CAN BUS” – continua Bosi. “Molto utile risulta anche la possibilità di salvare i dati grezzi o elaborare formule real-time che garantisce all’utente estrema flessibilità nella metodologia

di calcolo del rendimento permettendo così di adattare la misura al tipo di applicazione considerata”. Infine, essendo Loccioni Platinum Alliance Partner di National Instruments, la facilità d’integrazione garantita dal Software Perception con l’ambiente di sviluppo LabVIEW risulta strategica

Figura 5 – Loccioni-Axenon-Electrical Axle Testbench

per la diffusione e l’utilizzo del prodotto nell’ambito della Ricerca e Sviluppo e dei banchi prova realizzati.

Figura 6 – Loccioni-Axenon-Electrical Axle Testbench

Sviluppi futuri “Con l’obiettivo di ottenere powertrain sempre più efficienti e duraturi, sono di particolare interesse per Loccioni la sempre maggior integrazione in un unico sistema di

– Espandibilità futura della strumentazione; – Acquisitore general purpose: possibilità d’integrare non solo misurazioni di potenza elettrica ma anche altri tipi di strumentazione; – Elaborazione formule real-time; – Space Vector e dq0 transformation già implementate nel software; – Creazione delle mappe di efficienza in pochi minuti; – Possibilità d’integrazione con altri SW di sviluppo (NI LabVIEW). Futuro: Possibilità di post processing dei segnali provenienti da accelerometri e/o microfoni all’interno del SW Perception (NVH analysis). T_M ƒ 123


ISPEZIONI DELLE CONDUTTURE USANDO DATI OTTENUTI DA ULTRASUONI

Benefici dell’uso di una piattaforma d’integrazione che fornisce diagnostiche on site per la valutazione della corrosione interna A cura di Creaform (www.creaform3d.com)

con precisione tali difetti, che possono interessare sia le superfici esterne sia quelle interne delle condutture. Poiché di solito le condutture vengono rivestite e poi sepolte sotto qualche metro di terra, la valutazione completa della loro integrità richiede l’uso di un’ampia gamma di tecniche di misurazione non-distruttive dirette e indirette (NDT), anche per fornire una diagnosi affidabile. Le valutazioni tramite misurazioni dirette richiedono forti investimenti, poiché le condotte devono essere disseppellite con macchinari costosi, perciò le tecniche di valutazione devono essere precise e fornire diagnosi rapide. L’erosione sulla parete esterna delle condutture è frequente, e in passato ci si è sforzati di sviluppare tecniche efficienti, come la mappatura in 3D della corrosione esterna. Dati abbondanti e precisi consentono l’estrapolazione

dell’entità dell’erosione sulla parete esterna, oltre a fornire una diagnosi rapida basata su standard noti. D’altra parte, l’erosione della parete interna è rara sulle condutture di gas, ma è più diffusa su quelle per liquidi. In caso di corrosione interna, tecniche come ultrasuoni con allineamento di fase (PAUT) offrono già una soluzione sufficiente per fornire una quantificazione precisa dei difetti, ma il loro uso non è diffuso e non consente ancora una diagnostica rapida basata su standard noti. Sul mercato esistono software d’ispezione delle condutture che intervengono in questo senso e risolvono molti problemi integrando un’ampia gamma di dati ricavati con valutazioni dirette e indirette e fornendo diagnostiche on site basate su ASME B31G. Questo articolo illustra i benefici dell’uso di una piattaforma d’integrazione, che fornisce diagnostiche on site per la

zati, e a FLIR di cogliere l’opportunità di incorporare ulteriori offerte di servizi attraverso DroneBase”. DroneBase e i suoi piloti hanno completato oltre 100.000 missioni commerciali in oltre 70 paesi, fornendo servizi in diversi settori, tra cui immobiliare residenziale e commerciale, assicurativo, telecomunicazioni, costruzioni e media. FLIR e DroneBase svilupperanno in concerto un programma di formazione specializzata per i piloti DroneBase curato da FLIR ITC, per creare una rete di piloti d’élite certificati da DroneBase. “Tramite l’investimento strategico di

FLIR in DroneBase, siamo ora in grado di offrire soluzioni termografiche scalabili a imprese di qualsiasi dimensione“, ha dichiarato Dan Burton, CEO e fondatore di DroneBase. “L’accesso a dati preziosi consentirà alle parti interessate di prendere decisioni migliori sulle loro risorse più critiche. Come me, molti piloti DroneBase hanno fatto affidamento su prodotti FLIR quando hanno prestato servizio militare. Questa integrazione offrirà agli ex militari l’opportunità di lavorare nuovamente con FLIR e di sfruttare il loro addestramento militare nella vita civile”.

t

Le condutture poste in servizio soffrono un decadimento nel corso del tempo: ciò può creare potenziali rischi per gli utenti, se non debitamente monitorato e gestito. L’elenco di potenziali difetti delle condutture è vastissimo, ma i dati indicano che l’erosione del metallo è la causa principale d’incidenti in quest’ambito (oltre il 30%). I gestori delle reti devono superare difficoltà non banali per poter valutare

NEWS

N. 02ƒ ; 2019

s

TECNOLOGIE IN CAMPO

TECNOLOGIE TERMICHE PER SERVIZI D’ISPEZIONE FLIR Systems Inc. (www.flir.com) ha recentemente concluso un investimento strategico in DroneBase (www.dronebase.com), diventando fornitore esclusivo di tecnologie termiche per i servizi d’ispezione di questa società e partner per l’addestramento della sua rete di piloti professionisti. L’investimento conferma FLIR come fornitore esclusivo di soluzioni termografiche e come fornitore ufficiale per la formazione della rete di piloti professionisti DroneBase, che verrà curata dal FLIR Infrared Training Center (ITC). “Il nostro investimento in DroneBase sarà un volano per l’adozione della tecnologia termografica FLIR, rendendola accessibile a un maggior numero di piloti che ogni giorno controllano i droni in volo“, ha dichiarato Jim Cannon, Presidente e CEO di FLIR. “La rete di piloti DroneBase verrà formata da termografi professionisti, consentendo a DroneBase di offrire a un maggior numero di clienti i suoi servizi di ispezione termica specializ-

T_M ƒ 124


N. 02ƒ ;2019

s

TECNOLOGIE IN CAMPO

valutazione della corrosione interna sulle condutture usando dati ottenuti da UT con allineamento di fase. Si descrivono le soluzioni attualmente disponibili attraverso lo studio di un caso. Mappatura della corrosione interna In caso di corrosione interna, è ancora diffuso l’uso di tecniche UT convenzionali per misurare lo spessore rimanente della parete. Il processo richiede la creazione manuale di una griglia, il rilevamento con una sonda UT del punto più sottile entro ogni riquadro e la trascrizione dei risultati su un foglio di lavoro. Il processo presenta vari svantaggi: richiede molto tempo, offre una risoluzione limitata e fa affidamento sulle capacità dell’operatore. Gli UT con allineamento di fase rimediano a questi svantaggi, utilizzando sonde più grandi che consentono una mappatura degli spessori ad alta densità più rapida e precisa. La tecnica consente una migliore caratterizzazione, rilevazione e misurazione del difetto, grazie principalmente alla maggiore risoluzione. Terminata la caratterizzazione, la diagnostica rimane problematica poiché pochissimi produttori di strumenti UT con allineamento di fase offrono una diagnostica diretta basata su standard noti. Il problema si risolve abbinando gli strumenti UT con allineamento di fase a un software d’ispezione delle condutture.

Figura 1

L’utilizzo di un software d’ispezione delle condutture risolve questi problemi, integrando i dati generati con vari strumenti e fornendo un rapporto analitico coerente, a prescindere dall’uso di tecnologie differenti da parte di utenti diversi. Ad esempio, si può importare dati da strumenti di valutazione diretta, come dispositivi UT con allineamento di fase, e fornire una diagnosi basata sullo standard B31G, usando la stessa interfaccia e gli stessi parametri. Inoltre il software può integrare e correlare i dati relativi ad altre fasi del processo d’ispezione delle condutture, come ad esempio dati di valutazione indiretta generati da strumenti d’ispezione in linea (ILI). Ciò semplifica il processo diagnostico utiSoftware d’ispezione lizzando sempre la stessa interfaccia delle condutture Come già menzionato, la gamma di e gli stessi parametri. strumenti utilizzati per la valutazione dell’integrità dei condotti comporta diagnostiche limitate per strumenti UT e richiede non solo una necessaria conoscenza approfondita degli strumenti, ma anche coerenza ed elaborazione dei dati. Ovviamente lungo tutto il processo d’ispezione ogni fornitore di strumenti adotta tecnologie, software, terminologia e reporting differenti. Inoltre, i gestori delle reti spesso lavorano con varie aziende di servizi NDE, ciascuna delle quali usa tecnologie di fornitori differenti. La coerenza delle analisi e dei risultati diventa quindi un problema serio e Figura 2 una potenziale fonte di dubbi ed errori.

Case study: Valutazione della corrosione tramite UT con allineamento di fase e software d’ispezione condutture L’esempio che segue riporta i risultati di una valutazione della corrosione interna utilizzando dati UT con allineamento di fase e un software d’ispezione delle condutture, illustra le diverse fasi della diagnostica e in che modo correlare le valutazioni indirette e dirette. Importazione dati UT con allineamento di fase Poiché il formato dei dati UT varia a seconda del fornitore, esiste una procedura d’importazione guidata specifica per il formato di un determinato fornitore. Alcuni parametri vanno impostati, come la definizione degli assi X-Y (posizioni assiali e circonferenziali), la risoluzione della scansione e le posizioni iniziali su ciascun asse, oltre alle unità di misura. Il formato si può salvare e riutilizzare per dati UT che adottano lo stesso formato. Visualizzazione 3D I dati UT, una volta importati, vengono convertiti da una scansione X-Y C con mappa cromatica-tipica a una mappatura in 3D della corrosione, in cui la corrosione viene visualizzata sulla parete interna. Questa tecnica consente di visualizzare in 3D il profilo T_M ƒ 125


N. 02ƒ ; 2019

s

TECNOLOGIE IN CAMPO

Figura 3 – Scansione con allineamento di fase C

della corrosione interna, come se la si osservasse dall’interno del tubo, facilitando la comprensione del tipo e dell’entità della corrosione. La mappatura 3D si può ruotare e ingrandire per migliorarne la visualizzazione. Diagnostica Un processo passo-passo aiuta a definire ciascun parametro relativo allo standard B31G. Parametri come classe del materiale, formule dei flussi di tensioni, fattori di progettazione, pressioni d’esercizio o regole d’interazione devono essere definiti o caricati da un modello pre-esistente. Una volta elaborata l’analisi, il software combina gli alveoli della corrosione interna in gruppi più grandi in base a regole e criteri d’interazione. Le pressioni di cedimento basate su B31G, B31G modificato e Area effettiva standard, vengono calcolate per ciascun gruppo, offrendo all’utente una possibile diagnosi. I risultati dettagliati si possono esportare in un rapporto formattato automaticamente.

Figura 6 – Correlazione di lunghezza (Grafico di unità sinistro) e profondità max (Grafico di unità destro) tra ILI e UT con allineamento di fase

Correlazione tra valutazioni indirette e dirette Anche i dati d’ispezione in linea si possono importare con un’analoga procedura d’importazione guidata, consentendo l’uso di ogni formato ILI di qualsiasi fornitore. I gruppi di corrosione identificati dall’analisi dei dati UT vengono automaticamente associati e confrontati con i dati ILI importati. Grafici di unità che confrontano dimensioni, profondità e pressioni vengono generati automaticamente per determinare la precisione della valutaFigura 4 – Mappatura in 3D della corrosione zione indiretta (ILI).

Conclusione L’uso di UT con allineamento di fase abbinato al software d’ispezione delle condutture offre numerosi vantaggi. Consente di creare una mappatura 3D dettagliata e precisa della corrosione che si può usare per ottenere una diagnosi basata sullo standard ASME B31G. Inoltre, consente di convalidare la valutazione indiretta (ILI) nell’ambito della stessa applicazione. L’intero processo d’ispezione viene molto semplificato e velocizzato, e il reporting è coerente nell’ambito di ciascuno degli strumenti utilizzati. Riferimento Campionatura UT con allineamento di fase fornito da NDT Olympus, 2018.

Figura 5 – Valutazione indiretta (ILI) di gruppi di corrosione (riquadro rosa) sovrapposti sui dati UT con allineamento di fase

T_M ƒ 126


N. 02ƒ ;2019 Tre motivi principali alla base della crescente importanza di queste tecnologie

zione dei prodotti. Nel lavorare con parti e forme nuove e complesse, i team di ricerca e sviluppo utilizzano le scansioni 3D per digitalizzare le attrezzature dei produttori e creare,

di Simon Côté (Product Manager – Creaform) I settori aftermarket dovranno affrontare diversi problemi nel corso del 2019. Molti elementi (come, ad esempio, trasformazione della concorrenza, digitalizzazione dei canali di marketing e aumento dei requisiti di qualità e conformità) stanno alla base della decisione, da parte degli attori del settore, di adottare nuovi approcci, come la tecnologia di scansione 3D. Analizziamo alcuni vantaggi offerti dalla scansione 3D ai settori aftermarket. modernizzare o ottimizzare le parti per ottenere una perfetta adattabilità Sviluppo dei prodotti al primo colpo.

Anche se i produttori continuano a innovare nei propri settori, gli operatori del settore aftermarket sono alle prese con una rapida diffusione della richiesta dello sviluppo di parti e componenti di nuova creazione. Le tempistiche per la creazione di parti e componenti di questo tipo stanno diventando sempre più brevi. Molti fornitori aftermarket utilizzano la tecnologia di scansione 3D per accelerare lo sviluppo e la prototipa-

n

IL SUCCESSO DELLA SCANSIONE 3D NEI SETTORI AFTERMARKET

TECNOLOGIE IN CAMPO

Controllo qualità I settori aftermarket devono aderire a standard di qualità sempre più alti e in continua evoluzione, sia a causa delle richieste dei clienti che degli organismi di regolamentazione. Gli scanner 3D manuali consentono ai team di ricerca/sviluppo e controllo qualità di eseguire ispezioni durante la fase di prototipazione e/o produzione del processo di ci clo di vita dei prodotti. In questo modo, è possibile identificare e risolvere in poco tempo le cause dei problemi di progettazione o lavorazione di un componente, evitando costosi rallentamenti di produzione e richiami dei prodotti durante la realizzazione di un elevato volume di parti. È possibile utilizzare le scansioni 3D anche durante il processo di certificazione dei prodotti. I vantaggi della tecnologia di scansione 3D influenzeranno positivamente la crescita dei settori aftermarket. Gli scanner 3D sono ormai irrinunciabili per qualsiasi fornitore aftermarket che intenda migliorare lo sviluppo, la qualità e il successo commerciale a lungo termine dei propri prodotti.

Reverse engineering Spesso, nei settori aftermarket si deve lavorare con file CAD obsoleti (o assenti) di parti esistenti. Questa situazione rallenta il processo di progettazione delle parti nuove e/o personalizzate e impedisce ai fornitori aftermarket di vendere online o integrarsi con i sistemi ERP dei produttori. Per ulteriori informazioni: Utilizzando la tecnologia www.creaform3d.com di scansione 3D, gli inge- creaform.info.italy@ametek.com gneri possono acquisire rapidamente tutte le misure di un prodotto e ricreare modelli 3D molto precisi e utilizzabili in chiave futura. I vantaggi della scansione 3D vanno ancora oltre: La scansione 3D consente di eseguire il reverse engineering dei componenti dei concorrenti, in modo da migliorare o espandere le linee di prodotti attuali. T_M ƒ 127


N. 02ƒ ; 2019

s

NEWS

40 ANNI AL SERVIZIO DELLA METROLOGIA E DELLA COMPATIBILITÀ ELETTROMAGNETICA TESEO S.p.A. ha compiuto 40 anni! Dal 1978 supportiamo i clienti per migliorare l ’ a ff i d a b i l i t à dei risultati delle proprie misurazioni fornendo servizi, prodotti e soluzioni utili per diversi settori industriali, civili e militari (aerospaziale, automotive, avionico, ferroviario, navale, medicale, monitoraggio e molti altri). Il Laboratorio di taratura TESEO fu accreditato dal SIT nel 1998 e dal 2011 fa parte dei Centri di taratura accreditati da ACCREDIA per le grandezze Intensità di campo elettromagnetico, Potenza in Alta Frequenza e Frequenza (http://en.teseo.clemessy.com/teseo/ qualifications). – Un solo posto per la marcatura CE! Il laboratorio di prova TESEO completa la storica competenza e capacità di misura per prove di compatibilità elettromagnetica con le prove di sicurezza elettrica, semplificando l’attività ai clienti e assistendoli nelle messe a punto. – Il team del laboratorio prove EMC TESEO viene arricchito con due progettisti per facilitare il debug con i clienti. – Verifica il pattern di antenna! Oltre alla misurazione del fattore di antenna, TESEO è in grado di misurare il diagramma di irradiazione delle antenne in tempi rapidissimi: il servizio viene erogato in un solo giorno lavorativo. – Verifica i generatori di scariche elettrostatiche (ESD)! TESEO è attrezzata sia per la misurazione della corrente di scarica a contatto che per la misuFigura 1 – ra della tensione generata dai generatori ESD. – Taratura di misuratori di campo elettromagnetico a 18 GHz a elevate intensità di campo! Il Laboratorio TESEO genera circa 50 V/m di campo elettrico fino a 18 GHz. – 40 GHz! Il laboratorio di taratura TESEO possiede strumentazione riferibile per la misura della po-

T_M ƒ 128

tenza di uscita dei generatori fino a 40 GHz. – Amplifica il tuo segnale! TESEO è rivenditore e centro riparazioni esclusivo degli amplificatori BONN Elektronik, per una sempre maggiore qualità e affidabilità delle nostre proposte EMC. – TESEO organizza il RadiMation User’s meeting, riservato a tutti gli utenti di uno dei più conosciuti e potenti software per la gestione dei laboratori di Prova EMC. Un’occasione per incontrare gli sviluppatori di RadiMation e gli esperti di Dare!!, che presenteranno le nuove caratteristiche del software e potranno confrontarsi con gli Utenti Italiani. Il meeting si terrà presso la TESEO S.p.A. di Druento (TO) il 2 Luglio 2019, e si replicherà il 3 Luglio. Il meeting sarà principalmente in lingua inglese. – Nuovo!! RadiSense 10. Sensore di campo elettrico 9 kHz-10 GHz, alimentato laser. Nessuna batteria ricaricabile e nessun problema di rica rica. Isotropia eccezio na le su tutta la banda. Avete un vecchio sen sore, anche non funzionante, e volete sostituirlo con uno strumento ad al tissime prestazioni? Contattateci. Of friamo vantaggiose opportunità di trade-in con il vostro vecchio sensore di qualsiasi marca. Per maggiori informazioni contattaci a +39 011 9941924 o scrivici a services.teseo@eiffage.com. PER TUTTI UNA PROMOZIONE SPECIALE: AT2019 NELL’EMAIL DI RICHIESTA

INSERISCI IL CODICE


METROLOGIA GENERALE

s

Rubrica a cura di Luca Mari

Articolo di L. Mari 1, C. Narduzzi 2

Verso un’incertezza di classificazione La cultura metrologica nella valutazione delle proprietà classificatorie GENERAL METROLOGY In this permanent section of the Journal our colleague and friend Luca Mari, world-recognized expert in fundamental metrology and member of several International Committees, informs the readers on the new development of the fundamental norms and documents of interest for all metrologists and measurement experts. Do not hesitate to contact him!

METROLOGIA GENERALE In questa Rubrica permanente il collega e amico Luca Mari, internazionalmente riconosciuto quale esperto di metrologia fondamentale e membro di numerosi tavoli di lavoro per la redazione di Norme, informa i lettori sui più recenti temi d’interesse e sugli sviluppi di Norme e Documenti. Scrivete a Luca per commentare i suoi articoli e per proporre ulteriori temi di discussione!

Il Joint Committee for Guides in Metrology (JCGM) ha recentemente invitato il suo gruppo di lavoro 2 a finalizzare la bozza di una nuova edizione del Vocabolario Internazionale di Metrologia (VIM) (si vedano le “News from JCGM/ WG2” all’indirizzo www.bipm. org/utils/en/pdf/news_jcgmwg2.pdf). La principale novità attesa per il VIM4 è un nuovo capitolo, interamente dedicato alle proprietà classificatorie e alla loro valutazione. Ricordiamo prima di tutto di cosa si tratta. Una proprietà classificatoria (“nominal property” nell’edizione inglese e “propriété qualitative” nell’edizione francese del VIM) è una proprietà che consente solo di classificare le entità che la possiedono, ma non di stabilire un ordine e nemmeno una distanza tra esse. Un esempio è la forma delle macchie di inchiostro su una pagina, interpretate come caratteri alfanumerici da riconoscere (il compito dei sistemi software di OCR, Optical Character Recognition). Alla conclusione del processo di riconoscimento ogni forma è riconosciuta come un certo carattere, ma questo riconoscimento è appunto solo una classificazione: si stabilisce se la forma delle macchie è tale

come, per esempio, le diagnosi mediche è evidentemente importante. Parafrasiamo al proposito il paragrafo di apertura della Guida all’espressione dell’incertezza di misura (GUM), con sottolineate le parti in cui i riferimenti alla misurazione sono diventati riferimenti alla valutazione di proprietà classificatorie, qui chiamate “classificazioni” per brevità: “Nel riportare il risultato di una classificazione, è obbligatorio fornire una qualche indicazione quantitativa della qualità del risultato, cosicché gli utenti ne possano accertare l’attendibilità. Senza tale indicazione i risultati della classificazione non possono essere confrontati né tra di loro, né con valori di riferimento assegnati da specifiche o norme. È pertanto necessario che esista una procedura, di agevole comprensione e applicazione, nonché generalmente accettata, per caratterizzare la qualità del risultato di una classificazione”. Come si vede, lo spirito di questa dichiarazione è perfettamente trasferibile dalla misurazione alla valutazione di proprietà classificatorie: nel riconoscimento della “obbligatorietà” rimarcata dalla GUM nulla è specifico alla condizione che le valutazioni siano quantitative invece che qualitative. Uno degli insegnamenti di base della metrologia è che è la struttura dell’intero sistema metrologico a garantire la qualità dei risultati di misura: non solo un appropriato strumento di misura, ma l’intera catena di riferibilità che, a partire dalla definizione dell’unità e fino alla taratura dello strumento, rende riferibili i risultati all’unità. Certo, il sistema metrologico non è utilizzabile come tale nel caso delle pro-

che due certe forme sono nella stessa classe o no – cioè se il carattere scritto è lo stesso o no – ma non se una forma sia maggiore di un’altra, o quanto due forme distino tra loro. Un altro caso di proprietà classificatoria è il gruppo sanguigno degli esseri umani, classificato per esempio mediante il sistema AB0 nelle quattro classi identificate dai valori 0, A, B e AB. Astraendo a sufficienza dai dettagli, emerge l’analogia con la misurazione. Per esempio: vedere la tabella a pagina successiva. Questo pare sufficiente per spiegare l’invito del JCGM: nonostante le loro differenze, le analogie tra la misurazione – per come intesa tradizionalmente – e la classificazione sono tali da giustificare un lavoro finalizzato a rendere possibile l’adozione della cultura metrologica nel contesto della valutazione delle proprietà classificatorie, e ciò a partire dal vocabolario, dunque. Sull’importanza di questa adozione non ci dovrebbero essere dubbi: la 1 LIUC - Univ. Cattaneo metrologia è, fondamentalmente, la (Castellanza – VA) scienza della qualità dei dati acquisiti lmari@liuc.it per via empirica, e poter stabilire la qualità dei risultati di classificazioni 2 Università di Padova T_M

N.

2/19 ƒ 129


N. 02ƒ ; 2019

s

METROLOGIA GENERALE

Nella

misurazione di masse

classificazione di forme di caratteri

si parte da

oggetti dotati di massa

oggetti dotati di forma

e se ne considera una proprietà, e cioè

la massa.

la forma.

Sono disponibili oggetti campione per la proprietà, e cioè

un insieme di masse campione,

un insieme di forme campione,

a ognuno dei quali è associato un valore per la proprietà, e cioè

a ogni massa campione è associato un valore di massa (1 kg, 2 kg, …),

a ogni forma campione è associato un valore di forma (“a”, “b”, …),

in cui il valore è un elemento di un insieme predefinito, e cioè

un insieme di multipli e sottomultipli del kilogrammo.

un insieme di caratteri, {“a”, “b”, …}.

Si allora confronta la proprietà dell’oggetto in esame con le proprietà dei campioni, e dunque

si confronta la massa del corpo con le masse campione

si confronta la forma della macchia con le forme campione

fino a trovare il campione indistinguibile dall’oggetto per la proprietà, e dunque

si trova una certa massa campione.

si trova una certa forma campione.

Si attribuisce infine all’oggetto il valore della proprietà del campione trovato, e dunque

si attribuisce alla massa del corpo un certo valore di massa (1 kg, oppure 2 kg, …),

si attribuisce alla forma della macchia un certo valore di forma (“a”, oppure “b”, …),

così che il risultato del processo si può scrivere per esempio come

massa(corpo) = 1,234 kg

Forma (macchia) = “b”

NEWS

t

prietà classificatorie, per le quali è necessario in particolare definire separatamente ogni proprietà di riferimento invece che solo l’unità (nell’esempio dell’OCR, occorre dunque definire separatamente ogni caratte-

NUOVO SISTEMA DI ALLINEAMENTO LASER PER MACCHINE UTENSILI Il nuovo sistema laser XK10, sviluppato da Renishaw per la costruzione e l’allineamento delle macchine utensili, può essere utilizzato per verificare la rettilineità, la perpendicolarità, la planarità e la messa in bolla delle guide delle macchine utensili. Il sistema, inoltre, consente di verificare il corretto allineamento e la coassialità tra il mandrino e la relativa contro punta dei torni paralleli. Questi fattori possono essere misurati e allineati con XK10 durante l’assemblaggio e la messa in opera, utilizzando il display del sistema in tempo reale. Il nuovo sistema è anche uno strumento efficace per effettuare diagnosi e individuare l’origine degli errori a seguito di una collisione, oppure all’interno di una normale routine di manutenzione.

T_M ƒ 130

re). Ma la struttura del sistema non dipende dalla struttura delle proprietà considerate, e dunque anche a proposito della possibilità di trattare di campioni, taratura, riferibilità, ecc. per proprietà classificatorie l’invito del

XK10 è in grado di misurare e allineare componenti geometrici e rotativi di macchine con assi lunghi fino a 30 m. e rende superfluo l’uso di squadre in granito e barre rettificate che richiedono costi elevati sia per la taratura sia per il trasporto. Questo singolo sistema modulare può essere facilmente montato sulle guide della macchina ed eseguire misure e impostazioni a una velocità superiore rispetto ai metodi tradizionali. Semplifica le misure complesse, come quelle di parallelismo, trasformandole in un rapido processo eseguibile in due parti che permette di eliminare l’inconveniente relativo alla distanza fisica fra le guide, che da sempre limita l’uso delle tecniche tradizionali. Il software di XK10 è estremamente intuitivo e non richiede la presenza di operatori specializzati. Le misure vengono registrate digitalmente e possono essere esportate assicurando la tracciabilità degli standard internazionali, oppure possono essere visualizzate direttamente nel display.

JCGM pare avere molto senso. In tutto ciò, la frase finale del paragrafo di apertura della GUM assume una rilevanza particolare, una volta riportata nella sua completezza: “È pertanto necessario che esista una procedu-

Il nuovo sistema di allineamento laser di Renishaw consente di superare tutti gli ostacoli, grazie a una singola soluzione digitale compatibile con moltissimi modelli di macchine utensili. Per conoscere da vicino il sistema di allineamento laser XK10 e la sua capacità di ottimizzare i processi di assemblaggio delle macchine utensili, veniteci a trovare a EMO19 (Padiglione 6, Stand D48). Per ulteriori informazioni: www.renishaw.it.


N. 02ƒ ;2019

l’ambito della comunità metrologica tradizionale. Nelle indagini preliminari che, in quanto componenti del JCGM/WG2, abbiamo svolto intorno alla possibilità di introdurre nel VIM un concetto di incertezza di classificazione ci sono state rivolte in particolare due obiezioni, che commentiamo qui. La prima obiezione può essere formulata più o meno così: dato che la misura di probabilità ha una struttura ordinale, e in effetti additiva su sottoinsiemi / eventi disgiunti, come può essere impiegata per proprietà classificatorie, che invece non sono nemmeno ordinate? L’esempio proposto sopra a riguardo dell’OCR dovrebbe essere sufficiente a mostrare l’infondatezza di questa obiezione: semplicemente, il fatto di riconoscere la “a” come più probabile della “z” non ha nulla a che fare con le relazioni tra i caratteri da riconoscere. E infatti è ben noto che di una qualsiasi distribuzione di probabilità {pi} è calcolabile l’entropia à la Shannon, –Σi pi log(pi), che misura la quantità di informazione che si ottiene scegliendo un valore dalla distribuzione. La seconda obiezione è più sottile. Ci è stato fatto notare che da tanto tempo si realizzano classificazioni e che, pur con eccezioni, generalmente non emerge la necessità di riportare un indice della qualità dei loro risultati (insomma, il risultato dell’esame del gruppo sanguigno è un gruppo, non una distribuzione di probabilità): perché ce ne dovremmo preoccupare ora, dunque? Le risposte possibili, non alternative, sono varie. Ci si potrebbe rifare alla storia della misurazione, praticata per secoli in assenza di una “teoria degli errori”, che infatti fu sviluppata solo all’inizio del XIX secolo: non siamo costretti a trattare di incertezza di misura (anche se – come abbiamo ricordato – la GUM parla di “obbligatorietà” …), ma dubitiamo che con ciò qualcuno rimpianga un passato di illusorie certezze. Si potrebbe considerare che nella vita quotidiana anche i risultati della gran parte delle misurazioni sono riportati come singoli valori e senza alcuna

n

ra, di agevole comprensione e applicazione, nonché generalmente accettata, per caratterizzare la qualità del risultato di una misurazione / classificazione, vale a dire, per valutarne ed esprimerne l’incertezza”. L’idea è, di principio, ovvia: – primo, la forma generale del risultato di una classificazione è una distribuzione di probabilità sull’insieme dei valori possibili, così che, per esempio, la forma di una certa macchia di inchiostro su una pagina potrebbe essere riconosciuta non come un (solo) carattere, ma come una distribuzione di probabilità sull’insieme dei caratteri, dunque un insieme di coppie (carattere, probabilità) come {(“a”, 0,80), (“d”, 0,15), (“o”, 0,05), (ogni altro carattere, 0,00)}, con il significato che il carattere esaminato è molto probabilmente una “a” ma non si esclude che possa essere una “d” oppure, benché ancora meno probabilmente, una “o”; – secondo, ha senso sintetizzare il risultato della classificazione in un singolo valore, e dunque l’intera distribuzione in un solo carattere, ma in tal caso è opportuno fornire anche un’informazione sull’affidabilità che si attribuisce a questo valore; si sceglie tipicamente la moda della distribuzione, cioè il suo valore più probabile, ma mentre nel caso precedente la scelta della “a” non lascia troppi dubbi, se il risultato della classificazione fosse {(“a”, 0,55), (“d”, 0,45), (ogni altro carattere, 0,00)} la sintesi sarebbe più controversa, benché formalmente anche in questo caso la distribuzione sia unimodale: l’alternativa tra “a” e “d” sarebbe infatti ben più problematica di prima. Potemmo dunque dotarci di un’incertezza di classificazione, che, in analogia con l’incertezza di misura, fornisca un indice di qualità dell’informazione che si riporta come risultato della classificazione stessa. Il concetto assume un rilievo particolare se riferito ai sistemi ad apprendimento automatico (machine learning), in considerazione del ruolo crescente che essi rivestono in molte attività che richiedono decisioni basate sulla classificazione. Questo mette ulteriormente in risalto l’attualità del tema, che si estende oltre

METROLOGIA GENERALE

indicazione esplicita circa la loro incertezza, solo affidandosi all’informazione implicitamente presente nel numero di cifre significative del valore riportato (lo ammette perfino il VIM, in una nota alla definizione di ‘risultato di misura’: “Qualora l’incertezza di misura sia considerata trascurabile per un determinato scopo, il risultato di misura può essere espresso indicando il solo valore misurato. In molti campi, questo è un modo comune per esprimere il risultato di misura”). Per analogia, nel caso delle proprietà classificatorie sarebbe sufficiente scegliere un insieme di classi non troppo fine per trovarsi generalmente nella condizione di poter produrre un solo valore, in pratica certo, come risultato della classificazione. Ciò ha senso, ma non pare sufficiente: come trattare i casi in cui si volessero invece adottare classificazioni più fini, in cui l’informazione acquista sperimentalmente potrebbe non essere sufficiente a identificare una sola classe con sufficiente certezza? Più interessante è un’ulteriore posizione: introdurre un’incertezza di classificazione non sarebbe necessario perché nella pratica si scelgono metodi di classificazione che conducono a risultati non equivoci, e quando un metodo non è sufficiente per discriminare tra due o più classi se ne adotta un altro, fino a ottenere la classificazione in una singola classe con un tale grado di certezza da rendere inutile un’indicazione dell’incertezza di tale risultato. Una tale procedura iterativa ha, evidentemente, molto senso ma, altrettanto evidentemente, ha dei costi, che l’introduzione di un’incertezza di classificazione consentirebbe di gestire attraverso un nuovo grado di libertà: si potrebbe ridurre tali costi accettando di produrre risultati la cui incertezza è dichiarata in modo esplicito, ed è minore di una data incertezza obiettivo. Questo è l’humus culturale in cui, a proposito delle proprietà classificatorie e della loro valutazione, si sta sviluppando la bozza della prossima edizione del VIM. Si tratta però ancora di “lavori in corso”. I pareri che i lettori ci volessero far giungere sarebbero preziosi. T_M ƒ 131


LA MISURA DEL SOFTWARE

s

Rubrica a cura di Luigi Buglione – GUFPI-ISMA

Metrologia e Contratti Parte 12 – Misurazione e Automazione: Condizioni d’Uso per generare Valore

– il “perché” (WHY) gli obiettivi che quel piano dovrà (possibilmente) conseguire; – il “come” (HOW) le modalità operative e gli strumenti attraverso i quali conseguire tali obiettivi; – il “dove” (WHEN) determini le parti dell’organizzazione/progetto su cui applicare tali attività; – il “quando” (WHERE) determini le corrette tempistiche nell’applicazione delRIASSUNTO l’attività (anche tramite cronigrammi) e Dodicesimo articolo basato sulle nuove linee guida GUFPI-ISMA sul corretto frequenze per la raccolta e rappresenuso di ‘Principi, Assunzioni e Best Practice Contrattuali’ (vol.1, 2016), relatitazione dei dati, informazioni e KPI; vo a quando e come poter trarre un valore aggiunto dall’uso di un tool auto– il “quanto” (HOW MUCH) – il sesto matico in tema di misurazione del software (e non solo). elemento – determini un set di misure idonee a osservare se il piano stia camminando nella corretta direzione, eviINTRODUZIONE la c.d. regola delle ‘5W+H’: Who, denziando tempestivamente possibili What, Why, Where, When, How. Per- inefficienze o scostamenti da poter corDodicesimo appuntamento con la disa- tanto, è necessario determinare chi reggere. mina dell’applicazione di buoni princi- (WHO) ha fatto cosa (WHAT), quando pi di misurazione ai contratti (ICT e (WHEN) e dove (WHERE), ma sopratnon), relativo agli aspetti di corretto tutto perchè (WHY) è avvenuto quel censimento delle misure e loro utilizzo fatto e come (HOW) [2]. Questa regola in un piano di misurazione, altro spun- è stata negli ultimi 25 anni “trasportato incluso nelle “linee guida contrattua- ta” anche nell’ingegneria del software li” GUFPI-ISMA 2016 [1]. ed applicata ai progetti ICT per valutaUno dei punti spesso dibattuti nel mondo re la bontà di un qualsivoglia piano di ICT è il valore che uno strumento auto- lavoro: piano di progetto, piano dei matico (tool) possa generare laddove test, piano di gestione servizio e via usato in un progetto. E il rischio è quello dicendo, aggiungendo una sesta lettedi finire in dispute sterili con fazioni con- ra, una seconda “H” (HOW MUCH) trapposte, ciascuna a sostenere una pro- per indicare anche la misurabilità delle pria visione delle cose. Serve quindi pro- attività in oggetto [3]. porre ed applicare criteri, possibilmente Ecco allora che si andrebbe a verificasemplici e di buon senso, per valutarne il re che: possibile valore aggiunto per ottenere – il “chi” (WHO) serve per verificare la Figura 1 - Le “5W+2H”: sette criteri da osservare per una pianificazione ottimizzazioni in termini di tempi e costi. corretta assegnazione di ruoli e reAltrimenti l’automazione può diventare sponsabilità, ad esempio tramite l’uso un “extra-costo” e non più un elemento di matrici RACI (Responsible-Accounta- Nella gestione servizi (“service management”) framework quali ITIL e standi vantaggio per un progetto. ble-Consulted-Informed) [4]; – il “cosa” (WHAT) la corretta determi- dard quali la famiglia ISO 20000-x – il nazione delle attività dei processi e PARTIAMO DALLE REGOLE relative procedure, cercando di deterDEL GIORNALISMO... minare una appropriata “value chain” Presidente GUFPI-ISMA - Gruppo Utenti (una delle tecniche di ottimizzazione Function Point Italia Nel giornalismo esiste una regola per suggerite in ambito Lean/DevOps è il Italian Software Metrics Association luigi.buglione@gufpi-isma.org valutare la completezza di un articolo, “value stream mapping”) [5, 6]; METROLOGY AND CONTRACTS - PART 12: MEASUREMENT AND AUTOMATION: CONDITIONS FOR A PROPER AND VALUABLE USAGE Twelfth paper based on the new GUFPI-ISMA guidelines on the proper use of “Principles, Assumptions and Contractual Best Practices” (vol.1, 2016) is about when and how automatic tools about (not only) software measurement can generate added value.

T_M

N.

2/19 ƒ 132


N. 02 04ƒ ;2019 8 cui obiettivo è quello di comprendere come generare e mantenere alto il “valore” che un cliente/utente ottiene da un servizio – associano le due componenti del valore (utilità e garanzia) rispettivamente al “cosa” (WHAT) deve erogare un servizio, pertanto ai requisiti funzionali utente (FUR – Functional User Requirements), e al “come/quanto” (HOW/HOW MUCH), ovverosia ai requisiti non-funzionali (NFR – Non-Functional Requirements), quali la sicurezza, continuità operativa, capacità, disponibilità e via dicendo... In generale ciò che nell’ingegneria del software (e non solo) verrebbero denominate quali caratteristiche “qualitative”, con un riferimento utile alla famiglia di standard ISO 25000, in particolare 25010 (qualità dei prodotti software) [7], 25011 (qualità dei servizi) [8], 25012 (qualità dei dati) [9].

zione però di farlo con un alto grado di precisione e ripetibilità. Alcuni possibili esempi: è utile una scala mobile o un ascensore per evitare una fatica fisica ad una persona che non possa/voglia salire o scendere molte scale, magari con un carico pesante da trasportare. Ma potrebbe essere non utile una macchina per cucire le “cifre” su una camicia quando la

QUANDO È UTILE UNO STRUMENTO?

dimensione desiderata non sia quella che la macchina possa gestire. È utile un chatbot per fornire informazioni 24x7 a un utente di un servizio informatico (es: presenti sui portali di assistenza Vodafone o Telecom Italia nel settore delle TLC), ma va comparato il costo dell’implementazione di tali meccanismi di machine learning con il beneficio (e quindi il risparmio) dal liberare un servizio reso da umani, considerando anche il livello di precisione nelle risposte fornite. È utile una lavastoviglie in casa, ma quando il numero di stoviglie da lavare sia sufficientemente alto per periodo considerato e ci sia convenienza tra costo di acquisto e di gestione dell’apparecchio in un dato lasso di tempo... altrimenti potrebbe convenire continuare a lavare i piatti a mano, anche se talvolta ci fossero “picchi” di lavaggio. E non va esclusa la valutazione sulla precisione nella pulizia automatica o manuale. Rimanendo ad esempi casalinghi, una lavatrice ha (nella genericità dell’esempio) sicura-

I tool (automatici e non) fanno parte del “come” (HOW) implementare una soluzione cercando di farlo in modo efficace ed efficiente. Il loro valore risiede nel velocizzare il tempo di ottenimento di un qualsivoglia risultato, liberando il tempo di lavoro dell’operatore umano per svolgere altre attività a maggior valore aggiunto, a condi-

Figura 2 - Possibili Criteri di Scelta per un prodotto/servizio: cosa prioritizzare?

s

LA MISURA DEL SOFTWARE

mente una frequenza d’uso maggiore di una lavastoviglie. Ma quando poi si tratta di stirare, probabilmente in molti preferiscono uno stiraggio di una camicia manuale. Insomma, per scegliere se applicare o meno uno strumento non va più calcolato il “semplice” ROI (Return On Investment – il rapporto tra i guadagni attualizzati rispetto all’investimento iniziale), ma una

Figura 3 - Un esempio di DevOps ToolChain

sua versione “potenziata”, il VOI (Value On Investment), che tiene conto nei guadagni anche degli aspetti intangibili, a partire dalle “preferenze” degli utenti di un servizio (ad esempio, il preferire una marca al di là delle caratteristiche tecniche di un dato prodotto rispetto ad altri concorrenti... Coca o Pepsi? VHS o Betamax? Laptop o tablet? Trattoria X o Ristorante Y?). Il rischio è quello di diventare “tifosi” e di ridurre il livello di oggettività nelle scelte da intraprendere. Come indicato nel cartello di Fig.2, tra le tre caratteristiche “good-cheap-fast”, non si può sceglierle tutte e tre, ma bisogna “cedere” su qualche aspetto, perchè il servizio perfetto non esiste! TOOLCHAIN E DEVOPS

DevOps è un movimento culturale e professionale nato circa 10 anni fa che intende “stringere” la catena del valore tra quelli del “Dev” (tipicamente i ruoli nelle fasi “alte” di un ciclo di T_M ƒ 133


vita di un progetto, fino al rilascio) e quelli dell’“Ops” (tipicamente i ruoli nelle fasi operative, di esercizio e gestione di un prodotto/servizio). La tecnologia e i tool sono importanti, ovviamente, per poter rilasciare più velocemente, automatizzando, le funzionalità verso gli utenti finali e si cerca di stimolare il più possibile delle modalità per un testing cosiddetto “shift left”, che permetta di bloccare gli errori prima di un rilascio in esercizio, riducendo ad esempio test ma nuali e cercando con tecniche quali il TDD (Test Driven Development) di automatizzare i cicli di test. Il termine usato per determinare la corretta concatenazione dei tool tra i vari momenti del progetto è “toolchain” (catena di tool) che dovrebbero integrarsi tra di loro per generare un automatismo che possa far risparmiare tempo (e quindi soldi). Le indicazioni del DOI (DevOps Institute) al riguardo sono, tra le altre [6]: – non puntare su suite complete di una sola azienda (per mantenere indipendenza tra tool usati per coprire diverse fasi del ciclo di vita di un progetto); – automatizzare le parti sulle quali c’è un maggior “rodaggio” e conoscenza e che ottengano pertanto un risultato estremamente affidabile in termini di qualità dell’outcome rispetto all’esecutore umano, e quindi un minor grado di “taratura” periodica, come avviene per gli strumenti nel mondo fisico (e non digitale). È pertanto fondamentale comprendere il livello di stabilità di un input per ciascun tool rispetto all’affidabilità dell’output che genererà per potersi “fidare” di un qualsivoglia strumento: un tool non può e non deve diventare un obiettivo, ma rimanere uno degli “ingredienti” di un progetto. ALCUNE CONCLUSIONI...

Come sempre, la soluzione che ottimizzi i desiderata di tutti gli stakeholder non esiste. Tool per la code review analysis sono sicuramente più utili che non tool per modellizzare requisiti ambigui che richederebbero più tempo e non sarebbero necessariamente T_M ƒ 134

N. 02 04ƒ ; 2019 8

n

LA MISURA DEL SOFTWARE

precisi per ogni uso successivo nelle fasi successive di un ciclo di vita. In ogni caso è necessario un bilanciamento e prioritizzazione dei requisiti e dei vincoli operativi di un progetto (es: i c.d. PESTEL factors [10]) per poter decidere gli ingredienti migliori per un dato progetto. Nei prossimi numeri continueremo a commentare ulteriori aspetti derivati dall’analisi delle nuove “linee guida contrattuali” GUFPI-ISMA [1] (in Fig. 4 gli argomenti trattati nel documenFigura 4 - Principi, Assunzioni to), cercando di evie Best Practice Contrattuali (PABPC), Vol.1 [1] denziare come una corretta applicazione degli aspetti di misurazione permet- 2014, IEEE/CS Proceedings, pp.82ta a un decision-maker di disporre di 85, URL: http://tiny.cc/g62n6y. dati, informazioni e conoscenze (trend) [4] Kantor B., The RACI matrix: Your il più possibile oggettivi utili prendere blueprint for project success, CIO Magdecisioni consapevoli che tengano in azine, 30/01/2018, URL: http:// debito conto anche i rischi da indivi- tiny.cc/012n6y. duare, gestire e possibilmente preve- [5] Rother M, Shook J. Learning to See: value-stream mapping to create value dere in un progetto. and eliminate muda, Lean Enterprise Automation is good, so long as you Institute, 1999. ISBN 0-9667843-0-8. know exactly where to put the [6] Zorah S., How to Choose The Right machine“ (Eliyahu Goldratt) DevOps Tool, Dzone, URL: http:// tiny.cc/z52n6y. [7] ISO/IEC 25010:2011, Systems and software engineering – Systems and software Quality Requirements RIFERIMENTI BIBLIOGRAFICI and Evaluation (SQuaRE) – System and [1] GUFPI-ISMA, Principi, Assunzioni software quality models. & Best Practice Contrattuali (Vol.1), [8] ISO/IEC TS 25011:2017, Information technology – Systems and softFeb 2016. [2] –, URL: https://it.wikipedia. ware Quality Requirements and Evaluation (SQuaRE) – Service quality org/wiki/Regola_delle_5_W. [3] Buglione L., Ruffatti G., Oltolina S., models. Gagliardi D., Frati F., Damiani E., Ba- [9] ISO/IEC 25012:2008, Software lanced Measurement Sets: Criteria for engineering – Software product QuaImproving Project Management Prac- lity Requirements and Evaluation tices, ISSRE 2014, 25th IEEE Interna- (SQuaRE) – Data quality model. tional Symposium. on Software Relia- [10] –, URL: https://pestleanalysis. bility, Naples (Italy), November 5 com/what-is-pestle-analysis.


METROLOGIA LEGALE E FORENSE

s

Rubrica a cura dell’Avv. Veronica Scotti (www.avvocatoscotti.com)

Revisione del SI e legislazione nazionale Nuovo SI e doppio binario

LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the socalled MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! Come noto agli addetti del settore, lo scorso 20 maggio, in occasione della Giornata della Metrologia, è entrato in vigore il nuovo SI che ha determinato una modifica sostanziale delle unità di misura in termini di loro definizione, più accurata e specifica, ferme naturalmente le unità stesse rimaste immutate. Cosa cambia per le attività che coinvolgono processi di misura? Una breve occhiata alle principali disposizioni normative del settore può fornire qualche spunto. In primis, va evidenziato che il SI è argomento di esclusiva pertinenza, quanto alla parte scientifica e di merito, della CGPM, che è figlia di una convenzione internazionale recepita e attuata dagli Stati firmatari i quali hanno dato esecuzione agli impegni assunti con tale Trattato, ciascuno all’interno dei propri territori, mediante appositi strumenti normativi attuativi. In Italia, i due preminenti provvedimenti normativi riguardanti il settore delle misure, con specifico riferimento alle unità di misura e loro uso, sono il DPR 802/19821 e la Legge 273/19912.

caso il legislatore, anziché utilizzare la tecnica del rinvio, è ricorso a quella dell’assorbimento nella legge (o atto equivalente da non intendersi in senso proprio) della norma tecnica o comunque di un contenuto di natura tecnica che, una volta superato a seguito del progresso maturato nel settore coinvolto, necessita di un nuovo intervento normativo tale da consentire il riconoscimento giuridico dei nuovi concetti tecnici e renderli quindi validi ed efficaci anche in termini legali. Nel caso di specie, il legislatore si dilunga nell’allegato a riportare dettagliatamente le definizioni delle unità di misura, così come identificate a livello internazionale dal SI, peraltro riproducendo pedissequamente il testo della direttiva europea cui ha dato esecuzione (Direttiva 80/181/CE e successive modifiche), con ciò garantendo una chiara individuazione dei riferimenti tecnici necessari al rispetto del provvedimento normativo ma, d’altra parte, determinando un immobilismo “pericoloso” in caso di variazione degli schemi tecnici, come recentemente avvenuto con l’evoluzione del settore delle misure. Al riguardo si può ragionevolmente ritenere che la modifica del SI dovrebbe essere a breve recepita in ambito UE, sia per ovvie ragioni di opportunità, sia in virtù della stessa direttiva 2009/3/CE che stabilisce, quale norma di chiusura, che “La Commissione segue l’evoluzione del mercato relativamente alla presente direttiva e alla sua attuazione per quanto concerne il regolare funzionamento del mercato interno e del commercio internazionale e presenta al Parlamento europeo e al Consiglio una relazione entro il 31

Il primo atto normativo impone espressamente l’utilizzo delle unità di misura elencate nell’allegato al decreto che, nell’ambito di una serie numerosa di attività volta a comprendere quasi tutti i settori rilevanti (economico in specie), devono essere tassativamente applicate agli strumenti di misura impiegati, alle misurazioni effettuate e alle indicazioni di grandezza espresse in unità di misura. Alla luce di tale disposizione pare non porsi alcun problema all’ingresso, anche nel panorama giuridico, del nuovo SI; tuttavia, il decreto precisa chiaramente che si devono usare esclusivamente le denominazioni, le definizioni e i simboli previsti nell’allegato. Sul punto si rende opportuno precisare che, come intuitivamente si può immaginare, il legislatore ancora non è intervenuto a modificare le definizioni delle unità di misura che sono rimaste immutate anche dopo l’entrata in vigore del nuovo SI (NdA: e comunque alla data Avvocato – Foro di Milano odierna per chi scrive). Come già ho avuto modo in altre occa- Professore a contratto al Politecnico di Milano sioni di evidenziare3, anche in questo veronica.scotti@gmail.com T_M

N.

T_M 135 2/19 ƒ ƒ135


dicembre 2019, corredata, se del caso, di adeguate proposte”. L’ulteriore elemento su cui soffermarsi brevemente riguarda l’istituzione del sistema nazionale di taratura che, per espressa previsione normativa, ha il precipuo compito di “assicurare la riferibilità ai campioni nazionali dei risultati delle misurazioni, nonché di disseminare le unità di misura”, “attuando tutte le operazioni tecniche e procedurali che consentono e garantiscono il trasferimento delle unità di misura dal livello di riferimento dei campioni primari a quello applicativo attraverso una catena ininterrotta di confronti”. Ne deriva chiaramente che, dal 20 maggio, l’INRIM diffonde e promuove l’uso delle nuove unità di misura, secondo la definizione tecnica oggi vigente, che saranno quindi utilizzate dai laboratori di taratura e prova per le tarature e verifiche sugli strumenti di misura, non solo in ambito puramente privatistico ma soprattutto (visto l’ampliamento del campo di applicazione della metrologia legale) con riguardo ad attività di rilevanza pubblicistica4, sebbene svolte sotto forma di esercizio di impresa. Ci troviamo, al momento (puramente e auspicabilmente transitorio), di fronte a una situazione in cui: 1) La regola d’arte è, con riguardo all’applicazione delle nuove (definizioni di) unità di misura, determinata dagli istituti metrologici primari nazionali. 2) Le norme di legge impongono l’uso di (definizioni di) unità di misura diverse e ormai superate, senza possibilità di alternative. Occorre, quindi, chiedersi quali siano le conseguenze dirette di una simile situazione, atteso che le violazioni alle norme di legge comportano sanzioni amministrative. In specie, sono obbligati i laboratori accreditati a adottare necessariamente il riferimento ai nuovi campioni definiti dal nuovo SI e presenti presso INRIM? In regime di accreditamento, i laboratori devono attenersi scrupolosamente sia alle previsioni contrattuali disposte dall’ente di accreditamento, regolamenti tecnici e documenti pertinenti sempre di provenienza dell’ente, nonT_M ƒ 136

N. 02 04ƒ ; 2019 8

n

METROLOGIA LEGALE E FORENSE

ché agli standard di riferimento, a pena di sospensione dell’accreditamento. Un esempio utile può essere rappresentato dalla stessa norma UNI EN ISO 17025 che, per quanto riguarda la riferibilità delle misure, prevede che il laboratorio stabilisca la riferibilità dei propri campioni di misura e degli strumenti per misurazione, relativi al sistema SI, a mezzo di una catena ininterrotta di tarature e confronti che li collegano ai relativi campioni primari delle unità di misura del SI. Inoltre, stabilisce che i campioni nazionali di misura possono essere campioni primari o rappresentazioni riconosciute delle unità SI fondate su costanti fisiche fondamentali o possono essere campioni secondari tarati da un altro istituto nazionale di metrologia. Ulteriormente, non si può trascurare che la stessa norma dispone il rinvio a quanto previsto dal VIM – Guida ISO/IEC 99:2007 e norma UNI CEI 70099:2008, che indica interpretazioni funzionali alla corretta applicazione della norma stessa fornendo le definizioni di misura e di campione di misura con evidente riferimento al SI (nonché alla CGPM e al CIPM). Tutto ciò considerato, risulta certamente arduo, per gli organismi accreditati, discostarsi dal nuovo SI, continuando a utilizzare campioni di riferimento basati sul sistema precedente in quanto tale circostanza determinerebbe una violazione a standard, cui tali organizzazioni hanno aderito, che potrebbe compromettere lo svolgimento delle attività sotto accreditamento, obbligando l’organismo, nella migliore delle ipotesi, a un adeguamento entro un termine perentorio stabilito dall’ente di accreditamento. In ogni caso, inquadrando il problema esclusivamente sotto il profilo dell’accreditamento, l’applicazione del nuovo SI da parte degli organismi comporterà solamente un allineamento di natura tecnica al nuovo sistema e alle nuove definizioni, senza particolari impatti, mentre, allargando la prospettiva e considerando gli aspetti prettamente legali della questione, come deve essere considerata la recente evo-

luzione delle misure? In ambito legale, semplicemente, non c’è alcuna evoluzione rilevante poiché, stante la situazione odierna, ovvero considerato il testo della norma vigente (vedasi DPR 802/1982 allegato I), i soggetti che utilizzano le misure per transazioni commerciali ed economiche, con ciò includendo chiunque nell’esercizio di impresa usi per la propria attività strumenti di misura (salvo che le misure abbiano un mero scopo interno), possono continuare anzi devono continuare a utilizzare le precedenti definizioni di unità di misura poiché rappresentano gli unici riferimenti legali la cui inosservanza è punita ai sensi del DPR 802/1982. Risulta quindi evidente che il problema è di natura prettamente legale, poiché, attualmente, dal punto di vista tecnico, la distinzione tra le definizioni di unità di misura ante e post 20 maggio 2019 è più che altro di natura formale. Tuttavia, in prospettiva evolutiva, il nuovo SI consentirà una maggiore accuratezza delle misure che rischierà di determinare una frattura tra quanto previsto dalla legge e l’evoluzione tecnica, sacrificando il progresso in favore di situazioni anacronistiche sebbene legalmente riconosciute come uniche valide.

NOTE DELL’AUTORE 1

Decreto del Presidente della Repubblica 12 agosto 1982, n. 802 - Attuazione della direttiva (CEE) n. 80/181 relativa alle unità di misura 2 Legge 11 agosto 1991, n. 273 Istituzione del sistema nazionale di taratura. 3 Sulla differenza tra tecnica legislativa del rinvio e dell’assorbimento si veda Alessandro Ferrero e Veronica Scotti “con l’incertezza di misura un Giudice derubrica un reato di guida in stato di ebbrezza”, TuttoMisure n. 4/2017. 4 Le attività di misura hanno assunto rilevanza pubblicistica a seguito dell’entrata in vigore del D.Lgs 22/2007 e relativo decreto attuativo che contempla i controlli su un numero elevato di strumenti di misura, prevedendo sanzioni di natura amministrativa in caso di violazione.


s

Rubrica a cura di Alessandro Ferrero, Pasquale Daponte e Nicola Paone

SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI

Dalle Associazioni Universitarie di Misuristi Notizie da GMEE e GMMT

THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the significant information from the main University Associations in Measurement Science and Technology. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di Scienza e Tecnologia delle Misure.

ANCORA UN LUTTO NEL MONDO DELLE MISURE

È con grande tristezza che apprendiamo che l’11 Maggio 2019 è venuto a mancare il Prof. Nicola Pitrone, per tanti di noi un caro amico, prima ancora di un collega. Lo ricordiamo con le parole dei suoi allievi di Catania. Nicola Pitrone, “il Prof.”, lo incontrammo per la prima volta quando eravamo studenti d’ingegneria. Non esisteva, allora, “un gruppo di ricerca” nelle misure elettriche a Catania; esisteva “il Prof. Pitrone” che “coincideva” con le misure elettriche a Catania. Intere generazioni d’ingegneri catanesi hanno appreso dal Prof. Pitrone i rudimenti delle misure e con lui hanno per la prima volta imparato a usare uno strumento, a eseguire una misura e a stilare una relazione di laboratorio. Non deve sorprendere se le esperienze di laboratorio si svolgono ancora sugli stessi tavoli verdi e arancio che fortemente il Prof. Pitrone volle realizzare e che in seguito gelosamente curò e custodì, non disdegnando, quando necessario, l’uso di cacciavite e filo per le riparazioni. Esistevano, ed esistono ancora, delle chiavi e dei lucchetti che solo se usati nella giusta sequenza permettono di accedere al suo personale

glio il rispetto: quello del docente verso i suoi studenti e quello verso i colleghi. Rispetto ricambiato con affetto e stima da chiunque lo incontrasse anche fuori dai corridoi della Facoltà d’ingegneria e che, professionista affermato o neo laureato, non esitava a fermarlo e salutarlo, per il piacere di ricordare le ore trascorse insieme. Né noi siamo stati estranei a questo percorso: abbiamo seguito da studenti con il Prof. Pitrone il primo corso di misure tenutosi per la laurea in ingegneria elettronica; siamo entrati, grazie ai suoi sforzi, per la prima volta in un laboratorio dove si usava della strumentazione elettronica e si analizzavano criticamente i risultati di un esperimento; abbiamo imparato che lo studente va rispettato, ascoltato e pazientemente guidato nel mondo, spesso per lui ostile, spesso totalmente sconosciuto, delle misure. Con la stessa perseveranza, il Prof. Pitrone ha costruito attorno a sé un gruppo di ricerca. Senza troppo rumore, come nel suo stile, uno alla volta ci ha accompagnati alla nostra prima riunione del GMEE; a uno a uno ci ha accompagnati alla nostra prima lezione, cedendoci qualche suo corso; ci ha spronati a guardare più lontano e a confrontarci in ambito internazionale. Ci ha guidati e, al tempo stesso, incoraggiati ad andare avanti autonomamente, sempre contento dei riconoscimenti che, a mano a mano, arrivavano e che infatti erano anche in parte merito suo. Il Prof. Pitrone, il leader del gruppo misure di Catania che ha saputo far crescere e diventare adulto. Tanti altri giovani hanno fatto parte per un periodo del gruppo, brillanti collaboratori che riconoscevano la saggezza e gentile autorevolezza del Prof. Pitrone, e che hanno poi preso altre strade spendendo, in giro per il mondo, quella per-

tesoro di strumenti, sonde e pennarelli. Buona parte del parco strumenti è stato rinnovato con gli anni, ma tutta la strumentazione analogica in possesso del Dipartimento d’Ingegneria Elettrica, Elettronica e Informatica dell’Università di Catania fu acquisita nel tempo grazie alla pazienza e alla parsimonia del Prof. Pitrone. Strumentazione che oggi non disdegnerebbe di costituire un piccolo museo e viene ancora usata quando si vuol fare vedere agli studenti le cose che ci insegnò il Prof. Pitrone e che la moderna strumentazione numerica nasconderebbe. Di fatto, l’organizzazione del suo Laboratorio è ancora Fedele all’ordine che gli diede lui, per meglio poter organizzare le esperienze didattiche per gli studenti; del resto, tante delle parole che usiamo oggi con i nostri studenti sono le stesse che il Prof. Pitrone usava dire a noi. Con la stessa dedizione con cui costruì il Suo laboratorio di misure, il Prof. Pitrone ha insegnato, per anni, affidandosi soltanto alle sue forze, i corsi di Misure elettriche, prima per il corso d’Ingegneria Elettrotecnica, poi quelli di Misure Elettroniche, assecondando l’espansione dell’offerta formativa dell’ateneo di Catania. E in quelle lezioni ha, con costanza, insegnato a generazioni d’ingegneri catanesi i concetti relativi alle misure e alle misurazioni e l’umiltà del ricercatore rispetto al dato di misura; ma non solo questo: il Prof. Pitrone ha saputo insegnare con fermezza, puntigliosità, eleganza e orgo- alessandro.ferrero@polimi.it T_M

N.

2/19 ƒ 137


N. 02ƒ ; 2019

s

SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI

severanza paziente, quella curiosità muta, che si riduceva spesso a un semplice sorriso. Tutti abbiamo avuto la possibilità di scegliere liberamente come volevamo essere ricercatori. Ora il Prof. Pitrone ci ha lasciati ed è impossibile non provare un sentimento di tristezza: è scomparso un signore d’altri tempi, una persona gentile in un mondo che sembra aver dimenticato quanto sia prezioso il valore della gentilezza. Questo crediamo sia la cosa più giusta da dire! Resta il Suo laboratorio di didattica e il Suo gruppo di ricerca. Resta, soprattutto, l’esempio chiaro che la gentilezza e la correttezza non sono inutili parole aleggianti nel vento. Resta la consolazione di una grande esperienza spesa per l’Accademia. Per noi tutti, rimane lo stimolo a continuare sulla strada da lui tracciata, un solco indelebile nei nostri pensieri e di chi ha avuto la fortuna di conoscere il caro Prof. Pitrone. Bruno Andò, Salvo Baglio, Salvo Graziani A PERUGIA IL TERZO FORUM NAZIONALE DELLE MISURE

Il Forum Nazionale delle Misure 2019, punto di riferimento di tutti coloro che si occupano di ricerca universitaria nell’ambito della scienza delle misure e

delle sue numerose e varie applicazioni, si terrà a Perugia dal 12 al 14 settembre 2019. Si tratta di un evento organizzato dalle due primarie associazioni nazionali che coinvolgono i docenti e i ricercatori universitari di Misure Elettriche ed Elettroniche (GMEE) e Misure Meccaniche e Termiche (GMMT). Il Forum è alla sua terza edizione, gestita in modo congiunto dalle due Associazioni, dopo una tradizione che ha visto i due gruppi tenere separatamente le proprie riunioni annuali. Nel corso del Forum, il GMEE e il GMMT terranno, infatti, sia sessioni comuni che momenti distinti: rispettivamente, i propri XXXVI e XXVII congressi annuali.

La sede Il Forum rappresenta un momento importante e vitale per l’accrescimento culturale dei suoi partecipanti. La discussione sulle ricerche svolte, su temi di ricerca emergenti, sui sistemi di gestione della ricerca in ambito universitario, sulla didattica delle misure e su opportunità di collaborazioni fra i soci è centrale per il successo del congresso. Parimenti, la sede scelta offre opportunità di arricchimento culturale che sono complementari rispetto all’esperienza di ap profondimento disciplinare. La città di Perugia offre, da questo punto di vista, molte opportunità: l’atmosfera medioevale del suo centro storico, con la cattedrale, la fontana maggiore e il palazzo dei Priori; la Galleria nazionale dell’Umbria, con i quadri del Perugino; la vicina Assisi, centro di accoglienza religiosa e città della pace. Il Forum si terrà al centro congressi dell’Hotel Giò a Perugia, dove si svolgeranno tutti i lavori congressuali. Il programma Il programma del congresso segue da anni un efficace schema consolidato. La prima giornata sarà svolta in comune fra i due gruppi di ricerca: saranno presentate le memorie a invito su temi tipici del settore delle misure elettriche/elettroniche e meccaniche/termiche. Nel pomeriggio avrà luogo una tavola rotonda sul tema del nuovo sistema

T_M ƒ 138


N. 02ƒ ;2019

EVENTO DI PRESENTAZIONE DEL NUOVO SI A BARI

internazionale delle unità di misura, introdotto dalla conferenza generale dei pesi e delle misure, il 20 maggio 2019. Un passaggio di una portata così epocale non poteva essere trascurato! Seguiranno le presentazioni dei costruttori di strumenti che arricchiscono i lavori del congresso con le proprie esperienze in ambito industriale. Infine, la cena sociale, che si svolgerà il 13 settembre presso la Residenza d’Epoca, “Alla Posta dei Donini”, a Torgiano, consentirà ai congressisti di condividere momenti di convivialità.

l 20 maggio scorso, presso il Politecnico di Bari, si è svolto un evento per celebrare la giornata mondiale della metrologia con una serie d’interventi sul nuovo SI. Significativo che il Politecnico di Bari compaia, assieme a INRIM, tra gli organizzatori di eventi divulgativi sul tema, e che abbiano partecipato all’evento, in qualità di relatori, diversi docenti del Politecnico di Bari afferenti a diversi settori scientifico-disciplinari, a testimonianza della trasversalità e multidisciplinarietà del tema trattato, di vitale interesse per tutti i settori della scienza e della tecnica, e non solo! Ulteriori informazioni sono disponibili qui: www.worldmetrologyday. org/ events.html#Politecnico-di-Bari.

n

Per tutti gli altri dettagli si può consultare il sito del Forum: https://www.gmee.org/forum 2019/perugia. Vi attendiamo a Perugia!

NEWS

GLI SCANNER 3D PORTATILI DI CREAFORM PREMIATI PER L’INNOVAZIONE E IL DESIGN ALL’AVANGUARDIA L’ultima generazione di scanner 3D portatili di Creaform, HandySCAN BLACK e Go!SCAN SPARK, hanno vinto il premio Red Dot per il product design. I premi Red Dot sono un riconoscimento di fama mondiale che raccoglie i prodotti più innovativi sviluppati nel mondo per premiare quelli che si distinguono nelle rispettive categorie. Ogni anno, vengono presentate 5000 iscrizioni provenienti da oltre 50 Paesi. La giuria dei Red Dot è composta da 40 esperti internazionali che testano, discutono e valutano ciascun elemento dal vivo e in loco. I partecipanti vengono giudicati in base a diversi criteri, fra cui grado di innovazione, funzionalità, qualità formale ed ergonomia. HandySCAN BLACK è dotato di una tecnologia di scansione 3D a laser blu e offre misurazioni dimensionali per una vasta gamma di applicazioni metrologiche di alto livello. Proprio per la natura intrinseca del prodotto, lo scanner 3D è stato progettato per mettere in mostra gli obiettivi ottici e la scheda PC.

n

SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI

In merito a HandySCAN BLACK, la giuria dei Red Dot si è espressa in questo modo: “Il de sign elegante dello scanner portatile 3D ne riflette ma gistralmente l’elevata precisione”. “Lo sfondo nero opaco mette in risalto le caratteristiche linee audaci del prodotto”. Go!SCAN SPARK, lo scanner 3D a luce bianca di Creaform per le applicazioni di sviluppo prodotto, è stato premiato per il suo design lineare e compatto, impreziosito da linee angolari sui lati del dispositivo, che presenta quattro telecamere per un’esperienza di scansione 3D rapida e semplice. In merito a Go!SCAN SPARK, la giuria dei Red Dot si è così espressa: “Gli elementi stilistici chiaramente definiti di Go!SCAN SPARK ne sottolineano l’elevata qualità. La semplicità d’uso rende piacevole le scansioni”. “Si tratta del quarto e quinto premio Red Dot ottenuti negli ultimi anni. Ciò testimonia come Creaform sia fermamente convinta dell’importanza del design e dell’ergonomia nell’esperienza

generale dell’utente”, ha dichiarato Marco St-Pierre, vicepresidente per innovazione e tecnologie dell’azienda. “Con HandySCAN BLACK e Go!SCAN SPARK, i nostri team di designer industriali hanno portato il concetto di design a un nuovo livello, ottenendo risultati eccezionali. Queste nuove soluzioni offrono precisione e prestazioni senza precedenti nella scansione 3D in modo semplice e intuitivo, ottimizzando l’utilizzabilità”, ha aggiunto St-Pierre. “Il fatto che la giuria dei Red Dot abbia riconosciuto questo risultato ci rende immensamente orgogliosi”. Per ulteriori informazioni: www.creaform3d.com.

T_M ƒ 139


SMART METROLOGY

s

Rubrica a cura di Annarita Lazzari

La covarianza nella stima dell’incertezza di misura Prima parte

THE PAGE OF SMART METROLOGY Deltamu Italia is one of the leading permanent partners of the Journal, it brings together a group of experts in metrology that share an innovative vision of the profession, so that it is a carrier of added value in companies and in laboratories. Smart Metrology by Deltamu is a metrology that can adapt to all types of industrial facilities, from SMEs to international groups, an opportunity to gradually move from the Metrology of measurement equipment to the Metrology of processes. RIASSUNTO Deltamu Italia è un collaboratore stabile della Rivista, riunisce un insieme di esperti in Metrologia che condividono una visione innovatrice della professione, affinché sia portatrice di valore aggiunto in azienda e nei laboratori. La Smart Metrology di Deltamu è una metrologia in grado di adattarsi a tutti i tipi di strutture industriali, dalla PMI ai gruppi internazionali, un’opportunità per passare gradualmente dalla Metrologia degli strumenti alla Metrologia dei processi. È consuetudine analizzare un processo di taratura stabilendo un bilancio d’incertezza, cioè seguendo la procedura raccomandata dalla Guida all’espressione dell’incertezza nella misurazione (GUM) e i suoi supplementi [1], [2], [3]. Secondo questi documenti e sulla base delle definizioni fornite dal Vocabolario Internazionale di Metrologia (VIM) [4] è necessario elencare tutte, o almeno la maggior parte, delle sorgenti d’incertezza individuate, dopo di che le diverse componenti vengono raggruppate in una opportuna tabella e ognuna viene quindi quantificata utilizzando una metodologia di valutazione di Tipo A o di Tipo B. Successivamente le diverse valutazioni d’incertezza devono essere combinate in modo quadratico, secondo una ben nota Legge di propagazione, ed espresse utilizzando l’incertezza standard combinata o la loro varianza. In ambito industriale, in generale l’incertezza di taratura viene dedotta sommando in varianza le varie incertezze standard individuate; effettuando questo T_M

N.

2/19 ƒ 140

passaggio, spesso tra le cause dell’incertezza ci si dimentica di prendere in considerazione la covarianza, cioè di valutare correttamente la loro interdipendenza, come invece viene espressamente richiesto dai documenti sopra citati. Nella realtà infatti le covarianze giocano un ruolo molto significativo nella valutazione dell’incertezza di misura, inclusi ad esempio (ma non solo) i confronti interlaboratorio [5] così importanti per la valutazione della “performance” degli operatori e per garantire il mantenimento delle competenze. Tuttavia, il fatto che in generale le covarianze non siano sempre facili da individuare e da valutare e che i metodi matematici disponibili (es [6] e [7]) seppure rigorosi siano spesso complessi e di difficile applicazione, fa sì che si tenda a trascurarle o quanto meno a fornirne una valutazione molto approssimativa. Tutto ciò determina di conseguenza una stima dell’incertezza non adeguata e dunque inaffidabile. L’intento è allora in questa sede quello di mostrare un metodo che, attraverso

un’attenta analisi del bilancio d’incertezza di un processo di taratura (misura), consenta di ottenere una stima ragionevole della covarianza attraverso un modello di decomposizione dell’errore basato sul tasso di variazione dell’errore medesimo nel processo di misurazione. Scenario Una generica quantità Y dipende normalmente da k altre quantità (X1, ..., Xk), che possono essere misurate dallo stesso oppure anche da diversi processi di misurazione e sono influenzate da un certo numero di grandezze d’influenza. Supponiamo che Y possa essere valutato attraverso un modello di misurazione (procedura di taratura) noto f a cui sarà associato un possibile errore di modello ε, con media nulla (μ(ε) = 0), indipendentemente da qualsiasi Xi, ∀i, 1 ≤ i ≤ k. La generica quantità Y di nostro interesse allora andrebbe espressa come segue: Y = f (X1, ..., Xk) + ε L’espressione corretta di Y richiede pertanto che venga fornito il suo valore più probabile (la media) e l’incertezza standard. Poiché Y è espressa mediante diverse grandezze d’ingresso, per ciascuna di esse è necessario esaminare la gamma di probabili variazioni e, se possibile, la legge di distribuzione associata. In quest’analisi, si desidera stabilire una valutazione d’incertezza che sia rappresentativa di tutte le tarature eseguite per un determinato tipo di strumento, poiché in generale non si ha l’intenzione di ripetere una valutazione d’incertezza a ogni taratura, ma si preferisce invece applicare di volta in Direttore tecnico-commerciale – Deltamu Italia srl alazzari@deltamu.com


N. 02ƒ ;2019

n

volta il modello messo a punto in seguito all’analisi e allo studio del proprio processo. In effetti, occorre tenere presente principalmente due aspetti: – Alcuni degli effetti che contribuiscono all’incertezza non hanno necessariamente avuto il tempo di “esprimersi” totalmente, vale a dire, di mutare su tutta la loro gamma di possibili variazioni durante la durata della taratura: in genere eseguire una taratura è un’operazione che non dura molto a lungo e alcuni effetti variabili nel lungo termine non si manifestano durante il processo di taratura (si pensi ad esempio all’effetto inter-operatore quando si esegue la taratura di uno strumento). Di conseguenza tali effetti nel breve termine possono venir interpretati come degli errori sistematici che non dovrebbero essere attribuiti allo strumento, come a volte invece erroneamente si fa. – Altre cause d’incertezza sono intimamente legate le une alle altre e variano insieme durante la misurazione: alcune di esse possono essere comuni sia al campione che allo strumento da tarare (ad esempio la temperatura del campione e dello strumento). Questo fenomeno di cause comuni può aumentare o diminuire la dispersione apparente dei risultati di taratura. Ancora una volta dunque, occorre fare attenzione a non attribuire questa variazione allo strumento. Tali due fenomeni sono matematicamente modellati dalla covarianza: nel primo caso si tratta della covarianza tra le incertezze su risultati di misura successivi, mentre nel secondo caso della covarianza tra fonti d’incertezza correlate. La GUM impone di tener conto delle covarianze nella stima dell’incertezza di misura (cfr. Cap. 8, §4). Lo scopo del lavoro illustrato qui di seguito e propugnato da Deltamu è di proporre un metodo pratico per calcolare queste covarianze durante la taratura, basato sui concetti di “varianza ad alta opportunità“ (HO) e di "varianza a bassa opportunità" (LO).

SMART METROLOGY

letteratura. La stessa GUM propone una formula per considerare la cova- Da qui la (1) può essere riscritta come: rianza nella valutazione dell’incertezza di misura: N −1 N N u c2 ( y ) = ¦ u 2 ( x i ) + 2 ¦ ¦ r( x i , x j ) u( x i )u( x j ) u c2 ( y )

N

=

N −1 N

¦ u ( x i ) + 2 ¦ ¦ cov( x i , x j ) i =1

2

i =1

i =1 j = i +1

(3)

i =1 j = i +1

(1) Questa funzione ha il vantaggio, rispetto alla valutazione della covaUna covarianza esprime la variazione rianza, di avere un significato fisico simultanea (correlata) degli errori di interpretabile. In effetti, il coefficiente misura relativi a due quantità. È positi- di correlazione si evolve in intervalli va quando la variazione di una varia- compresi tra –1 e 1, dove lo 0 indica bile implica una variazione nella stessa una totale indipendenza tra le variabidirezione dell’altra variabile; è invece li, mentre il valore 1 (o –1) una correlanegativa quando la variazione dell’al- zione completa positiva (o negativa). tra variabile è nella direzione opposta. La GUM ne presenta un esempio di utiLa covarianza modella matematica- lizzo solo quando la correlazione è mente gli effetti sull’incertezza di misu- totale, vale a dire quando r assume ra (che sono sempre sconosciuti) delle valore 1 (o –1). quantità d’influenza che sono in comune con due grandezze Xi e Xj, total- 2. Sperimentale: la GUM (§ 5.2) promente o parzialmente. Come detto, la pone anche di valutare sperimentalsua valutazione non è facile, special- mente la covarianza. mente quando gli effetti considerati n non sono totalmente correlati. ¦ ( x i ,k − x i )( x j ,k − x j ) Qui di seguito, vengono utilizzate le cov( x , x ) = k =1 i j stesse notazioni proposte nella GUM n −1 (4) §4.1, cioè lo stimatore della grandezza Xi viene denotato con xi. È tuttavia ne- Ma in realtà raramente è possibile cessario comprendere che con la nota- valutare sperimentalmente la covarianzione cov(xi, xj), si cerca di esprimere za, specialmente su misure che non la covarianza tra gli errori su xi e xj e sono simultanee (ad esempio covariannon tra le loro grandezze. In effetti, le za tra campioni di diversi livelli). Inolquantità Xi e Xj possono essere correla- tre, anche quando il calcolo fosse poste senza che però lo siano gli errori con sibile, il valore ottenuto sarebbe in realcui vengono misurate. Ad esempio, le tà solo uno stimatore della covarianza quantità di corrente e tensione sono e quindi con un dato livello di conficorrelate dalla legge di Ohm, ma non denza a seconda del numero di camnecessariamente lo sono gli errori com- pioni utilizzati nell’operazione di taramessi nel misurarle. D’altra parte, que- tura. La covarianza nella stima della sto cattivo uso di notazione è comun- incertezza di misura. que abbastanza accettabile nel caso di una taratura, perché si considera la Varianza HO e LO misurazione a un dato livello presumi- Durante la taratura, alcune fonti d’incerbilmente noto e si è interessati implici- tezza non hanno il tempo (l’opportunità) tamente solo all’errore. di variare. Assumono un valore (sconoPer stimare questa covarianza, la sciuto) all’inizio dell’operazione e manGUM [1] propone 3 strategie. tengono questo valore fino alla fine. 1. Coefficiente di correlazione: la Queste fonti d’incertezza si comportano GUM (§ 5.2.2) propone di utilizzare cioè quasi come errori sistematici duranil concetto di coefficiente di correla- te la taratura. Questo fenomeno è mozione dellato dalla covarianza tra le incertezStato dell’arte ze su risultati di misura successivi (cfr. il cov( x i , x j ) Il fenomeno della covarianza nella primo dei due casi visti precedentemenr( x i , x j ) = u(x i )u( x j ) misurazione è ovviamente affrontato in (2) te, a)). La nozione di covarianza equiT_M ƒ 141


vale quindi a chiederci se durante il periodo di taratura la fonte d’incertezza abbia avuto o meno il tempo di “esprimersi”, di variare e, in caso affermativo, in quale proporzione relativamente al suo intervallo di variazione. Una soluzione per formalizzare questa situazione è stata proposta in un articolo del Congresso di Metrologia di Lione nel 2005 [8], poi ripreso nella guida tecnica della CFM [9]. Essa si basa sull’esperienza per caratterizzare la stabilità della fonte d’incertezza durante l’operazione di taratura. Alcune sorgenti che hanno una forte opportunità di variare, si indicano con HO (“High Opportunity” - “Alta Opportunità“) e altre invece che variano poco o nulla, sono chiamate LO (“Low Opportunity” “Bassa Opportunità“). Da questa prospettiva dunque, riprendendo in considerazione gli esempi fatti più sopra relativamente alle quantità d’influenza comune, si deduce che: – per la temperatura è possibile affermare che essa ha una bassa opportunità (LO) di esprimere le sue variazioni durante il processo di misurazione e pertanto, la covarianza dovrebbe assumere valori diversi da zero solo a causa degli effetti delle quantità d’influenza di tipo LO; – viceversa per il rumore è possibile affermare che esso ha una “Alta opportunità (HO)” di esprimere le sue variazioni durante il processo di misurazione e pertanto, la covarianza può essere considerata nulla solo a causa degli effetti delle quantità d’influenza di tipo HO. Viene dunque associato alla fonte d’incertezza un coefficiente, denominato Lk, che ne quantifica la stabilità durante il periodo di taratura. Esso è espresso in percentuale e viene utilizzato come segue: – Lk = 100%: indica sorgenti a debole opportunità. La sorgente d’incertezza rimane stabile al 100% per la durata della taratura, cioè non varia. Questa è in genere l’incertezza inter-operatore in un’operazione di taratura. In effetti, è il medesimo operatore che esegue tutte le misurazioni di taratura, di conseguenza la dispersione tra operatori non può essere espressa; T_M ƒ 142

N. 02ƒ ; 2019

n

SMART METROLOGY

– Lk = 0%: indica una sorgente a forte (alta) opportunità. La sorgente d’incertezza rimane stabile allo 0%, vale a dire che non è affatto stabile e, al contrario, assume tutti i valori possibili durante il periodo di taratura. Questa è tipicamente la ripetibilità. Ci sono poi dei casi intermedi, per esempio: – Lk = 75%: indica un fenomeno che rimane stabile al 75%, cioè che varia solo nel 25% del suo intervallo di variazione. Questo esempio può corrispondere alla sorgente d’incertezza causata dalla temperatura in una stanza con aria condizionata a 20 ± 2 ° C. Infatti, durante la durata di una taratura relativamente breve, possiamo considerare che la temperatura possa spostarsi solo di 1 °C, cioè appunto solo il 25% del suo intervallo di variazione pari a ± 2 °C. Pertanto, si afferma che è rimasta stabile al 75%. La valutazione di L k si basa sulla conoscenza e sull’esperienza acquisita nel processo studiato. Questa valutazione può sembrare arbitraria, ma segue la stessa strategia della GUM quando essa propone di scegliere la legge di distribuzione e l’ampiezza della variazione per ottenere la valutazione della deviazione standard in base al metodo di Tipo B. Inoltre, è più “fisica“ della determinazione della legge di distribuzione, spesso pericolosa. Nei prossimi articoli vedremo come questa formalizzazione viene utilizzata per stimare le covarianze nel processo di taratura. RIFERIMENTI BIBLIOGRAFICI [1] UNI CEI 70098-3:2016 – “Incertezza di misura - Parte 3: Guida all’espressione dell’incertezza di misura”. JCGM 100:2008, Evaluation of Measurement Data - Guide to the Expression of Uncertainty in Measurement (GUM 1995 with minor corrections), Joint Committee for Guides in Metrology, 2008.[Online]. Disponibile in: www.bipm.org/en/ publications/guides/gum.html. [2] JCGM 101:2008, Evaluation of Measurement Data - Supplement 1 to the Guide to the Expression of Uncer-

tainty in Measurement - Propagation of distributions using a Monte Carlo method, Joint Committee for Guides in Metrology, 2008. [Online]. Disponibile in: www.bipm.org/en/ publications/guides/gum.html. [3] JCGM 102:2011, Evaluation of Measurement Data - Supplement 2 to the Guide to the Expression of Uncertainty in Measurement - Extension to any number of output quantities, Joint Committee for Guides in Metrology, 2011. [Online]. Disponibile in: www. bipm.or g/en/publications/ guides/gum.html. [4] JCGM 200:2012, International Vocabulary of Metrology - Basic and General Concepts and Associated Terms (VIM 2008 with minor corrections), Joint Committee for Guides in Metrology, 2012. [Online] Disponibile in: www. bipm.or g/en/publications/ guides/vim.html. [5] M. Bergoglio, A. Malengo, and D. Mari, “Analysis of interlaboratory comparisons affected by correlations of the reference standards and drift of the travelling standards”, Measurement, vol. 44, no. 8, pp. 1461-1467, 2011. [Online]. Disponibile in: www. sciencedirect.com/science/ article/pii/S0263224111001680. [6] P.D. Hale, A. Dienstfrey, J.C.M. Wang, D.F. Williams, A. Lewandowski, D.A. Keenan, and T.S. Clement, “Traceable waveform calibration with a covariance-based uncertainty analysis,” IEEE Trans. Instrum. Meas., vol. 58, no. 10, pp. 3554- 3568, Oct. 2009. [7] D.A. Humphreys, P.M. Harris, M. Rodrguez-Higuero, F. A. Mubarak, D. Zhao, and K. Ojasalo, “Principal component compression method for covariance matrices used for uncertainty propagation”, IEEE Trans. Instrum. Meas., vol. 64, no. 2, pp. 356-365, Feb. 2015. [8] J.M. Pou, D. Vaissière, Delta Mu, La signature des processus d’étalonnage : les étalonnage vus sous l’angle statistique, Actes du Congrès International de Métrologie, Lione, 2005. [9] Collège Français de Métrologie (CFM), guide technique Application du nouveau concept d’étalonnage du VIM 3 (2012).


MANIFESTAZIONI EVENTI E FORMAZIONE

n

2019-2020 eventi in breve Segnalazione di manifestazioni ed eventi d’interesse 2019

2-5 luglio

S. Pietroburgo, Russia

Joint IMEKO TC1-TC7-TC13-TC18 Symposium 2019

8-10 luglio

Catania

2019 IEEE International Symposium on Measurements and https://2019.mn.ieee-ims.org Networking (M&N)

14-19 luglio

Tianjin, Cina

2019 IEEE International Conference on Computational Intelligence and Vir- https://civemsa2019.ieee-ims.org tual Environments for Measurement Systems and Applications (CIVEMSA)

9-12 settembre

National Harbor, USA

AUTOTESTCON 2019

http://autotestcon.com

12-14 settembre

Perugia, Italy

III Forum Nazionale delle Misure

www.gmee.org

16-18 settenbre

Brussels, Belgio

4th IMEKOFOODS Conference

https://www.imekofoods4.be

17-19 settembre

Jena, Germania

Joint IMEKO TC1 & TC22019 International Symposium for Photonics and Education in Measurement Science

www.imeko-jena.com

17-20 settembre

Xi'an, Cina

2019 IMEKO TC4 International Symposium

www.imeko2019.org

18-20 settembre

Firenze, Italy

2019 AEIT International Annual Conference

https://convegni.aeit.it/AEIT2019/

19 - 21 settembre

University of Houston Clear Lake, USA

International Symposium on Measurement and Control in Robotics

http://ismcr.org

22-27 settembre

Portland, OR, USA

2019 International IEEE Symposium on Precision Clock Synchronization for Measurement, Control, and Communication (ISPCS)

https://ispcs.org

24-26 settembre

Paris, Francia

CIM2019 - Congrès international de Métrologie

www.cfmetrologie.com/fr/evenements/congresinternational-de-la-metrologie-cim

25-27 settembre

Aachen, Germania

IEEE AMPS 2019 - 10th IEEE International Workshop on Applied Measurements for Power Systems

http://amps2019.ieee-ims.org

30 settembre3 ottobre

Pisa, Italy

International Conference on Indoor Positioning and Indoor http://ipin2019.isti.cnr.it/ Navigation

30-31 ottobre

Napoli, Italy

XXVII Convegno Nazionale AIVELA

www.aivela.org/XXVII_Meeting/index.html

4-8 novembre

Graz, Austria

8th IEEE International Conference on Connected Vehicles and Expo (ICCVE)

https://iccve2019.com/

8-10 dicembre

Abu Dhabi, Emirati Arabi

2019 IEEE International Conference on Imaging Systems & Techniques (IST) https://ist2019.ieee-ims.org/

https://imeko19-spb.org

2020 12-14 febbraio

Torino, Italy

A&T Automation & Testing - 13a edizione

www.aetevent.com

17-22 febbraio

Anahaim, CA, USA

AAFS 72nd Annual Scientific Meeting

www.aafs.org

25-28 maggio

Dubrovnik, Croazia

2020 IEEE International Instrumentation & Measurement Technology Conference (I2MTC)

https://i2mtc2020.ieee-ims.org

23-26 giugno

Roma, Italy

14th Intl Conference on Vibration Measurements by Laser and Noncontact Techniques

www.aivela.org/14th_Conference/index.html

T_M

N.

2/19 ƒ 143


N. 02ƒ ; 2019

s

NEWS

MISURE DI SPOSTAMENTO INDUTTIVE IN CAMPO INDUSTRIALE Il sistema di misura induttivo eddyNCDT 3060 sfrutta le correnti parassite per misurare, senza entrare in contatto con il target, spostamenti e distanze in modo veloce e preciso. È ideale per gli ambienti industriali e può essere combinato con oltre 400 modelli di sensori, oltre ai 4 dedicati, per adattarsi a ogni applicazione. Il sistema è intuitivo e dispone di una modalità di elaborazione del segnale smart. L’interfaccia Ethernet industriale, adatta alle moderne connessioni fieldbus, e il design compatto sono ideali per le integrazioni OEM su macchine e sistemi. Rispetto al modello standard, il controller DT3061 offre funzionalità migliorate come l’interfaccia web di setup, la compensazione attiva della temperatura e la taratura su 5 punti. Diversamente dai sensori induttivi convenzionali, i sistemi a correnti parassite si distinguono per la loro precisione, la larghezza di banda e la stabilità termica. Inoltre, il principio di misura può misurare su tutti gli oggetti conduttivi con proprietà ferromagnetiche e non-ferromagnetiche.

I sensori sono resistenti agli ambienti industriali difficili, caratterizzati dalla presenza di sporco, olio, pressione e fluttuazioni termiche. Applicazioni tipiche – Integrazioni OEM in macchine industriali ed impianti – R&D su motori – Controllo posizione macchine utensili – Misura velocità di rotazione turbocompressori Ulteriori informazioni: www.luchsinger.it.

NOVITÀ NELLE MISURE DI PRESSIONE Nel campo della pressione l’AEP transducers presenta una nuova serie di manometri digitali e calibratori di pressione per misure RELATIVE, ASSOLUTE, DIFFERENZIALI e in VUOTO con campi normalizzati da 10 KPa a 300 MPa. All’interno della gamma si distinguono tre famiglie principali: – Manometri dedicati all’automazione e al controllo di processo, completi di set point con relè, uscite analogiche, uscite seriali e USB, trasmissione WIRELESS per poter essere interfacciati con sistemi più evoluti PC, PLC, ecc; – Manometri dedicati alla registrazione automatica della pressione e temperatura, tramite Data Logger interno programmabile e scaricabile su PC tramite software dedicato; – Manometri campioni di riferimento, completi di certificato ACCREDIA, dedicati alla verifica e taratura di trasduttori e trasmettitori di pressione, manometri analogici e pressostati. All’interno della famiglia si distinguono diverse classi di precisione che vanno dallo 0,05% allo 0,5%, per adattarsi a tutte le esigenze di carattere metrologico e industriale. Tutti i manometri possono essere programmati tramite tastiera, impostando la velocità di acquisizione, il filtro, la risoluzione, l’unità di misura e altri parametri. Alcuni modelli possono trasformare la pressione in unità di FORZA, per misurare direttamente i carichi generati dai cilindri idraulici o pneumatici montati su presse.

I campi di applicazione sono i più svariati, da quello industriale a quello metrologico: ricordiamo in particolare i settori oleodinamico, pneumatico, automazione, banchi prova, macchine prova materiali, laboratori, ricerca, certificazioni, dosaggio automatico con misura di livello. I manometri possono essere forniti nella custodia tradizionale o in contenitori da pannello per facilitarne l’impiego nei quadri elettrici a bordo macchina. Per ulteriori informazioni: www.aep.it.

TRASDUTTORE DI FORZA PER BANCHI PROVA ESIGENTI La cella di carico di precisione U15 (trasduttore di forza di riferimento) di HBM misura in modo affidabile la forza di trazione e compressione fino a 1 MN. È l’ideale per l’uso come sensore master nelle macchine di taratura, per le operazioni più insidiose sui banchi prova e come standard di trasferimento (ad esempio, quando si verificano o si tarano le macchine di taratura dei materiali o ancora per le misurazioni delle traslazioni per garantire la tracciabilità delle macchine di taratura in riferimento a uno standard). Grazie al ridotto spostamento del trasduttore di forza, la deformazione del banco prova è minima, anche sotto carico. L’elevata risoluzione della cella di carico di precisione U15, l’eccellente rapporto segnale-rumore e la ridotta incertezza di misura si

T_M ƒ 144

basano sull’elevato segnale di uscita del trasduttore (>4 mV/V da 25 kN). Ciò consente di utilizzare in modo ottimale il conseguente intervallo di misura dell’elettronica. Novità La U15 è ora disponibile con dati tecnici migliorati per molti valori chiave (scorrimento, TK0, isteresi) e con intervallo di misura esteso (che risponde ai requisiti della classe 0.5 in accordo alla norma ISO376 a partire dal 10%), e anche come trasduttore di riferimento per trazione/compressione, con capacità massima fino a 2,5 MN. Per ulteriori informazioni: www.hbm.com/it/2926/ u15-trasduttori-di-forza-si-precisione-per-industria-e-ricerca.


METROLOGIA... PER TUTTI

s

Rubrica a cura di Michele Lanna

La qualità nel restauro e nella conservazione delle opere d’arte “C’è una misura per ogni cosa” (Orazio – Satire, Libro I) METROLOGY FOR EVERYONE

In this permanent section of the Journal our colleague and friend Michele Lanna, leading expert in metrology, calibration, accreditation of companies, will discuss topics of interest for the majority of industrial measurement users, in simple and immediate terms, with reference to the most recent Norms. Write to Michele to comment his articles and to propose other subjects!

rivolgendo alcune domande a uno dei massimi esperti italiani nell’arte del restauro e della conservazione. Il professore Giovanni Carbonara, emerito di Restauro Architettonico all’Università “La Sapienza” di Roma, è stato per molti anni direttore della Scuola di specializzazione in Beni architettonici e del Paesaggio nella stessa Università.

RIASSUNTO

In questa Rubrica il collega e amico Michele Lanna, esperto di metrologia, taratura, accreditamento industriale, discute aspetti d’interesse per la maggior parte degli utenti industriali delle misure, con terminologia semplice e immediata, e facendo riferimento alle più importanti e recenti Norme. Scrivete a Michele per commentare i suoi articoli e per proporre ulteriori temi di discussione! PREMESSA

In un precedente articolo abbiamo trattato, in questa rubrica, il tema della competenza del personale nei laboratori che curano il restauro e la conservazione delle opere d’arte. Le molte domande alle quali si voleva rispondere ci hanno spinto a ritornare sul tema, vista l’importanza assunta in un settore di primaria e strategica importanza per il nostro Paese. La vastità del nostro patrimonio artistico (tra i più importanti al mondo), la sua stratificazione nel corso dei secoli, dall’antichità fino ai nostri giorni, ci richiedono cura e attenzione particolari per la sua conservazione. Le domande alle quali si è tentato di dare una risposta erano relative alla costruzione della competenza nell’arte del restauro. Queste competenze, che fanno dell’Italia uno dei Paesi all’avanguardia nel Restauro e Conservazione dei monumenti, costituiscono un importante volano di crescita della nostra economia. La buona conservazione del nostro patrimonio artistico costituisce anche motivo per un crescente flusso turistico dall’estero nel nostro Paese. In Italia esistono qualificati “portatori di conoscenza nel campo del restauro”

(vere eccellenze nel settore) che costituiscono punti di riferimento imprescindibili per chi vuole sviluppare le proprie competenze, non solo nelle Scuole e Università italiane, ma anche nel sempre più stretto raccordo con Istituzioni estere che si interessano di restauro. Essere portatori di conoscenza e competenza nel settore risponde innanzitutto a una precisa necessità: tutelare il nostro vasto patrimonio artistico-culturale, conservandolo in buona “salute”. Impresa non facile, per obiettivi problemi di budget, che, a volte, impongono scelte di priorità sofferte e dolorose, anche se basterebbe fare una semplice valutazione tecnico-economica per rendersi conto che il ROI (Return on Investment) relativo a questo tipo d’investimento è estremamente alto! La nostra storia ha permesso di fornire testimonianze di arte molto ben distribuite da nord a sud senza eccezioni. Non c’è metro quadro del nostro territorio che non testimoni, con reperti storici di ogni epoca, le influenze esterne derivanti da contaminazioni e invasioni di altri popoli, che hanno condizionato anche i caratteri somatici del nostro popolo. Ci è sembrato quindi giusto dedicare un secondo articolo a questo tema,

La sua attività scientifica, didattica e professionale lo rendono un punto di riferimento non solo a livello nazionale, ma anche internazionale, con trattati che hanno lasciato il segno nella cultura del restauro in Italia. Il Prof. Carbonara ha anche approfondito il binomio conservazione/restauro dei monumenti e metrologia. La qualità di un intervento e la sua valutazione con tecniche oggettive richiede l’utilizzo di apparecchiature e metodi che costituiscono lo strumento per valutare un intervento di restauro. Le moderne tecniche (es. ultrasuoni, spettrometria di massa, e tante altre) sono un corollario indispensabile per effettuare moderni interventi di restauro e testarne la bontà. Studio Lanna & Associati – Roma info@studiolanna.it

T_M

N.

2/19 ƒ 145


Gli abbiamo rivolto alcune domande, perché possa testimoniare con la sua esperienza come tematiche diverse possano trovare denominatori comuni e come il sapere scientifico sia sempre una intelligente sintesi e sviluppo di diverse discipline. INTERVISTA AL PROF. GIOVANNI CARBONARA

t

D: In Italia ci sono certamente eccellenze nell’arte del restauro, considerata a 360 gradi. Con la sua autorevolezza e competenza può tracciare un quadro dell’organizzazione del restauro in Italia? (G. Carbonara) L’organizzazione del restauro nel nostro Paese ha un carattere eminentemente statale per quanto riguarda l’amministrazione di tutela, diretta dal MiBAC (Ministero per i Beni e le Attività Culturali) e strutturata in uffici distaccati sul territorio, le Soprintendenze, con competenze regionali oppure provinciali o anche meno estese in presenza di aree a forte

NEWS NUOVO FONOMETRO ANCORA PIÙ “USER-FRIENDLY”

Funzionalità, facilità d’uso e versatilità unite all’affidabilità: la ricetta vincente del nuovo B&K 2245 Brüel & Kjær, specialista negli ambiti delle misure acustiche e di vibrazioni, ha recentemente presentato l’ultimo nato della sua serie iconica di fonometri, B&K 2245, che si presenta come soluzione completa per una misura del suono di base in grado di abbinare funzionalità, facilità d’uso e versatilità all’affidabilità garantita dal marchio B&K. Il nuovo fonometro di classe 1 è stato progettato con l’intento di offrire affidabilità e capacità di controllo ai professionisti che si occupano di misure del suono. Il Product Manager Michael Whiteman spiega: “Per molti operatori che utilizzano fonometri le attività di misura del suono, per quanto inevitabili, non sono necessa-

T_M ƒ 146

N. 02ƒ ; 2019

s

METROLOGIA... PER TUTTI

densità di “beni culturali”, come nel caso di Roma. Esistono anche i Segretariati Regionali con funzioni prevalentemente amministrative. Ma in questo momento la struttura del Ministero, riformata solo pochi anni fa, è nuovamente in fase di ripensamento. Per quanto riguarda invece la formazione nel campo del restauro essa è più liberamente diffusa sul territorio, facendo riferimento, oltre che ai due Istituti Superiori del MiBAC (Istituto Superiore per la Conservazione e il Restauro ISCR di Roma, con sede anche a Matera, e Opificio delle Pietre Dure di Firenze), a strutture regionali, universitarie (con specifici corsi di laurea e di laurea magistrale) e anche alle Accademie di Belle Arti. Tutte queste devono rispondere a criteri di qualità prefissati, nelle loro linee generali, su un piano nazionale. La formazione nel campo del restauro architettonico è riservata alle Facoltà, ora perlopiù denominate Dipartimenti, di Architettura, nei tre livelli di Laurea Magistrale (in architettura), Scuole di Specializzazione (in restauro, le uniche che rispondano a una legge specifica che ne regola il fun-

zionamento) e Dottorati di Ricerca (nati specialistici ma da qualche anno forzatamente ridotti, per ragioni economiche, accorpando discipline di natura anche molto diversa fra loro). Il sistema “statale” delle Soprintendenze, attivo da più di un secolo, mi sembra che funzioni nel suo complesso bene e abbia contribuito a salvaguardare monumenti, centri storici e paesaggio meglio che in altri Paesi, nonostante la povertà di mezzi e di personale, l’aggressività della speculazione edilizia, l’abusivismo diffuso e sovente l’incapacità o l’accondiscendenza dei Comuni, troppo sensibili alle pressioni locali. Un sistema regionale o addirittura provinciale o comunale di tutela sarebbe fonte di gravi rischi per il patrimonio. Inoltre, da qualche anno, e precisamente da quando era Segretario Generale del MiBAC l’architetto Roberto Cecchi, il titolo di studio richiesto agli architetti per accedere ai concorsi di “funzionario tecnico-scientifico” nel Ministero è finalmente quello di Diplomato Specialista in Restauro dei Monumenti (presso le apposite Scuole di Specializzazione ora ridenominate in Beni

riamente all’ordine del giorno. Per questo abbiamo pensato di fornire una soluzione intuitiva, in grado di consentire agli operatori di affrontare le attività di misura del suono senza timore, considerandole un lavoro come un altro, da svolgere senza difficoltà prima di passare a quello successivo”. Il risultato è un prodotto progettato per semplificare le attività di misura e analisi del suono: un pacchetto completo e facile da usare, da utilizzare come dispositivo di misura del suono stand-alone o con una gamma di applicazioni mobili user-friendly, ognuna destinata a un compito specifico, come misura del rumore ambientale, test del livello del rumore allo scarico e del rumore nell’ambiente di lavoro. Queste applicazioni forniscono gli esatti parametri e funzioni necessarie, garantendo un livello migliore di efficienza e controllo nell’ambito della misura del rumore. Ogni dispositivo può avere licenza d’uso di più applicazioni, per cui passare da un’attività all’altra diventa semplice come passare da un’applicazione all’altra. Michael Whiteman ritiene che il B&K 2245 toglierà molte preoccupazioni agli operatori: “Abbiamo parlato con diversi utenti non esperti e compreso che la semplicità e la facilità d’uso sono fondamentali. Chi usa il dispo-

sitivo solo saltuariamente fatica a ricordare opzioni poco chiare e impostazioni complicate, anche solo la sequenza stessa di alcuni compiti di misura del suono. Per questo ha bisogno di un fonometro che risponda in modo specifico alle sue esigenze e lo aiuti a lavorare in maniera efficiente e più professionale. Sono convinto che la precisione di misura, analisi e documentazione del suono non sia mai stata così semplice”. Per informazioni più dettagliate sulla soluzione offerta dal fonometro B&K 2245 e sulle singole applicazioni, visitate la pagina: www.bksv.com/2245. Per ulteriori informazioni, inviare email a: valentina.casu@hbm.com.


N. 02ƒ ;2019 Architettonici e del Paesaggio) o di Dottore di Ricerca (elevato titolo scientifico anche se meno specifico del precedente) come già avveniva, giustamente, per gli archeologhi, gli storici dell’arte, i bibliotecari e gli archivisti. Ciò, nonostante la sorda ostilità degli Ordini professionali e dei sindacati, difensori della genericità della formazione e degli studi, ha consentito il recente accesso nei ruoli del Ministero di persone certamente più preparate, motivate e anche appassionate. Un funzionario architetto di solida formazione che magari in precedenza abbia svolto anche attività professionale o di cantiere si pone, di fronte ai colleghi che gli presentano i loro progetti, in maniera spontaneamente più aperta e dialogante, proprio come i vertici più illuminati del Ministero vorrebbero, e non ottusamente burocratica. Una maniera più utile e appropriata, al fine di ottenere risultati di buona e attiva conservazione dei monumenti e del paesaggio, di quanto lo siano un tardivo “sì” oppure “no” privo di spiegazioni e, quando necessario, d’indicazioni migliorative o correttive. D: Quanti sono gli iscritti ogni anno alla Scuola di Specializzazione in Beni Architettonici e Paesaggio? (G. Carbonara) Lo Statuto della Scuola di Specializzazione in Beni Architettonici e del Paesaggio della “Sapienza” di Roma, la prima a essere stata costituita, in ambiente universitario, in Italia e nel mondo (1957), prevede ogni anno fino a trenta iscritti per ciascuna delle due annualità di corso. Essa propone due percorsi equipollenti, essendo unico il titolo finale conseguibile: un percorso in Restauro dei monumenti e tutela del paesaggio e un altro in Restauro di giardini e parchi storici. Ogni anno il numero di domande si mantiene alto e, nell’esame di ammissione, di fatto si preferisce accogliere 20-25 allievi e non più al fine di garantire la migliore gestione dei due fondamentali cantieri-scuola che si tengono il primo anno (restauro, in collaborazione con l’ISCR) e il secondo (scavo archeologico stratigrafico, in collaborazione con gli archeologi di una Soprintendenza o di un Parco

archeologico autonomo, come nel caso del Parco Archeologico del Colosseo che, da qualche anno, grazie a una convenzione fra Scuola e MiBAC, ospita i due cantieri). D: La Scuola di Specializzazione nella quale Lei insegna crea competenze diffuse nel campo del restauro. Può illustrarne le caratteristiche peculiari e gli ambiti di attività? (G. Carbonara) La Scuola, in origine denominata “per lo studio e il restauro dei monumenti” e oggi, più ampiamente e più genericamente, ma in modo più espressamente vicino al nome delle soprintendenze di Stato, rinominata in “beni architettonici e del paesaggio”, prevede, nei due anni, quindici insegnamenti (di cui quattro opzionali, tre dei quali da scegliere liberamente) per un totale di quattordici esami. Contempla poi la redazione di una tesi progettuale e non puramente di ricerca storica o tecnica che affronti e risolva un concreto problema di conservazione, riuso compatibile e anche, se necessario, valorizzazione di un monumento archeologico o architettonico oppure di un centro urbano, parco, giardino o porzione di territorio con valenze paesaggistiche. L’aspetto progettuale differenzia le tesi della Scuola da quelle di ricerca proprie dei Dottorati. Le discipline insegnate comprendono temi diversi ma tutti confluenti nell’ambito della tutela, salvaguardia, prevenzione, manutenzione, conservazione e restauro dei beni patrimoniali attinenti, in senso lato, all’architettura. Si va quindi dalla Storia del restauro e dalla sua teoria e metodologia alla Legislazione dei beni culturali; dalla Conservazione dei materiali e chimica applicata alla Storia delle tecniche architettoniche, al Consolidamento degli edifici storici, ai Problemi strutturali dei monumenti; dalla Museografia agli Elementi di economia dei beni culturali e valutazione economica dei progetti, alla Metodologia e tecnica della ricerca archeologica e così via. Esistono poi “Corsi di approfondimento e integrativi” che non comportano un esame di profitto a sé ma l’obbligo di una frequenza attiva, come Calamità naturali e patrimonio culturale, Elemen-

s

METROLOGIA... PER TUTTI

ti di valutazione del rischio ambientale nei beni culturali, Materiali e documenti per la ricerca storico-territoriale, Progettazione della luce e aspetti impiantistici per i beni culturali, Caratteri linguistici dell’architettura classica e, utilissima per gli architetti, Storia dell’arte. La frequenza, a differenza di altre scuole analoghe sul territorio nazionale, è molto densa e prevede lezioni tutte le mattine dal lunedì al venerdì e numerose attività anche il pomeriggio, dai primi di gennaio a giugno, con sessioni di esami, discussione di tesi, cantieri e laboratori da giugno a dicembre. La Scuola di Roma, a differenza di altre, ha sempre rifiutato l’esame finale collettivo, su tutte le materie insieme, pur consentito dalle più recenti norme di legge. Nonostante questo innegabile appesantimento per gli allievi essa vanta sempre un gran numero d’iscrizioni, da parte di studenti (architetti, ingegneri, archeologhi e storici dell’arte) provenienti da tutta l’Italia. D: Quanto è “esportabile” l’esperienza della Scuola di Specializzazione, nella quale Lei insegna, in altri Paesi? La Scuola è frequentata anche da persone provenienti da altri Paesi? (G. Carbonara) Oltre che dall’Italia, come prima si diceva, la Scuola ha accolto e accoglie studenti provenienti da tutti i continenti, esclusa finora la sola Australia. In passato essi erano più numerosi perché maggiori erano le borse di studio offerte, oltre che dai Paesi esteri, anche dall’Italia. Ciò riguardava in primo luogo, per quanto concerne le borse erogate dal Ministero degli Affari Esteri, le nazioni “diplomaticamente privilegiate” dal nostro governo, da quelle affacciate sul Mediterraneo a quelle dell’America Latina. Nonostante i due anni di frequenza, ma in realtà, considerando i tempi per la preparazione della tesi, due anni e mezzo o tre, il fatto che i corsi si svolgano in lingua italiana e siano, anche in termini di tempo, impegnativi, e nonostante il calo delle borse di studio, la confusione fra titolo di specializzazione e dottorato di ricerca (sostanzialmente equivalenti, considerando la specializzazione come una sorta di “dottorato di ricerca applicativo”) e T_M ƒ 147


poi quella creata dai vari master che proliferano incondizionatamente offrendo tutt’altro tipo di formazione; nonostante, infine, una politica, sotto questo profilo, assente e sorda a livello europeo, il disinteresse degli organi sindacalizzati dell’Ateneo per questi studenti (organi attenti, per ragioni di politica spicciola, alla regione Lazio e poco più), gli stranieri continuano, con notevoli sacrifici e grande determinazione, a frequentare la Scuola, divenendo poi padroni della lingua (che già in parte hanno studiato per superare le prove d’esame d’ammissione) e soprattutto ambasciatori della nostra cultura all’estero. Su questi temi l’Italia è considerata come un Paese di riferimento e, in tale ambito, la Scuola di Roma un punto di eccellenza. Tutto ciò, ripetiamo, nonostante il totale disinteresse degli organi accademici, ministeriali e regionali, che non erogano borse, non aiutano per quanto riguarda l’alloggio o la mensa studentesca, trattengono la maggior parte delle tasse pagate dagli allievi, restituendo con grandissimo ritardo un modesta percentuale alla Scuola per il suo funzionamento ordinario, inventano, quando viene loro in mente, regole che servono solo a complicare ulteriormente le cose, come organizzare una semplice visita a un monumento fuori città o attivare i cantieri di cui prima si è detto. Nonostante tutto ciò, la scuola funziona e mantiene la sua influenza all’estero, come risulta da molte testimonianze di nostri ex-allievi e vive con i suoi pochi mezzi, fondata sul completo ma entusiastico volontariato dei docenti, tutti selezionati per le loro qualità scientifiche e professionali, molti dei quali provenienti dai ruoli del MiBAC e tutti orgogliosi di poter insegnare nella Scuola. Il modello della nostra Scuola è stato esportato all’estero tanto che essa ha visto sia richieste di collaborazione (come quella, prestigiosissima, della consorella École de Chaillot di Parigi), sia la nascita di nuove analoghe istituzioni (in Spagna, nel Regno Unito, in America Latina ecc.), cosa impensabile solo fino a pochi decenni fa. A tutto ciò si aggiungono anche numerosi master i quali tuttavia, per loro natura, dovrebbero essere dedicati ad approfondire, T_M ƒ 148

N. 02ƒ ; 2019

s

METROLOGIA... PER TUTTI

come avviene in campo medico dove specializzazioni e master esistono da più tempo, settori maggiormente circoscritti e specifici quali, ad esempio, i temi della sicurezza strutturale o delle scienze applicate alla catalogazione dei beni culturali o della gestione dei siti d’interesse patrimoniale. Una cosa, in campo medico, è infatti la specializzazione in cardiologia e un’altra l’eventuale master in tecniche specifiche d’intervento o di trapianto ecc. Così dovrebbe essere anche in architettura pur se le organizzazioni professionali tendenti, come detto, alla difesa, ormai fuori tempo, della genericità e anche parte della vecchia guardia del MiBAC (senza parlare del sonno del MIUR) sono contrarie per non dire ostili. D: Uno degli aspetti qualificanti un restauro è certamente la qualità dell’intervento che si va a eseguire. Quali strumenti si possono adottare per accertarsi che sia stato svolto un intervento efficace? (G. Carbonara) Per poter giudicare seriamente la qualità di un restauro non basta controllare il risultato finale, per così dire il “prodotto finito”, come si potrebbe fare nel caso d’un edificio di nuova costruzione, ma è necessario ripercorrere tutto il processo, ideativo ed esecutivo, risalendo a una chiara comprensione della situazione ante operam. Ciò equivale a dire che il “prima”, il “durante” e il “dopo” del manufatto sottoposto a restauro hanno pari importanza e i tre passaggi vanno analizzati in stretta sequenza. Un lavoro di restauro che si presentasse anche molto bene e in maniera suadente potrebbe nascondere, infatti, sotto le sue apparenze, un’opera di drastica riduzione o mutilazione di un’antica preesistenza di valore storico e, in certe circostanze, anche artistico, come nel caso, concettualmente analogo, di un bel dipinto presente nel negozio di un antiquario compiacente che sia, in luogo del creduto originale, la pesante ridipintura a opera di un abile falsario. Ci sono poi altri aspetti che riguardano non l’immagine ma la materia del monumento oggetto di restauro, anch’essa portatrice d’informazioni storiche oltre che di suggestioni estetiche (si pensi al

concetto di “patina”, come positivo segno del tempo, di cui tratta Cesare Brandi nella sua Teoria del restauro, Roma 1963). Patina e informazioni che si possono perdere “durante” il cantiere se questo non è condotto con la dovuta sapienza e con una rigorosa metodologia sostenuta da una profonda comprensione storico-tecnica del manufatto. Nella pratica ciò significa che lo strumento di verifica d’un restauro dev’essere non un atto ma un processo che segua tutta la vicenda, dagli studi preliminari, compreso il rilievo grafico del monumento e le indagini diagnostiche di vario tipo, alla definizione del progetto, preceduta dagli elaborati di analisi del degrado, di riconoscimento delle loro cause e da ragionate proposte operative (ad esempio, sui limiti di eventuali “reintegrazioni delle lacune” o “rimozioni di aggiunte” improprie) e, infine, al controllo in corso d’opera del cantiere, delle lavorazioni oltre che dei materiali impiegati. Si deve poi aggiungere che a ciò dovrebbe seguire (come si sta facendo, ad esempio, per i templi di Paestum) il monitoraggio nel tempo per verificare gli esiti positivi e, in certi casi, negativi degli interventi effettuati, in vista di possibili correzioni e di manutenzioni future. Si tratta d’un lavoro che troppo raramente si fa e che richiederebbe protocolli operativi precisi, controlli in corso d’opera, a scadenze programmate e anche a sorpresa (si pensi a come le iniezioni di malte nelle murature indebolite possano essere effettuate, dalle imprese esecutrici, “al risparmio” di materiale, circostanza poi difficilmente controllabile) e, soprattutto, persone preparate come, appunto, gli architetti non autoproclamatisi specialisti, ma provenienti da seri studi post-universitari, precisamente dalle Scuole di cui si è detto. Ma il livello medio degli studi professionali di architettura e quello dei controlli è così basso che spesso i giovani diplomati specialisti devono nascondere il loro titolo per non rischiare di compromettere le già scarse possibilità di essere assunti in una struttura privata abituata a lavorare in maniera piuttosto corriva, contando proprio sulla modesta propensione al controllo, da parte privata e soprattutto pubblica, per varie ragioni.


N. 02ƒ ;2019 D: L’attenzione alle metodiche di analisi può aiutare a pianificare gli interventi da effettuare, portando a un miglior risultato in termini di realizzazione di restauri più efficaci? (G. Carbonara) La risposta è sicuramente affermativa anche perché, nel

restauro, valgono alcuni principi, ormai consolidatisi da lungo tempo, come quello del “minimo intervento”, della “compatibilità” fisico-chimica delle parti antiche e di quelle moderne e dei relativi materiali, della buona “durabilità” degli interventi. Il tutto si può riassumere, poi, in una cornice concettuale che suona così: “conoscere per intervenire” (nel modo più giusto e consapevole) o, ancora meglio, “conoscere per non intervenire”, nel senso che più si sa, più sono approfondite l’analisi e la diagnosi, più si è compresa la natura dell’organismo architettonico bisognoso di restauro e meno si è portati a fare (“minimo intervento”, appunto). Ciò perché, ad esempio, in ambito strutturale si è compreso quanto si possa fare affidamento sulle residue capacità di resistenza delle vecchie murature (da aiutare e sostenere, non da sostituire come spesso si tende a fare), delle volte (forti e con effetti positivi, se i loro piedritti sono stabili) o dei vecchi intonaci, dilavati ma non per questo inefficienti e prossimi a cadere, o di un tetto che abbia bisogno di lavori sul manto di tegole ma le cui travi portanti siano ancora in gran parte sane. Comprendere, tramite accorte metodi-

che di analisi, la natura delle malte, degli intonaci e degli stucchi antichi aiuta a intervenire con materiali omogenei e quindi naturalmente “compatibili” con quelli antichi e, come essi hanno già dimostrato, “durabili” nelle condizioni a cui il manufatto è sottoposto. Un recente e interessante volume, pubblicato in italiano con testo inglese a fronte (Alfonso Cimino, Ga spare Massimo Ventimiglia, Senza commettere un falso storico. Il restauro della ex chiesa Ma dre di Santa Margherita di Belice dopo il terremoto del 1968, con presentazione e scritti di Franco To maselli, Roma, Aracne, 2018) ri serva quasi metà della trattazione a Le forme della conoscenza: test diagnostici e verifiche a restauro in corso d’opera. Stabilisce e sperimenta un “percorso metodologico” interdisciplinare che, grazie a molteplici analisi (termovisione all’infrarosso, prospezioni elettromagnetiche con il radar a impulsi, vibrazioni soniche e ultrasoniche, endoscopie, mappatura dell’umidità ecc.) ha consentito una precisa mes sa a punto preventiva delle lavorazioni e delle stime di restauro, con conseguente riduzione dei costi complessivi, tanto da ri pagare ampiamente le indagini preliminari, poi il controllo dell’efficacia degli interventi effettuati e, in caso di necessità, i più appropriati interventi correttivi in corso d’opera, oltre alla verifica finale della qualità del restauro eseguito. In sostanza, accanto alle

s

METROLOGIA... PER TUTTI

note questioni di natura storico-critica e anche d’inventiva progettuale che connotano il restauro, sono state ben messe in luce la positività e l’utilità di una “scienza della conservazione per il progetto e il cantiere di restauro”. Questa interessante esperienza na sce non a caso in ambito universitario, a Palermo, intorno alla cattedra di Restauro architettonico tenuta dal professor Franco Tomaselli e si apre, molto opportunamente, a più disci pline. D: Esistono metodi e criteri condivisi per accertarsi della bontà di un intervento di restauro? (G. Carbonara) Circa i metodi e i criteri, quanto specificato nelle risposte alle due precedenti domande dovrebbe essere già sufficiente; il vero problema riguarda invece la “condivisione” cui si fa cenno. La mia impressione è che si tratti di esperienze isolate e ancora non adeguatamente diffuse. Per il Belice si è fatto riferimento all’Università; in altri casi, come quelli molto interessanti di Pompei, Ercolano e Paestum e oggi anche del Parco Archeologico del Colosseo, che comprende la Domus Aurea e il sovrastante giardino, parte dei Fori Romani e il Palatino, o del Polo Museale del Lazio,

si sta operando in tal senso, penso grazie al fatto che si tratti d’istituti dotati di un’adeguata autonomia e guidati con sapiente determinazione dai singoli direttori, nominati ad hoc, veri custodi attenti alla buona gestione nel tempo dei beni loro affidati. T_M ƒ 149


Forse, da qualche tempo e come esito favorevole di alcuni aspetti delle recenti riforme del MiBAC, oltre che d’un lavoro di ricerca ormai lungo, a partire dalle anticipatrici intuizioni di Giovanni Urbani negli scorsi anni settanta, finalmente l’attenzione non per le inaugurazioni di quelli che proprio Urbani definiva “restauri belletto” ma per la più umile manutenzione e per la silenziosa verifica, lontana dai riflettori mediatici, della salute dei monumenti sta prendendo piede e si sta ampliando nell’ambito dei beni culturali, non solo fra gli esperti ma anche in un pubblico progressivamente più vasto. CONCLUSIONI

nianza dell’importanza che si attribuisce a questo strategico settore people intensive che coinvolge personale che a vario titolo e con ruoli diversi si propone di dare il proprio contributo alla conservazione e al restauro. 3. La storia ha lasciato eguale impronta in Italia, senza nessuna discriminazione tra regioni ricche e meno ricche, quindi offrendo le stesse opportunità a tutte, in quanto il patrimonio artistico è egualmente distribuito nel nostro Paese. 4. Lo sviluppo di tecniche di restauro sempre più mirate a risanare e rendere fruibili a tutti il vastissimo patrimonio artistico italiano sta portando a una considerazione più attenta del binomio qualità dell’opera e restauro. Fin qui le conclusioni, ma vogliamo anche formulare un auspicio: che un’attività così qualificante per il nostro patrimonio artistico e che genera incrementi significativi di PIL possa essere condotta con politiche di continuità e risorse adeguate, unica condizione per conseguire progressi durevoli, rifuggendo dalle troppe “una tantum” che non danno continuità e limitano le opportunità di sviluppo.

problemi di restauro dei monumenti, Bulzoni, Roma 1976 (trad. francese, Roma 1993). [2] Iussu Desiderii. Montecassino e l’architettura campano-abruzzese nell’undicesimo secolo, Istituto di Fondamenti dell’Architettura dell’Università degli Studi di Roma, Roma 1979, rist. 1981, nuova edizione accresciuta, GB EditoriA, Roma 2014. [2] Cesare Brandi. Scritti di architettura, (collana ‘Universale di Architettura’, 12, diretta da Bruno Zevi), Testo & Immagine, Torino 1996. [3] Trattato di restauro architettonico, 12 voll., UTET, Torino 1996-2011. [4] Avvicinamento al restauro. Teoria, storia, monumenti, Liguori, Napoli 1997. [5] Architettura d’oggi e restauro. Un confronto antico-nuovo, UTET, Torino 2011. [6] Restauro architettonico: principi e metodo, m.e. architectural book, Roma 2012. [7] Il restauro fra conservazione e modificazione. Principi e problemi attuali, Università degli Studi di Napoli “Federico II”, Napoli 2017. [8] UNI CEI EN ISO/IEC 170252018 “Requisiti generali per la competenza dei laboratori di prova e taratura”. RIFERIMENTI BIBLIOGRAFICI [9] ISCR – Istituto Superiore di Conservazione e Restauro – Percorso didatti[1] La reintegrazione dell’immagine: co per diventare restauratore.

t

L’autorevole testimonianza raccolta e la vasta letteratura sull’argomento relativo alla competenza del personale nella conservazione e restauro di Opere d’Arte ci portano ad alcune conclusioni. 1. È indubbio che il settore della conservazione e restauro delle opere d’arte abbia un’importanza strategica, sia per gli interessi diretti (numero di addetti e aziende che operano nel settore), che per l’importante volano per la nostra economia. 2. Le eccellenze delle nostre Università e Scuole di Restauro sono una testimo-

NEWS

N. 02ƒ ; 2019

n

METROLOGIA... PER TUTTI

SCOPRI IL NUOVO E-SHOP HEXAGON da e chiara, che offre una pano ramica rapida e semplice della gamma dei prodotti disponibili. – Magazzino appositamente progettato per garantire gestione dell’ordine e spedizione in tempi rapidi. – Pagamento diretto o mediante carta di credito. LA QUALITÀ Visitaci su: GUIDA LA PRODUTTIVITÀ – Funzione di ricerca e filtro como- shop.hexagonmi.com. Scopri il mondo della metrologia a portata di click: il nuovo E-Shop di Hexagon ti propone oltre 400 prodotti tra accessori, sensori e stili per macchine di misura a coordinate e laser tracker.

T_M ƒ 150


COMMENTI ALLE NORME

s

Rubrica a cura di Nicola Dell’Arena

Modifiche alla ISO 17025 2a parte: accreditamento o certificazione COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025 A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the UNI CEI EN ISO/IEC 17025 Standard.

RIASSUNTO Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. Proseguono con questo numero i commenti alle recenti modifiche. La 1a parte è stata pubblicata sul n. 1 del 2019.

PREMESSA

La precedente versione della 17025 riportava con chiarezza la differenza tra laboratorio “certificato” e “accreditato”. In Italia e nel mondo coesistevano l’accreditamento di un laboratorio in accordo alla ISO 17025 (fatto dal SINAL e dal SIT) e la certificazione di un laboratorio in accordo alla ISO 9001 (fatto dagli organismi di certificazione accreditati dal SINCERT). Questa situazione rischiava di creare confusione e disorientamento tra i laboratori quando dovevano decidere cosa scegliere tra certificazione e accreditamento. Per di più, sconcertava le grosse società che dovevano essere certificate per alcune attività e accreditate per i laboratori di prova o taratura usando gli stessi requisiti gestionali. Sembrerebbe naturale, nel momento in cui si procede alla revisione della norma, portare il problema all’attenzione della commissione per addivenire a una formulazione in grado di evitare i problemi di cui sopra. LE DUE OPZIONI

Per quanto riguarda i requisiti gestionali è stato introdotto un elemento di grande novità per fare chiarezza tra accreditamento e certificazione. Nel

come si può dire che sono diversi? Per me era solo una questione semantica e storica. Il NAMAS fu il primo a utilizzare il termine accreditamento molti anni prima che le ISO 9001 introducessero la certificazione, e così il termine rimase. I puristi dell’accreditamento affermavano che il rispetto della parte tecnica (riferibilità metrologica, interconfronto, rapporto di prova/taratura) faceva la differenza. Un giorno, con Roberto Perissi che faceva parte del Comitato Tecnico ISO, parlammo dell’argomento e della sua possibile soluzione. La mia proposta fu: 1) applicare integralmente la ISO 9001; 2) aggiungere i requisiti mancanti nella 9001, cosa che poteva essere fatta anche con un’altra norma. Alla fine dei lavori uscì la ISO 17025:2005, che era molto diversa dalla prima norma EN 45001 e conteneva i miei suggerimenti. Fatta questa precisazione “storica”, torniamo all’appendice B. Il punto B.1 dice due cose: 1) riconosce la confusione preesistente; 2) dà la soluzione offrendo la possibilità di scegliere tra due opzioni. L’opzione A, così come indicato nel punto B.2, richiama il § 8.1.2 della nuova norma ed “elenca i requisiti minimi per l’attuazione di un sistema di gestione in un laboratorio”. Poi si prende cura di precisare che con l’opzione A si è conformi ai principi della ISO 9001, e precisamente che “i laboratori che sono conformi ai punti da 4 a 7 e mettono in atto l’Opzione A di cui al punto 8, opereranno pertanto, in senso generale, in conformità ai principi della ISO 9001”. Se il laboratorio dovesse scegliere l’Opzione A, la norma al paragrafo 8.1.2 prescrive che “Il sistema di gestione del laboratorio deve coprire

paragrafo 8.1.1 si legge “il laboratorio deve attuare un sistema di gestione in conformità alle opzioni A o B”. Per capire la differenza tra le opzioni A e B bisogna andare all’appendice B dal titolo “Opzioni per il sistema di gestione”. L’Appendice riporta 5 paragrafi di cui il B5 è una figura. L’appendice B inizia con una precisazione, per me doverosa, al punto B.1 “l’aumento dell’utilizzo di sistemi di gestione ha accresciuto la necessità di assicurare che i laboratori sappiano mettere in pratica un sistema di gestione che possa considerarsi conforme sia alla norma ISO 9001, sia al presente documento. In conseguenza di ciò, il presente documento fornisce due opzioni riguardo ai requisiti relativi all’attuazione di un sistema di gestione”. Prima di commentare questo passo della norma e vedere cosa significa per i laboratori, mi si consenta una doverosa precisazione. In qualità di collaboratore del SIT ho sempre sostenuto in pubblico che certificazione e accreditamento non sono la stessa cosa, e ho spiegato il significato e cosa comportavano i punti da 1.4 a 1.6 della ISO 17025:2005. Ma da privato cittadino, con lo pseudonimo di Nino Minari, ho detto e scritto su Former: Responsabile Qualità - ENEA Tutto_Misure che erano la stessa cosa. Casaccia - RETIRED In effetti, analizzando i due processi, ndellarena@hotmail.it T_M

N.

2/19 ƒ 151


t

almeno i seguenti aspetti: 1) documentazione del sistema di gestione (vedere punto 8.2); 2) controllo dei documenti del sistema di gestione (vedere punto 8.3); 3) controllo delle registrazioni (vedere punto 8.4); 4) azioni per affrontare i rischi e le opportunità (vedere punto 8.5); 5) miglioramento (vedere punto 8.6); 6) azioni correttive (vedere punto 8.7); 7) audit interni (vedere punto 8.8); riesame di direzione (vedere punto 8.9)”. L’Opzione B, così come indicato nel punto B.3, richiama il § 8.1.3 della norma e “consente ai laboratori di stabilire e mantenere un sistema di gestione in conformità ai requisiti della ISO 9001, in maniera tale da supportare e dimostrare il regolare e coerente rispetto dei punti da 4 a 7”. E inoltre aggiunge: “i laboratori che mettono in atto l’Opzione B di cui al punto 8, opereranno pertanto in conformità alla ISO 9001”. Inoltre, il punto B.3 riprende quanto già presente nei punti da 1.4 a 1.6 della vecchia ISO 17025 e precisamente “la conformità ai requisiti della ISO 9001 del sistema di gestione nel cui ambito opera il laboratorio non dimostra, di per se stessa, la competenza del laboratorio a produrre dati e risultati tecnicamente validi. Ciò si ottiene attraverso la conformità ai punti da 4 a 7”. Nel paragrafo 8.1.3 la norma afferma che “Un laboratorio che ha stabilito e mantiene un sistema di gestione con-

NEWS NUOVO SISTEMA DI POSIZIONAMENTO MODULARE XYZ

Physik Instrumente (PI) presenta il nuovo sistema di posizionamento modulare XYZ F-131, ideale per lo sviluppo, studio e collaudo di componenti fotonici. Esso integra una pila riconfigurabile di tre assi motorizzati ad alta precisione e in anello chiuso con corse di 15 mm, in aggiunta a un sistema NanoCube XYZ, sempre in anello chiuso, in grado di garantire elevate velocità e una risoluzione di 2 nm. L’F-131 è dotato di controlli interamente digitali, in grado di fornire comandi integrati per una scansione veloce e a

T_M ƒ 152

N. 02 04ƒ ; 2019 8

n

COMMENTI ALLE NORME

Il primo commento, che viene spontaneo fare, è quello di sottolineare come non ci fosse la necessità di riportare, in due punti distinti della norma (il testo e l’appendice), le stesse cose. A duplicare le informazioni si rischia sempre di sbagliare. Il secondo commento riguarda i diversi punti, che non sempre appaiono in totale sintonia. Nel paragrafo B.2, con l’opzione A si è conformi “ai principi della ISO 9001”. La ISO 9001 al paragrafo 0.2 riporta i “principi di gestione per la qualità”. Cosa significa ciò? Il normatore voleva dire che si è conformi solo a questo paragrafo, peraltro introduttivo, della ISO 9001? A mio parere intendeva dire che si è conformi a tutta la norma ma, nel tentativo di voler entrare in troppi dettagli, ha seriamente rischiato di essere frainteso. Peraltro, se invece avesse inteso il contrario, sarebbe insensato aver rivisto la

norma e averne meglio specificato la sua applicazione. Nel paragrafo 8.1.3, con l’opzione B, la norma dice: applicando la ISO 9001 il laboratorio “soddisfa anche almeno gli intenti dei requisiti” del capitolo 8. Secondo me si poteva utilizzare un linguaggio più appropriato per chiarire il significato di “intenti” che è un termine generico e soggettivo. Inoltre, mi corre l’obbligo di far notare che questi concetti sono riportati in parte nell’Appendice e in parte nel capitolo 8. Il terzo punto da commentare riguarda il fatto che le due norme sono quasi uguali. Da un’analisi sommaria (fatta tra paragrafi), la norma ISO 9001 contiene solo qualche requisito gestionale in più rispetto alla ISO 17025. Non escludo che un’analisi di dettaglio sul contenuto di ogni singolo requisito possa riservare qualche sorpresa. Si può tuttavia concludere che l’uso dell’una o dell’altra opzione sia indifferente e che entrambe portino ad applicare gli stessi requisiti gestionali. Quanto affermato è riconosciuto dalla stessa norma quanto afferma, nel punto B.4, “entrambe le opzioni sono intese a raggiungere lo stesso risultato, in termini di prestazioni del sistema di gestione e in conformità ai punti da 4 a 7”. Ne consegue che quello che veramente serve per l’accreditamento di un laboratorio è la conformità ai requisiti da 4 a 7 della ISO 17025.

bassissime vibrazioni; inoltre comprende un registratore di dati integrato che consente la mappatura, ottimizzazione e caratterizzazione di dispositivi e degli accoppiamenti ottici. Interfacce Ethernet e USB ad alta velocità, un ingresso analogico ad alta risoluzione per misure ottiche e una vasta gamma di librerie software per lo sviluppo rapido di applicazioni contribuiscono a garantire produttività e flessibilità nell’utilizzo. Il software incluso PIMikroMove, che fornisce alcuni esempi di programmazione (LabVIEW, Python, MATLAB, ecc.), permette un facile controllo interattivo e un’immediata visualizzazione del processo di allineamento. Il supporto multipiattaforma Windows, macOS e Linux è ampiamente documentato per uno sviluppo efficiente. Il software opzionale C-990.FA1 fornisce inoltre un allinea-

mento completamente automatico dei componenti di trasmissione della luce, mentre un misuratore di potenza ottico F-712.PM1 opzionale garantisce una misura ottica a banda larga e una vasta gamma dinamica su un ampio intervallo spettrale. Per ulteriori informazioni: www.pionline.it.

forme ai requisiti della ISO 9001, e sia capace di supportare e dimostrare il regolare e coerente soddisfacimento dei requisiti riportati ai punti da 4 a 7 del presente documento, soddisfa anche almeno gli intenti dei requisiti del sistema di gestione specificati nei punti da 8.2 a 8.9”. CONSIDERAZIONI SULLE DUE OPZIONI


STORIA E CURIOSITÀ

s

Claudia Taschera*

Storia dell’LVDT Trasformatore Differenziale a Variazione Lineare

THE HISTORY OF LVDT (LINEAR VARIABLE DIFFERENTIAL TRANSDUCER) Position and displacement are fundamental physical quantities whose measurement is present in every sector, from industrial applications to control and monitoring. This includes the design, implementation and functional controls of servo systems where applicability and functionality are essential features. When sensors for measuring such quantities are considered, the available technologies are the resistive, magnetostrictive, Hall Effect and vibrating strings ones that, however, do not reach the same accuracy, repeatability and reliability in an extended temperature range as the LVDT. The success and future perspective in LVDT’s needs are supported by the continuous demand and presence in aircraft, military, industrial and nuclear equipment projects. The technological construction simplicity of the LVDT is supported by the absence of aging. RIASSUNTO Posizione e spostamento sono grandezze fisiche fondamentali la cui misura è presente in ogni settore, da quello industriale al controllo e sorveglianza. Rientrano in questa misura il dimensionamento, l’attuazione e i controlli funzionali di servosistemi dove applicabilità e funzionalità sono caratteristiche imprescindibili. Nel panorama dei sensori e trasduttori dedicati a questa misura troviamo la tecnologia resistiva, magnetostrittiva, effetto Hall e le corde vibranti che comunque non raggiungono l’accuratezza, ripetibilità e affidabilità in un campo esteso di temperatura dell’LVDT. Il successo e la prospettiva nel fabbisogno di LVDT sono confortati dalla continua richiesta e presenza nei progetti di apparati di aeromobili, militari, industriali e nucleari. La semplicità tecnologica costruttiva dell’LVDT è confortata dall’assenza d’invecchiamento.

Per esempio, il brevetto U.S. Patent 808,944 (Porte & Currier, 2 Gennaio 1906) descrive l’uso di un trasformatoL’LVDT è stato usato come dispositivo di re differenziale variabile come disposicontrollo elettrico da oltre 100 anni. tivo d’inversione senza contatto di un motore AC. Il circuito mostrato in Fig. 1 ha un avvolgimento di un motore a induzione a due fasi connesso a un paio di secondari, a loro volta connessi in differenziale. L’eccitazione originale per quell’avvolgimento del motore è collegata al primario del trasformatore differenFigura 1 - Brevetto Porter & Currier ziale. Il nucleo mobile è (semplificato), il primo trasformatore differenziale variabile accoppiato a una leva. STORIA RECENTE DELLO SVILUPPO DELL’LVDT

L’altro avvolgimento del motore è connesso alla propria usuale sorgente di alimentazione. C’è una inversione di fase di 180° della tensione di uscita dal trasformatore differenziale, quando il nucleo passa per il centro. Questo cambiamento di fase modifica la fase relativa tra gli avvolgimenti del motore di 180°, provocando l’inversione del senso di rotazione del motore. L’ampiezza della tensione applicata all’avvolgimento controllato del motore è, naturalmente, determinata dalla posizione del nucleo. La rotazione del motore si inverte senza contatti, evitando i conseguenti archi o scintille. Questo tipo di trasformatore differenziale dev’essere dimensionato per adattarsi alla potenza richiesta del motore elettrico, così da soddisfare i requisiti dei sistemi di misura. Tuttavia, è storicamente importante, perché usa un nucleo mobile magnetico e coassiale per variare l’accoppiamento, e quindi la mutua induttanza dei secondari posti simmetricamente, con il risultato di un’uscita differenziale con reversibilità di fase che varia in funzione della posizione del nucleo. Questa caratteristica lo fa diventare il diretto antenato del moderno LVDT e lo differenzia dai dispositivi a riluttanza variabile.

* Articolo tratto liberamente dal contributo di E.E. Herceg su “Handbook of Measurement and Control – Schaevitz” da Claudia Taschera (DSPM Industria, Milano – info@dspmindustria.it). Herman Schaevitz, laureato al MIT in Ingegneria Elettrica nel 1938, ha progettato e brevettato diverse tecnologie per i sensori, in particolare LVDT, promuovendone la divulgazione conoscitiva di base e applicativa. Per questo LVDT è spesso associato al nome di Schaevitz.

T_M

N.

2/19 ƒ 153


N. 02ƒ ;2019 IL PRIMO TRASDUTTORE A TRASFORMATORE DIFFERENZIALE

Questo era presumibilmente il primo trasduttore di pressione commerciale che utilizzava un trasformatore diffeFino al 1930 circa, il trasformatore dif- renziale variabile. ferenziale variabile rimase nell’oscurità semplicemente perché la necessità di dispositivi elettromeccanici che misu- IL PRIMO TRASFORMATORE rassero lo spostamento era minima. DIFFERENZIALE A VARIAZIONE Ma la crescita delle industrie di pro- LINEARE cesso chimico, nel tardo 1920 e agli inizi del 1930, indussero i costruttori Fino a questo punto non si è mai nel controllo di processo a interessarsi accennato al termine “lineare” in uniodi un sistema elettrico telemetrico, per ne al trasformatore differenziale variaottenere indicazioni a distanza delle bile. Sebbene questa proprietà fosse variabili di processo. già stata conosciuta o anche utilizzaLa ricerca di un adeguato elemento per ta, non c’era alcunché di scritto che trasduttore generò un rinnovato interesse attribuisse questa proprietà a un traper i trasformatori differenziali variabili. sformatore differenziale variabile, Il risultato fu lo sviluppo di un trasduttore, fino al 1936. A quell’epoca, G.B. come descritto nel brevetto U.S. Patent Hoadley presentò un brevetto sull’ar2.050.629 (Quereau & Williams - 11 gomento, che può essere meglio Agosto 1936). Un disegno semplificato descritto come “trasformatore differendi un “dispositivo telemetrico di pressio- ziale a riluttanza variabile con nucleo ne” (trasduttore) è mostrato in Fig. 2. coassiale”. Si trattava di un ibrido tra un sensore tipo E e un LVDT. In questa applicazione brevettata (U.S. Patent 2.196.809 – 1 Aprile 1940) Hoadley descrisse il campo lineare del nucleo in movimento e presentò una registrazione dell’ampiezza d’uscita e dell’angolo di fase in funzione della posizione del nucleo. GLI SVILUPPI DEL MODERNO LVDT Figura 2 – Brevetto Quereau & Williams (semplificato), il primo trasduttore con trasformatore differenziale variabile

Esso consiste in un tubo di Bourdon, che è l’elemento sensibile alla pressione, connesso tramite una leva a un trasformatore differenziale, montato verticalmente. Le variazioni di pressione espandono il tubo modificando, tramite il leverismo, la posizione del nucleo del trasformatore variabile differenziale. L’uscita differenziale è connessa a un indicatore di “zero” (galvanometro AC) e a un potenziometro a filo su un vetrino, usato come voltmetro potenziometrico. In questo modo, la posizione del cursore del potenziometro poteva essere tarata per i valori della pressione applicata. T_M ƒ 154

All’inizio della 2a Guerra Mondiale, l’LVDT era stato accettato, in generale, come elemento di trasduzione nella strumentazione industriale di processo e nei controlli. Il suo impiego era richiesto come indicatore della posizione meccanica di “zero” nei sistemi di controllo elettromeccanici a circuito chiuso a bordo di aerei e sottomarini. L’elemento LVDT trovò impiego negli equipaggi di prova per l’assicurazione di qualità. Ancora, nonostante l’aumento di applicazioni per l’LVDT dalla fine della guerra, solo un numero relativamente piccolo di tecnologi della strumentazione possedeva conoscenza relativamente al funzionamento, alle proprietà e caratteristiche dell’LVDT. Per rimediare a questa situazione e mettere l’LVDT nella giusta luce per un

s

STORIA E CURIOSITÀ

ampio segmento di progettisti, il Dott. Herman Schaevitz pubblicò “The Linear Variable Differential Transducer” nel 1946 (Procedimento del SESA, Volume V, n° 2). Questo documento diventò una pietra miliare nella storia dell’LVDT, non solo perché per la prima volta raccoglieva informazioni applicative, ma anche perché i potenziali utilizzatori si rendevano conto che l’LVDT era disponibile come prodotto commerciale. Prima di allora la maggior parte degli LVDT erano costruiti dalle ditte di controllo di processo per la loro esclusiva strumentazione.

Figura 3 – Caratteristica di uscita di un LVDT a risonanza

Al tempo della pubblicazione di queste note, il Dott. Herman Schaevitz continuava il suo lavoro di sviluppo sugli LVDT. Uno sviluppo interessante in quel periodo fu il trasformatore differenziale descritto nel brevetto U.S. Patent 2.461.238 (Schaevitz, 8 Febbraio 1949). In questo dispositivo le bobine secondarie erano avvolte in maniera tale che la capacità distribuita delle bobine fosse aumentata notevolmente. La capacità così incrementata modifica l’impedenza delle bobine e permette una risonanza parziale a una frequenza di eccitazione relativamente bassa. Il risultato è una tensione di uscita eccezionalmente alta, come mostrato nella curva di tensione uscitaposizione del nucleo di Fig. 3. Il di spositivo è oggi solo d’interesse storico, perché i moderni condizionatori di segnale ad alto guadagno escludono la necessità di un’uscita elevata del trasduttore.


N. 02ƒ ; 2019

s

STORIA E CURIOSITÀ

dell’LVDT e questa consapevolezza sfociò in progetti e tecniche di avvolgimento alternativi per LVDT. Il principale miglioramento progettuale fu descritto da W.D. Macgeorge nel brevetto U.S. Patent 2.427.866 (23/09/1947). Questo schema divenne il modello di costruzione di base per i moderni Figura 4 – Rotary Variable Differential Transformer (RVDT) LVDT (Fig. 5). Il brevetto di Macgeorge copre in particolare Trasformatore differenziale gli LVDT avvolti con secondari uguali, a variazione rotante Un altro importante dispositivo svilup- simmetricamente spaziati con il primapato da Herman Schaevitz nel dopo- rio al centro su un unico supporto. guerra fu il trasformatore differenziale Il nucleo è più lungo dell’avvolgimento a variazione angolare RVDT (U.S. primario. Schemi più recenti hanno il Patent 2.494.493, Schaevitz-10 Gen- primario avvolto sopra i secondari e viceversa, in funzione della linearità e naio 1950). Come illustrato in Fig. 4, il cuore di della fase tra primario e secondario. questo dispositivo è un nucleo magne- Durante il 1950, gli ulteriori miglioratico a forma di camma, imperniato su menti, seppur minimi, vennero fatti sugli LVDT, principalmente nell’utilizzo un albero al centro della bobina. dei materiali utilizzati per la costruzione. Tuttavia, molti importanti tentativi di miglioramento portarono a cambiaMIGLIORAMENTI menti significativi nelle prestazioni. DEL PROGETTO LVDT Per esempio, dai tentativi di migliorare L’interesse riguardo agli LVDT, dovuto la simmetria dell’avvolgimento primario alle pubblicazioni di Herman Schae- usando una bobina avvolta bifilarmente vitz precedentemente menzionate, non risulta un’eccessiva capacità tra primaera limitato solo agli utilizzatori. Altri rio e secondario con corrispondente costruttori riconobbero il potenziale limitazione della frequenza di eccitazione. Ancora, tentando di migliorare la linearità modificando il percorso magnetico generalmente significa che il nucleo non dovrebbe ruotare sul suo asse.

Figura 5 – Caratteristica d’uscita di un RVDT

LVDT con un terzo avvolgimento Uno sviluppo d’interesse storico fu rappresentato dall’uso di un avvolgimento secondario addizionale per spostare lo “zero” dell’LVDT (U.S. Patent 2.985.854, Brosh, 23/05/1961). Questa tecnica era parti-

Figura 6 – Fotografia (in alto), sezione (in mezzo) e diagramma schematico (sotto) di un LVDT con avvolgimento multiplo

colarmente utile in misurazioni di spostamenti molto lunghi, dove il campo di misura è ristretto a una sola direzione rispetto allo “zero” (Fig. 6). La tensione nell’avvolgimento addizionale era in fase per sovrapporsi alla tensione differenziale del secondario, che in ogni caso doveva svilupparsi alla fine della corsa. Questo fine diventa il punto “zero” e l’ampiezza dell’uscita aumenta come il nucleo si muove verso l’interno, raggiungendo il massimo dall’altra parte della corsa usuale. L’LVDT con corsa lunga (Fig. 6), funziona con questo principio eccetto che vengono usate parecchie bobine interconnesse tra loro per realizzare ogni avvolgimento. Tutte queste bobine distribuiscono il flusso magnetico lungo la lunghezza del supporto permettendo l’uso di un lungo nucleo. Questo schema mantiene la linearità che altrimenti sarebbe persa se fosse usata una singola bobina e un lungo nucleo. LVDT con avvolgimento rastremato Benché l’LVDT a lunga corsa descritto nel precedente paragrafo sia storicamente interessante, esso soffre di molte limitazioni. Una è che il nucleo e il trasformatore devono avere dimensioni troppo lunghe. Un’altra è che il trasforT_M ƒ 155


N. 02ƒ ;2019

s

STORIA E CURIOSITÀ

mario ed entrambi i secondari ovunque il nucleo sia mosso lungo l’intera lunghezza del supporto della bobina. Per fare in modo che l’uscita in tensione “zero” corrisponda al centro meccanico del supporto della bobina, è utilizzata la tecnica di Fig. 7. Questo provvede essenzialmente allo stesso grado di accoppiamento tra primario e l’uno o l’altro dei secondari quando il nucleo è centrato. Ciò minimizza anche l’eccessiva perdita di flusso e le capacità tra gli avvolgimenti con il risultato di un migliore funzionamento nel campo lineare. In pratica, il funzionamento lineare è possibile praticamente fino all’80% della lunghezza del trasformatore. Questo rappresenta un rapporto corsa – lunghezza di 0,8 confrontato a un rapporto corsa-lunghezza dello 0,3 di alcuni trasformatori avvolti convenzionalmente. Quindi, questa tecnica rappresenta un avanzamento significativo nello sviluppo dell’LVDT. Figura 7 – LVDT a corsa lunga con avvolgimento che decresce gradualmente (sopra) e avvolgimento complementare che decresce gradualmente (sotto)

matore diventa più sensibile alla temperatura. Oggi la proprietà che si desidera è un buon rapporto tra corsa e lunghezza del nucleo. Questo può essere raggiunto usando un avvolgimento che va rastremandosi, come descritto da J. Lipshutz nel brevetto U.S. Patent 3.054.976 (18/09/1962). La Fig. 7 mostra il concetto di questo

tipo di avvolgimento. In un LVDT convenzionale, lo spostamento massimo del nucleo per un funzionamento lineare è raggiunto quando il nucleo comincia a muoversi fuori dal percorso magnetico di accoppiamento di uno o dell’altro degli avvolgimenti secondari. L’avvolgimento rastremato evita questo problema prevedendo un percorso magnetico di accoppiamento tra il pri-

Figura 8 – LVDT-DC con il suo modulo miniaturizzato di condizionamento

T_M ƒ 156

LVDT con funzionamento in DC Il più recente sviluppo nella storia dell’LVDT è stato introdotto nel 1966 dalla Schaevitz Engineering con l’utilizzo del condizionatore-amplificatore all’interno del corpo dell’LVDT. Sappiamo che questi trasduttori necessitano di un oscillatore, un amplificatore a frequenza portante, un demodulatore e alcuni filtri. Il tentativo d’incorporare un’elettronica nell’LVDT fu per molto tempo un insuccesso, a causa delle dimensioni, della bassa affidabilità e delle insoddisfacenti prestazioni dei circuiti. Schaevitz combinò con successo un condizionatore di segnale a film sottile contenente tutta la necessaria elettronica inserita direttamente nel corpo dell’LVDT-AC. Questo dispositivo, mostrato in Fig. 8, con il suo circuito in tecnica microelettronica provvede a tutte le specifiche dell’LVDT. La microelettronica affidabile e la semplicità di un funzionamento in DC fanno di questo tipo di trasduttore un elemento di forma compatta ed economica con specifiche generalmente attribuite ad altri trasduttori, come il potenziometro resistivo a filo avvolto.


N. 02ƒ ; 2019

s

STORIA E CURIOSITÀ

– radiazioni nucleari; – temperature elevate e radiazioni nucleari. CARATTERISTICHE SALIENTI DELL’LVDT

L’LVDT ha molte caratteristiche di rilievo, che lo rendono utile per una vasta gamma di applicazioni. Alcune di esse sono esclusive per l’LVDT e non disponibili in alcun altro trasduttore. Queste caratteristiche provengono dal fatto che l’LVDT è un trasformatore elettrico con un nucleo separato privo di contatto. Figura 9 – Fotografia della sezione di un LVDT-DC

IL MODERNO LVDT

La sezione di un moderno LVDT-AC è mostrata in Fig. 9. Il trasformatore consiste di tre bobine, simmetricamente spaziate, attentamente avvolte su un rocchetto isolato. I fili di connessione escono da un’apertura praticata nello schermo esterno, generalmente in uno dei fondelli terminali. Uno schermo cilindrico in materiale ferromagnetico è sovrapposto alle rondelle metalliche terminali dopo che gli avvolgimenti sono stati impregnati sotto vuoto con un composto conservante adatto per le condizioni ambientali di lavoro. Il trasformatore, una volta terminato questo trattamento, è abbastanza impenetrabile all’umidità o all’influenza di normali campi magnetici esterni. Questa tecnica costruttiva rende il dispositivo estremamente robusto e affidabile. Il nucleo di un moderno LVDT è costituito da un cilindro pieno di una lega di nichel-ferro, accuratamente temperata per migliorare e omogeneizzare la propria permeabilità magnetica. Il nucleo è generalmente filettato internamente, così da permettere un conveniente accoppiamento all’attuatore esterno. I moderni LVDT sono costruiti in una varietà di dimensioni e configurazioni (alcune delle quali sono mostrate in Fig. 10), per soddisfare le richieste di misurazioni e di condizioni ambientali relative alla maggior parte delle applicazioni, incluse quelle:

Misurazioni senza contatto Di solito, non c’è contatto fisico tra il nucleo e la struttura della bobina, e ciò – convenzionali; significa che l’LVDT è un dispositivo – in spazio ridotto o miniatura; senza frizione. Questo permette il suo – speciali o sub – miniatura; – che necessitano di un foro passante uso in misurazioni critiche che possono tollerare l’aggiunta della piccola massa di grande diametro; – caratterizzate da lunghi spostamenti. del nucleo, ma non possono sopportare Gli LVDT convenzionali sono costruiti un carico dovuto alla frizione.

Figura 10 – Varie dimensioni e forme di un LVDT-DC

nelle configurazioni non sigillate, o sigillati alla pressione o ermeticamente sigillati per funzionare in molte condizioni ambientali, incluse: – industriale e militare; – industriale gravoso; – fluido o atmosfera corrosiva; – temperature criogeniche; – temperature elevate;

Due esempi di applicazioni sono la deflessione dinamica, o prove di vibrazione di materiali delicati, e le prove di allungamento o slittamento su fibre o altri materiali elastici. Vita meccanica infinita L’assenza di frizione e contatto tra la bobina e il nucleo di un LVDT significa T_M ƒ 157


N. 02ƒ ;2019 che non c’è alcun logorio. Ciò permette di considerare l’LVDT come un trasduttore dalla vita essenzialmente infinita. Questa è la richiesta più significativa in applicazioni come la prova a fatica di materiali e strutture. La vita meccanica infinita è importante anche in meccanismi e sistemi ad alta affidabilità in campo avionico, missilistico, nei veicoli spaziali e in critici equipaggiamenti industriali.

mento tra l’eccitazione d’ingresso (primario) e le uscite (secondarie). L’LVDT pertanto non necessita di un amplificatore intermedio a questo scopo. Inoltre, facilita l’isolamento del segnale e dell’eccitazione dalla terra in Risoluzione infinita Il funzionamento senza frizione del- misurazioni ad alte prestazioni nei sil’LVDT, combinato con il principio del- stemi di controllo ad “anello chiuso”. l’induzione su cui l’LVDT funziona, gli conferisce due rilevanti caratteristiche. Reiezione di cross-axis La prima è una elevata sensibilità e ciò La sensibilità dell’LVDT è predominante significa che l’LVDT può rispondere a al movimento assiale del nucleo. Però piccoli movimenti del nucleo e produr- la relativa insensibilità al movimento perpendicolare può essere utilizzata re variazioni in uscita. La limitazione di leggibilità di questo per certe applicazioni. segnale è rappresentata dai dispositivi Per esempio, le componenti su tre assi di un punto che si muove in relazione a esterni di lettura. un punto di riferimento possono essere determinate usando tre LVDT a foro Ripetibilità dello “zero” La costruzione simmetrica di un LVDT largo fissati perpendicolarmente tra di produce un’altra caratteristica, la ripe- loro avendo la precauzione che il foro tibilità dello “zero”. La posizione di passante dell’LVDT sia più grande dei “zero” di un LVDT è estremamente sta- movimenti trasversali. bile e ripetibile. Allora l’LVDT può essere utilizzato Claudia Taschera è laucome un eccellente indicatore di posireata in Giurisprudenza alzione “zero” nei sistemi a circuito chiul’Università Cattolica di Miso e ad alto guadagno. È anche utile lano. La sua passione per il nei sistemi a rapporto dove l’uscita mondo tecnico-scientifico “zero” risultante è proporzionale a l’ha portata dal 2006 a occudue variabili indipendenti. parsi di redazione editoriale Un’altra applicazione tipica è l’utilizzo dell’LVDT nei sistemi di controllo di servo valvole e attuatori di sistemi a circuito chiuso idraulici o pneumatici.

t

Separazione del nucleo e della bobina La separazione tra il nucleo e la bobina dell’LVDT permette l’isolamento di un mezzo, come può essere un fluido pressurizzato, corrosivo o caustico, dall’assemblaggio della bobina tramite una barriera non magnetica interposta tra il nucleo e la parte interna della bobina, eliminando la necessità di un sigillante “dinamico” sulla parte mobile. Solo un sigillante “statico” è necessario per sigillare l’assemblaggio della bobina all’interno di un sistema pressurizzato. Un’applicazione abbastanza comune con questa caratteristica è nella strumentazione di misura, che richiede un trasduttore flottante: come nei rotametri, densimetri e rilevatori di livello, dove il nucleo è parte integrante con il fluido ed Isolamento ingresso/uscita è isolato dalla bobina da un tubo di Il fatto che l’LVDT sia un trasformatore vetro o metallico non magnetico. significa che c’è un completo isola-

NEWS DUE “PICCOLE” NOVITÀ DA PCB PIEZOTRONICS!

PCB Piezotronics ha recentemente presentato due nuovi modelli di strumenti, accomunati dalla caratteristica di essere entrambi i più piccoli della propria categoria: – Mod. 352A59: accelerometro con disegno a goccia, simile ad altri già prodotti da PCB ma caratterizzato dall’essere il più piccolo accelerometro che include un circuito TEDS all'interno del sensore. È configurato nella sensibilità più diffusa di PCB, con 10 mv/g (1,0 mV/m/s²). Il

T_M ƒ 158

n

STORIA E CURIOSITÀ

sensore è sigillato ermeticamente in una custodia in titanio ed è previsto il solo montaggio adesivo. Particolarmente adatto per strutture per satelliti e aeromobili, elettronica militare e di consumo, convalida generale del prodotto. – Mod. 105C: sensore di pressione piezoelettrico a forma cilindrica, di dimensioni subminiatura, con campo di misura dal vuoto fino a 100 psi (689 KPa) e sovrapressione fino a 7.500 psi (51.713 kPa); sensibilità di 50 mV/psi (7,3 mV/kPa). Il sensore è sigillato tramite resina epossidica sul lato cavo, ed ermetico sul lato pressione a contatto con il fluido in una custodia in acciaio inossi-

per prodotti industriali. In DSPM Industria dal 2012 si occupa di documentazione prodotti, manualistica, note applicative e supporto alle attività webmaster.

dabile, con una filettatura esterna di montaggio integrale 10-32. Le applicazioni suggerite sono: Test e convalida di pompe e compressori – Eliche, turbine e controllo superficiale delle pressioni – Modelli aereo/veicolo spaziale. Per ulteriori informazioni: www.pcbpiezotronics.it.


N. 02ƒ ;2019

n

NEWS

UNA REALTÀ DI “ECCELLENZA” NELLA METROLOGIA SCIENTIFICA E LEGALE Il Laboratorio metrologico della LABCERT snc di San Quirino (PN), che ha come Responsabile il cav. Giuseppe Blandino, con i nuovi provvedimenti firmati dal Ministero dello Sviluppo Economico e i nuovi accreditamenti emessi da ACCREDIA, è diventato uno dei più importanti Laboratori di metrologia legale in Italia, nel settore della certificazione per marchiatura CE di prodotto e della taratura. Il Laboratorio possiede i seguenti accreditamenti e notifiche: – Accreditamento PRD n. 237B: conforme alla norma UNI CEI EN/ISO/IEC 17065:2012 quale Organismo di Certificazione di prodotti/servizi; – Accreditamento LAT n. 147: conforme alla norma UNI CEI EN/ISO/IEC 17025:2005 quale Laboratorio di Taratura; – Organismo Notificato n. 2166: Direttiva 2014/32/UE (MID) – Strumenti di misura; Direttiva 2014/31/UE (NAWID) – Strumenti per pesare a funzionamento non automatico. Il Centro si suddivide in sei distinte sezioni: Servizi di Taratura nell’ambito della metrologia scientifica. Il Centro è accreditato per la taratura dei seguenti strumenti: Campioni di masse da 1 mg a 2.000 kg – Strumenti per pesare fino a 100.000 kg – Serbatoi campione e misure materializzate di capacità da 100 ml a 2.000 I – Serbatoi campione e misure materializzate di capacità per gas GPL da 5 I a 2.000 I; Servizi di Certificazione prodotto e S.Q. nell’ambito della Metrologia Legale. Oltre a possedere l’accreditamento PRD, LABCERT è “Organismo Notificato” europeo n. 2166 per la Direttiva 2014/32/UE, relativa agli strumenti di misura (MI-005, Sistemi di misura per la misurazione continua e dinamica di quantità di liquidi diversi dall’acqua: distributori di carburanti e gas liquefatti; sistemi di misura su condotta di tutti i liquidi, quali vino, latte, birra, saponi, ecc. – MI-006, Strumenti per pesare a funzionamento automatico: selezionatrici ponderali a funzionamento automatico, riempitrici gravimetriche automatiche, totalizzatori a funzionamento continuo e discontinuo, pese a ponte per veicoli ferroviari – MI-008, Misure materializzate di lunghezza e di capacità), e la Direttiva 2014/31/UE, relativa agli strumenti per pesare a funzionamento non automatico (bilance); Servizi di “Verificazione periodica” degli strumenti per pesare e misurare nell’ambito della Metrologia Legale. LABCERT ha ottenuto l’idoneità da parte della CCIAA di Pordenone (11/03/2003 n. PN-01 in applicazione del DM 28/03/2000, n. 182 e succ. Decreti attuativi), fra i primi Centri autorizzati in Italia. Inoltre ha ottenuto l’idoneità da parte di UNIONCAMERE (nn. PN-131 e PN-132) per la verificazione degli strumenti di misura regolamentati dalla Direttiva MID: MI-005 ed MI-006.

Il Centro è idoneo all’esecuzione della verifica periodica delle seguenti categorie: Pesi e masse da 1 mg a 2.000 kg – Misure Campione di volume fino a 5.000 L – Strumenti per pesare fino a 300.000 kg NAWI – Strumenti per pesare a funzionamento automatico – Misure di capacità e recipienti (anche montati su autocisterna) – Misuratori volumetrici – Misuratori di carburanti per autotrazione presso distributori stradali – Complessi di misura per carburanti – Misuratori di Metano e GPL – Sistemi di misurazione di carburanti installati su autocisterne; Servizi di prove e taratura nell’ambito volontario, nelle Aziende con Sistema di Qualità Certificato ISO 9000. Il Centro è dotato di apparecchiature e campioni certificati LAT per emettere rapporti di taratura e di prova (attività non accreditate) su strumenti al di fuori del proprio campo di accreditamento. Labcert supporta le aziende per la pianificazione delle tarature di tutti i loro strumenti di misura: Chiavi dinamometriche, Presse per prova materiali, Calibri, Micrometri, Manometri, Misuratori di pressione, umidità, temperatura, ecc.; Formazione. Corsi di metrologia teorico/pratici di metrologia, anche su specifica richiesta del cliente, mirati su specifiche tematiche: Metrologia legale – Metrologia tecnico-scientifica – Taratura masse – Taratura strumenti per pesare e misurare – Documenti OIML, Guide WELMEC, DIRETTIVE EUROPEE di Metrologia Legale – Verifica periodica degli strumenti metrici nazionali & MID MI-005, MI-006. Informazioni di metrologia on-line. www.metrologia-legale.it è un sito web di cultura metrologica scientifica e legale, gratuitamente a disposizione di tecnici e operatori del settore interessati ad aggiornarsi sulle problematiche della metrologia. In particolare, il sito offre un’ampia panoramica di tutte le Leggi, Norme e disposizioni regolamentari nazionali ed europee, compresa una particolare sezione dedicata ai “Diritti dei Consumatori”, sempre nell’ambito della metrologia legale. Per ulteriori informazioni: www.labcert.it.

ESTENSIMETRI PRECABLATI DI NUOVA GENERAZIONE Micro-Measurements, rappresentata in Italia da LUCHSINGER srl, ha avviato un programma di aggiornamento dei propri estensimetri dedicati all’analisi sperimentale delle sollecitazioni. La nuova generazione è basata sulla tecnologia Advanced Sensors e soddisfa un mercato sempre più esigente in termini di precisione, accuratezza e pronta disponibilità. I nuovi estensimetri vanno ad aggiungersi a un già ampio portafoglio di soluzioni per il mercato OEM (produzione di sensori e trasduttori di misura) che include estensimetri lineari e rosette, con configurazioni a singolo, mezzo e ponte intero e resistenze elettriche da 350 Ω a 20 kΩ. Le serie C5K e C4A sono tra le prime a incorporare la nuova tecnologia nel segmento della Stress Analysis. La nuova rosetta estensimetrica miniaturizzata S5198 della serie C5K, dedicata al testing delle schede elettroniche, è dotata di cavi

di collegamento ad alte prestazioni in Teflon®. I cavi, sottili, flessibili e isolati, sono costituiti da tre fili intrecciati per ogni griglia. I modelli 060SL, 125SL e 235SL della serie C4A sono estensimetri lineari ad alte prestazioni, disponibili con configurazioni a 2 o 3 fili. Per ulteriori informazioni: www.luchsinger.it.

T_M ƒ 159


T U T T O _ M I S U r E Anno XXI - n. 2 - Giugno 2019 ISSN: 2038-6974 Sped. in A.P. - 45% - Art. 2 comma 20/b Legge 662/96 Filiale di Torino Direttore responsabile: Alessandro Ferrero Vice Direttori: Alfredo Cigada, Pasquale Daponte Comitato di redazione: Bruno Andò, Pasquale Arpaia, Loredana Cristaldi, Zaccaria Del Prete, Nicola Giaquinto, Michele Lanna, Rosalba Mugno, Claudio Narduzzi, Carmelo Pollio, Lorenzo Scalise, Bernardo Tellini,  Gaetano Vacca, Emanuele Zappa, Luciano Malgaroli, Massimo Mortarino

redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke, Aldo Romanelli Le pagine delle Associazioni Universitarie di Misuristi: Alessandro Ferrero, Pasquale Daponte, Nicola Paone Le pagine degli IMP: Maria Pimpinella Comitato Scientifico: ACCREDIA (Filippo Trifiletti, Rosalba Mugno, Emanuele Riva, Silvia Tramontin); ACISM-ANIMA (Roberto Cattaneo); AEIT-ASTRI (Roberto Buccianti); AIPT (Paolo Coppa); AIS-ISA (Piergiuseppe Zani); A.L.A.T.I. (Paolo Giardina); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Gabriele Bitelli), CNR (Ruggero Jappelli); GISI (Sebastian Fabio Agnello); GMEE (Pasquale Daponte); GMMT (Nicola Paone); GUFPI-ISMA (Luigi Buglione); IMEKO (Paolo Carbone); INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Diederik Sybolt Wiersma, Gianbartolo Picotto, Luca Callegaro); ISPRA (Maria Belli) Videoimpaginazione e Stampa: la fotocomposizione - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/3/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, redazione, Pubblicità e Pianificazione Via Principi d’Acaja, 38 - 10138 Torino Tel. 011 0266700 - Fax 011 0266711 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli, Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EUrO (4 numeri cartacei + 4 sfogliabili + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EUrO (8 numeri cartacei + 8 sfogliabili + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPOrTO DELL’ABBONAMENTO ALLA PrESENTE PUBBLICAZIONE È INTErAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.

ABBIAMO LETTO PER VOI

n

La Redazione di Tutto_Misure (info@tuttomisure.it)

We have read for you

IL SENSO DELLA MISURA. LA CODIFICA DELLA REALTÀ TRA FILOSOFIA, SCIENZA ED ESISTENZA UMANA Paolo Agnoli 944 pp. – WW Norton & C.

ISBN-88-8358-532-1 Prezzo (Google Play e.book): € 11,49

La recensione di questo libro, edito 15 anni fa e ancora disponibile in versione e.book, non può che iniziare dall’autore. Paolo Agnoli è laureato in Fisica e in Filosofia, ed è sicuramente grazie al rapporto in armonia di questi due ambiti che scaturisce questo libro, estensione della sua tesi in Filosofia. L’obiettivo del testo è quello di introdurre il “senso della misura”, ossia il significato profondo della conoscenza di grandezze naturali, ripercorrendo il processo storico che ha portato nei secoli alla definizione dei moderni concetti e metodologie, mostrando come questi dipendano per loro natura dall’ambiente sociale e culturale in cui si sono sviluppati. Le misure rappresentano senza dubbio una delle pratiche più antiche della storia umana nonché una delle conquiste più sofisticate per codificare le proprietà dell’ambiente in cui viviamo. Particolare enfasi viene dedicata alla nascita del sistema metrico decimale e al dibattito sulla determinazione dell’incertezza di misura, analizzando in particolare i concetti alla base dell’approccio probabilistico seguito. L’ultimo capitolo è dedicato all’approccio bayesiano. Il libro combina magistralmente aspetti storici, filosofici, sociologici e fisici relativi all’arte della acquisizione di informazioni atte alla misurazione ed è ricco di note bibliografiche e riferimenti puntuali che ne fanno una fonte storica essenziale per la comprensione e l’approfondimento della materia. Un testo datato, ma ancora per molti aspetti attuale proprio in questo momento di storica trasformazione del Sistema Internazionale delle Unità di Misura.

LE AZIENDE INSERZIONISTE DI QUESTO NUMERO Accretech AEP Transducers Aerotech Aviatronik Bruel & Kjaer Cibe

p. 98 pp. 81-144 pp. 108-114 4a di cop p. 88-146 p. 96

IC&M Labcert LTTS Luchsinger Pcb Piezotronics Physik Instrumente

p. 92 3a di cop, p. 159 p. 86 pp. 90-144-159 p. 158 pp. 100-102-152

NEL PROSSIMO NUMERO

Creaform Ametek pp. 102-124-126-139

Renishaw

• Affidabilità in Metrotronica • I costi del non misurare • Stimare le covarianze

DSPM Industria

pp. 104-106

Rupac

2a di cop

p. 124

Teseo

p. 128

E molto altro ancora...

Hexagon Metrology

T_M

N.

2/19 ƒ 160

FLIR HBM Italia

pp. 94-121-144 pp. 82-90-92-150

VEA

pp. 114-130

pp. 84-122



TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

ANNO XXI N. 02 ƒ 2 019

EDITORIALE Sveglia!

IL TEMA

XISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 2 - Anno 21- Giugno 2019 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi

TUTTO_MISURE - ANNO 21, N. 02 - 2019

Dalla quantità alla qualità dei dati

GLI ALTRI TEMI Una sentenza recepisce il concetto di incertezza Gravimetria barometrica

ALTRI ARGOMENTI Un’intervista al direttore Dip. Taratura di Accredia Misure, Big Data e Dataismo La covarianza nella stima dell’incertezza La qualità nel restauro e conservazione delle opere d’arte

AFFIDABILITÀ & TECNOLOGIA

WWW.TUTTOMISURE.IT


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.