Tutto_Misure 02/2016

Page 1

TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

ANNO XVIII N. 02 ƒ 2 016 AFFIDABILITÀ & TECNOLOGIA

ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 2 - Anno 18- Giugno 2016 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi

TUTTO_MISURE - ANNO 18, N. 02 - 2016

EDITORIALE Elezioni, Presidenze, A&T

IL TEMA I contributi degli IMP

GLI ALTRI TEMI Misure di umidità Misure per l’ambiente e il costruito Incertezza di definizione Misura del colore

ALTRI ARGOMENTI Visione artificiale La 17025 - Riesame della Direzione - parte II Tecnologie in campo Metrologia... per tutti!

WWW.TUTTOMISURE.IT





TUTTO_MISURE

ANNO XVIII N. 02 ƒ 2016

IN QUESTO NUMERO Un derivatore di corrente simulato A simulated current shunt L. Callegaro, C. Cassiago, E. Gasparotto

95 La similarità assoluta dei colori The absolute color similarity P. Fiorentin, O. Da Pos

107 L’affidabilità negli esperimenti di fisica delle particelle Dependability in particle physics experiments M. Citterio, M. Lazzaroni, G.F. Tartarelli

131 Quanto è grande un requisito? Parte V Which is the size of a requirement? Part V L. Buglione

143

Editoriale: Elezioni, Presidenze, A&T (F. Docchio) 85 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 87 Tema: I contributi degli IMP Confronto di misura di alto livello fra l’INRIM e un Laboratorio elettrico su un calibratore di elevata accuratezza (F. Galliana, M. Lanzillotti, G. La Paglia, A.S. Guerrato) 91 Un derivatore di corrente simulato come campione viaggiatore di resistenza elettrica di basso valore (L. Callegaro, C. Cassiago, E. Gasparotto) 95 Gli altri temi: Misure di umidità Misure di capacità e controllo di temperatura per un microsensore di umidità (S. Mangiarotti, M. Elkhayat, M. Grassi, P. Malcovati, A. Fornasari) 99 Gli altri temi: Misure per l’ambiente e il costruito Impianti di riscaldamento, ventilazione e condizionamento dell’aria (HVAC): acquisizione variabili per regolazione automatica (F. van der Velden) 103 Gli altri temi: La misura del colore La similarità assoluta dei colori come base di un sistema di colori naturale (P. Fiorentin, O. Da Pos) 107 Gli altri temi: Misure per l’industria L’ottimizzazione degli intervalli di taratura: un problema aperto di grande impatto economico (A. Lazzari) 111 La pagina di ACCREDIA Notizie dall’Ente di Accreditamento (a cura di R. Mugno, S. Tramontin, F. Nizzero) 117 La pagina di IMEKO Aggiornamenti sulle attività IMEKO (a cura di P. Carbone) 123 Campi e compatibilità elettromagnetica Accreditamento dei Laboratori di prova operanti nel settore EMC – Parte II (C. Carobbi) 125 Visione artificiale Sensori di visione basati su eventi: i sistemi di visione dinamici (a cura di G. Sansoni) 129 Misure e Fidatezza L’affidabilità negli esperimenti di fisica delle particelle (M. Citterio, M. Lazzaroni, G.F. Tartarelli) 131 Tecnologie in campo Posizionamenti di precisione in micro-produzione e controli di produzione in ganasce freno (a cura di M. Mortarino) 135 Metrologia generale Definizione del misurando e incertezza di definizione (a cura di L. Mari) 139 Manifestazioni, Eventi e Formazione Eventi nel mondo nel 2016 142 La Misura del Software Quanto è grande un requisito? – Parte V: misurare i requisiti non-funzionali (a cura di L. Buglione) 143 Metrologia legale e forense La bolletta elettrica: il jolly del fisco (a cura di V. Scotti) 147 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi 151 Metrologia... per tutti Il budget dell’incertezza di misura: cos’è e a cosa serve (a cura di M. Lanna) 154 Commenti alle norme: la 17025 Riesame della Direzione – Parte II: registrazioni e obiettivi (a cura di N. Dell’Arena) 157 Abbiamo letto per voi 160 News 89-122-124-144-146-149-150-154-156-158

T_M

N.

2/16 ƒ 83



Franco Docchio

EDITORIALE

n

Elezioni, Presidenze, A&T

Elections, Chairs and A&T Cari lettori! Mentre scrivo, sono in atto le operazioni di voto per i sindaci di un paio di migliaia di comuni in Italia, tra cui spiccano Roma, Milano e Torino. Pensavo di attendere a scrivervi per inserire qualche commento sull’esito dello spoglio, e invece no: teniamoci la sorpresa e rimandiamo eventuali commenti all’Editoriale di Tutto_Misure News. Sarà comunque interessante vedere fino a che punto la stanchezza della popolazione prevarrà rispetto alla mala-amministrazione di molti dei comuni (Capitale in testa). Elezioni anche nella mia Università, per la carica di Rettore, con la partecipazione di ben nove candidati: una vera rivoluzione, il cui esito si conoscerà tra il 21 e il 27 giugno, date rispettivamente della seconda votazione e dell’eventuale ballottaggio tra i migliori due. Invece all’INRIM si è avuto un cambiamento alla Presidenza: il Prof. Massimo Inguscio, al vertice da pochi anni, è stato nominato Presidente del Consiglio Nazionale delle Ricerche (complimenti e auguri di buon lavoro!), e al suo posto è stato nominato il Prof. Diederik Sybolt Wiersma, olandese, laureato e addottorato ad Amsterdam, Professore Ordinario presso il Dipartimento di Fisica dell’Università di Firenze. Il Prof. Wiersma è capo dell’area di ricerca in micro e nano fotonica dell’European Laboratory for Nonlinear Spectroscopy (LENS). Un fotonico succede a un altro fotonico, dunque, e questo è un segno tangibile dell’importanza che la fotonica ha nello sviluppo delle nuove tecnologie a supporto della metrologia e del nuovo Sistema Internazionale. Anche al nuovo Presidente INRIM i migliori auguri della Redazione e dei cultori italiani delle Misure, nella speranza che anche il Prof. Wiersma possa promuovere il rapporto di stretta collaborazione tra l’Istituto e ACCREDIA, in favore della metrologia italiana. A proposito di ACCREDIA, è stata veramente oltre le attese degli stessi organizzatori la partecipazione al Convegno annuale dei Centri di taratura del 21 Aprile, in occasione della scorsa edizione di A&T. I 410 partecipanti, rispetto ai 260 tra rappresentanti dei Centri e ispettori, dimostrano l’elevato e crescente interesse degli operatori

industriali delle misure verso le tarature, le norme e i regolamenti che le disciplinano. A&T è stato, come leggerete, anche un successo per l’attività non solo espositiva, ma anche tecnico-divulgativa. Vi ricordate il Congresso “Metrologia & Qualità”, nato su iniziativa del fondatore della Rivista Sergio Sartori e consistente in una conferenza scientificoapplicativa con una già (per il suo tempo) significativa sezione espositiva? Ebbene: a lato della parte convegnistica, con l’andare degli anni la sezione espositiva si era man mano espansa fino a diventare ciò che oggi è A&T. E il convegno? Qualche anno fa è andato, per così dire, in “ibernazione”, e necessitava di un “principe azzurro” che lo svegliasse con nuove connotazioni, molto più applicative e quindi maggiormente appetibili per gli utenti di misure e prove in ambito industriale. Si può quindi dire che l’intensità della sezione convegnistica all’interno di quest’ultimo A&T, grazie allo sforzo del “principe azzurro” Massimo Mortarino, affiancato dal Comitato Scientifico e Industriale di A&T, ha di fatto portato a quella che l’ex Direttore di ACCREDIA Mario Mosca considera “la rinascita di Metrologia & Qualità”, come egli stesso mi ha detto durante il Convegno dei Centri. Il mio sogno, ora, sarebbe quello di portare a Torino anche la “Giornata della Misurazione”, evento di notevole interesse per i suoi contenuti improntati alla metrologia fondamentale, ma negli ultimi tempi sofferente per scarsa partecipazione di pubblico, essendo probabilmente considerato troppo “accademico”. La sua collocazione presso A&T potrebbe ridarle la giusta risonanza mediatica, attirando operatori industriali, universitari e (perché no) educatori interessati all’evoluzione del SI. Infine, sempre a proposito della Giornata della Misurazione, che quest’anno si colloca all’interno del Convegno dei Gruppi GMEE e GMMT, in programma a Benevento in settembre (v. pagina “Eventi” su questa Rivista): riceverete tutti, e nella versione sfogliabile trovate qui, un questionario sul tema dell’incertezza di misura, che vi preghiamo di leggere e compilare (almeno in parte, riguardo alla sezione di vostra competenza). Le vostre risposte saranno discusse all’interno della GdM e riassunte poi in uno dei prossimi numeri della Rivista! Buona lettura!

Franco Docchio

T_M

N.

2/16 ƒ 85



COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

s

La Redazione di Tutto_Misure (franco.docchio@unibs.it)

Notizie nel campo delle misure e della strumentazione da Laboratori, Enti e Imprese

NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of the most significant news from Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico sia applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. MANOEUVRES: IMPORTANTE PROGETTO DI MONITORAGGIO DELLE PALE DEI ROTORI DI ELICOTTERO

“Manoeuvring Noise Evaluation Using Validated Rotor State Estimation Systems” (www.manoeuvres.eu), nell’ambito del filone di attività Clean Sky, del 7° programma quadro. La finalità del progetto è fornire soluzioni innovative per il monitoraggio e il controllo del rumore prodotto dagli elicotteri durante il volo, in modo tale da fornire strumenti utili a identificare procedure di volo a basso impatto acustico. Per consentire questo approccio è necessario stimare in tempo reale l’angolo d’attacco del disco rotore rispetto alla fusoliera dell’elicottero (Tip-Path – Plane Angle of Attack – TPP AoA), ossia il disco idealmente disegnato dalle estremità delle pale nella loro rotazione attorno all’albero. Per questa ragione un ruolo fondamentale nel progetto è stato quello della misura del TPP AoA: progettazione, implementazione e test di un sistema innovativo per la stima in tempo reale del TPP AoA, attraverso la misura degli angoli della pala (nel dettaglio gli angoli di pitch, flap e lag) tramite specifici sensori installati sul rotore. Il sistema di misura sviluppato si basa

su una coppia di telecamere stereoscopiche in grado di acquisire l’immagine di un apposito target piano montato sulla radice della pala. Le telecamere sono state programmate per elaborare le immagini in tempo reale, poi trasferite dal rotore alla strumentazione di bordo. Il sistema permette di stimare tutti e 3 gli angoli di pala, fornendo così dati fondamentali per la limitazione del rumore emesso e per lo sviluppo di sistemi di controllo attivo dell’elicottero. Il sistema è stato validato con estese campagne di Laboratorio e, nel mese di aprile 2016, è stato testato in volo con successo su un elicottero AgustaWestland AW139 sperimentale messo a disposizione da Leonardo Helicopters, partner del progetto insieme a Politecnico di Milano, Vicoter, Uni-

versità degli Studi di Roma 3 e Logic. Nella fotografia il gruppo di lavoro incaricato di provare in volo il nuovo sistema di misura, in occasione del primo volo di prova. LA NUOVA GIORNATA DELLA MISURAZIONE: SI CAMBIA!

Come preannunciato nel primo numero di Tutto_Misure dell’anno scorso, la Giornata della Misurazione (GdM), nata nel 1982, fondata da Mariano Cunietti e proseguita poi con l’importante contributo del fondatore di questa Rivista Sergio Sartori, si dà una veste nuova per attrarre un sempre più nutrito gruppo di giovani Ricercatori operanti nel mondo delle Misure da una parte, e gli operatori delle Misure del mondo industriale dall’altra. Per questa ragione, si è deciso, a livello di Consiglio Direttivo del GMEE e con l’avallo della Direzione del GMMT, di “sdoppiare” l’evento: negli anni pari (iniziando dal 2016 a Benevento) la GdM si terrà all’interno della Sessione Congiunta tra le associazioni GMEE e GMMT che tengono il loro congresso dal 19 al 21 settembre. Nella Sessione Congiunta la GdM si terrà martedì 20 settembre, dalle 11.30 alle 13.00 e avrà come tema “Fundamentals of Measurements Science and Technology”. Vedrà impegnati i Proff. Nicola Giaquinto, Gian Battista Rossi,

T_M

N.

2/16 ƒ 87


Walter Bich e Luca Mari. Il primo discuterà i risultati dell’elaborazione di un questionario sull’uso e sulla didattica dell’incertezza, anche a fronte dei nuovi adeguamenti previsti per la GUM e il VIM. Gian Battista Rossi discuterà poi sulla inutilità e sulla nocività della diatriba tra “bayesiano” e “frequentista” e sulle modalità per

T_M ƒ 88

N. 02ƒ ; 2016

s

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

superarla. Infine, Bich e Mari discuteranno gli ultimi aggiornamenti su GUM e VIM, con una dedica anche alle importanti modifiche del Sistema Internazionale di Unità previste per il 2018. La collocazione di un importante momento di riflessione all’interno del Convegno Congiunto di tutti i Ricercatori nel campo delle Misure elettriche, elettroniche, meccaniche e termiche è strategica per favorirne l’accesso a un vasto ambito di giovani, Ricercatori e studenti di Dottorato, per aumentare le loro conoscenze in questo prezioso ambito della Scienza delle Misure. Per l’occasione, la giornata è aperta gratuitamente anche agli operatori industriali delle Misure, e si prevede una partecipazione consistente di ad-

detti alle Misure della regione Campania e delle Regioni vicine.

Negli anni dispari, a partire dal 2017, la GdM si sposta verso l’Industria! Il successo delle Sessioni Specialistiche svoltesi all’interno di Affidabilità & Tecnologie 2016, che ha visto nella maggior parte dei casi un deciso “overbooking” dei posti nelle sale, ha motivato gli organizzatori della GdM a chiedere e ottenere dal Comitato Scientifico dell’evento l’autorizzazione a tenere la GdM nell’ambito di


N. 02ƒ ;2016 I numeri della decima edizione di A&T (Torino Lingotto Fiere, 20/21 aprile) evidenziano una crescita esponenziale della manifestazione dedicata all’innovazione competitiva nell’industria manifatturiera e confermano le impressioni positive di tutti gli espositori, estremamente soddisfatti per la quantità e qualità dei visitatori: 9.313 visitatori (+22%), 330 espositori (+6%), grande area espositiva (+14%), 1.283 novità presentate (+10%), 442 casi applicativi illustrati presso gli stand (+17%), 38 eventi: convegni, seminari, sessioni specialistiche.

Un successo “annunciato”, come emerge dagli interventi dei responsabili delle istituzioni (ICE, Regione Piemonte, Confindustria Piemonte, Camera di Commercio di Torino, Politecnico di Torino) intervenuti al convegno inaugurale, svoltosi mercoledì 20 aprile. ”Il settore della robotica, in costante crescita” ha dichiarato Gianfranco Carbonato, presidente di Confindustria Piemonte e di Prima Industrie “è strategico per l’automazione e la sede di Torino rappresenta una scelta naturale, poiché qui è nata la Robotica nel

NEWS

s

GRANDE SUCCESSO (ANCORA UNA VOLTA) PER L’EDIZIONE 2016 DI A&T!

nostro Paese, e il Piemonte è la Regione che vanta il maggior numero di robot installati a livello nazionale. Il comparto manifatturiero tipico del Nord Ovest, inoltre, rappresenta un vasto bacino di potenziali utenti di automazione, che in termini di export vale di più di abbigliamento, arredamento e alimentare messi insieme”. A&T ROBOTIC WORLD (la prima Fiera italiana della Robotica Industriale) ha visto riuniti, per la prima volta, tutti i principali costruttori di robot a livello mondiale: ABB, COMAU, FANUC, KUKA ROBOTER, SALDOBRAZ, TIESSE ROBOT-KAWASAKI, YASKAWA, ROBOTECO, STAUBLI, ALUMOTION, alcuni dei quali hanno presentato i robot collaborativi, novità assoluta del momento, che lavorano in sicurezza al fianco dell’uomo e avranno ampio utilizzo anche nelle piccole e medie aziende. La manifestazione ha rappresentato il palcoscenico ideale per presentare un ricco programma di eventi: 9 Convegni, 18 Seminari e 11 Sessioni Specialistiche, dedicate a temi di assoluta attualità ed estremamente mirati sulle applicazioni concrete delle soluzioni innovative in ambito manifatturiero, in ottica di sviluppo competitivo. L’interesse dei visitatori per l’offerta contenutistica di A&T 2016 è dimostrato dal “tutto esaurito” registrato in molte sale, che ha costretto l’organizzazione a sospendere le prenotazioni a molti eventi diversi giorni prima del loro svolgimento. “Un ringraziamento particolare, mio e di tutto il team A&T, – ha dichiarato Luciano Malgaroli, Direttore Generale di A&T – va ai protagonisti del successo di questa edizione, a partire dagli espositori che hanno portato in fiera le migliori tecnologie e i loro esperti, al servizio delle migliaia di visitatori presenti. Un ruolo fondamentale è stato svolto dal Comitato Scientifico, che ha contribuito a strutturare un programma di eventi di altissimo livello, fortemente mirato al trasferimento tecnologico”.

n

A&T 2017. Sarà una preziosa occasione per coinvolgere un elevatissimo numero di operatori industriali, ma anche universitari e Ricercatori dei Centri di Ricerca in area torinese ma non solo!

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

TRASDUTTORI DI PRESSIONE PER BASSISSIMI CAMPI DI MISURA

Instrumentation Devices srl, specializzata nelle soluzioni di misura e analisi per la sperimentazione scientifica e industriale, propone una nuova famiglia di trasduttori di pressione. Caratterizzati da elevate prestazioni e accuratezza, rappresentano la soluzione ideale per bassissimi range di misura, disponibili con fondo scala a partire da +/– 0,5 mbar (50 Pa). I nuovi trasduttori sono costruiti per misure differenziali, assolute o relative, in svariati settori applicativi: automotive testing, flight testing, farmaceutico, ricerca, chimico e petrolchimico, ecc. Alcuni modelli sono ordinabili con elettronica di condizionamento integrata e uscita amplificata in tensione o corrente (4…20 mA). Per i trasduttori senza elettronica incorporata è disponibile una famiglia di condizionatori di segnale dedicati, con uscita analogica amplificata, interfaccia USB e display integrato. Questi sensori estendono ulteriormente la nostra già ampia gamma di soluzioni per misure di pressione. Per ulteriori informazioni: www.instrumentation.it

T_M ƒ 89



s

I CONTRIBUTI DEGLI IMP

IL TEMA

F. Galliana 1, M. Lanzillotti 1, G. La Paglia 1, A.S. Guerrato 2

Confronto di misura di alto livello fra l’INRIM e un Laboratorio elettrico su un calibratore di elevata accuratezza

COMPARISON BETWEEN INRIM AND AN ELECTRICAL LABORATORY ON A HIGH-ACCURACY CALIBRATOR An accurate comparison measurement between INRIM and a high-level secondary calibration Laboratory has been performed with satisfactory results. The used instrument was a multifunction calibrator for its wide measurement range and excellent definability, for which very small calibration uncertainties are needed. The calibrator resulted eligible to check properly the measurement capability of electrical high level secondary Laboratories. RIASSUNTO Un accurato confronto di misura tra l’INRIM e un Laboratorio di taratura secondario di alto livello è stato eseguito con risultati soddisfacenti. Lo strumento utilizzato è un calibratore multifunzione per l’esteso campo di misura e l’eccellente definibilità, per la cui taratura sono necessarie incertezze molto spinte. Il calibratore è risultato idoneo per verificare adeguatamente le capacità di misura di Laboratori elettrici secondari di alto livello. TIPOLOGIE DI CENTRI DI TARATURA ELETTRICI

I moderni Laboratori secondari elettrici hanno strumentazione di elevata precisione e stabilità come multimetri digitali (DMM) e calibratori multifunzione (MFC) che operano in ampi campi di misura [1], la cui taratura può essere effettuata a diversi livelli d’incertezza. Due strumenti possono essere tarati con l’artifact calibration con solo pochi campioni [2, 3]. Le capacità di misura di questi Laboratori possono essere verificate con confronti di misura appropriati. Nel presente articolo, si presenta un confronto su un calibratore multifunzione tra il Laboratorio per la taratura di strumenti elettrici multifunzione dell’INRIM (INRIM-Lab) e un Laboratorio di taratura elettrico (Cal-Lab) accreditato con incertezze molto spinte. SCELTA DELLO STRUMENTO IDONEO PER IL CONFRONTO

dei Laboratori elettrici. Uno strumento utilizzato dall’INRIM in confronti è il multimetro (DMM) da 8 1/2 cifre, con cui un confronto può garantire un adeguato controllo delle capacità di misura di Laboratori di livello medio-alto dotati di strumentazione multifunzione quali strumenti di riferimento tarati dagli NMI. Laboratori di alto livello (es. in Fig. 1) hanno set di campioni primari come il riferimento di tensione da 10 V, divisori di tensione, resistori e derivatori campione e un trasferitore AC/DC. Le loro capacità sono state verificate con confronti con DMM e alcuni campioni fissi (10 V, 10 kW), non consentendo tuttavia di verificarne adeguatamente le capacità di misura e incertezze. In questo confronto è stato utilizzato un calibratore multifunzione di elevata accuratezza scelto per i propri campi di misura e l’eccellente definibilità (incertezza intrinseca), migliore di quella di un DMM, richiedendo incertezze molto piccole per la sua taratura.

era un calibratore Fluke 5700 A Le cui specifiche sono migliori di quelle di un multimetro da 8 1/2 cifre. Lo strumento andava verificato nei punti di misura delle Tab. 1 e Figg. 2-5. All’INRIM-Lab la taratura di un calibratore avviene in tre fasi. In una verifica iniziale, una gamma di punti di misura sono confrontati con i campioni di riferimento. Segue la messa in punto. La verifica finale controlla l’efficacia della messa in punto. Per il confronto era richiesta solo una verifica. RIFERIBILITÀ DELL’INRIM-LAB E DEL CAL-LAB

In Fig. 1 la catena di riferibilità dell’INRIM-Lab. Tra i campioni primari vi è un multimetro di elevata precisione caratterizzato in linearità utilizzato come campione di rapporto di tensione continua e un divisore di tensione INRIM a rapporti fissi. La catena di riferibilità del Cal-Lab è simile con

Figura 1 – Catena di riferibilità dell’INRIM-Lab

1

Istituto Nazionale di Ricerca Metrologica (INRIM), Torino f.galliana@inrim.it I confronti di misura concernenti la tara- ISTRUZIONI DEL CONFRONTO 2 ARO srl, Fluke Authorized Service tura di campioni elettrici fissi non coprono adeguatamente i campi di misura Lo strumento in taratura nel confronto Center, Biassono (MB)

T_M

N.

2/1 T_M 6 ƒ 91



N. 02ƒ ;2016 campioni in comune tarati all’INRIM che implica una correlazione parziale tra le misure dei due Laboratori. COME VALUTARE I DATI

Il calibratore è stato tarato due volte dal Cal-Lab, prima e dopo dell’INRIMLab. Per minimizzare l’effetto della deriva dello strumento sono stati considerati i valori medi delle misure del Cal-Lab. È stato considerato il fattore di taratura (1) e (2) per i due Laboratori. (1) (2) dove m I sono i valori misurati dall’INRIM-Lab, mentre mL1 e mL2 sono gli stessi valori misurati dal Cal-Lab alle stesse impostazioni s del calibratore. I fattori di taratura misurati sono stati espressi come: kI ± UI

(3)

kL ± UL

(4)

s

IL TEMA

normalizzato En) rispetto all’INRIM(7) Lab come: uB(std_DCV) include le incertezze del Campione Nazionale di Tensione e del trasferimento al riferimento INRIM da 10 V. – Tensione alternata: è stato valutato il prodotto di uB(std_DCV) con l’incertezza di categoria B uB(Vadj) dei valori di tensione continua per tarare all’INRIM i campioni trasferimento AC/DC nella catena di riferibilità di entrambi i Laboratori. r(kL, kI) è ottenuto dividendo questo valore per il prodotto delle incertezze tipo dei due Laboratori per ogni punto di misura.

dove:

(11) Uy = 2uy a 2s.

In Tab. 1 sono riportati i risultati per la Tensione continua. I risultati ottenuti dal Cal-Lab sono stati ritenuti compatibili con quelli dell’INRIM-Lab se |IC(En)|≤1. Le incertezze dell’INRIMLab e del Cal-Lab sono state valutate in procedure approvate rispettivamente dall’INRIM e da ACCREDIA. In Figg. 2-5 sono riportati i valori di IC(En) nelle altre grandezze.

(8) ESITO DEL CONFRONTO

– Resistenza: r(kL, kI) è stato valutato come rapporto tra il quadrato dell’incertezza tipo di categoria B uB(stdRES) della taratura all’INRIM dei resistori campione nella catena di riferibilità di entrambi i Laboratori e il prodotto delle incertezze tipo dei due Laboratori per ogni punto di misura.

(9) dove UI e UL sono le incertezze estese rispettivamente dell’INRIM-Lab e del Cal-Lab. Da UI e UL sono state ricavate le incertezze tipo uI @ UI/2 e uL @ UL/2. uB(stdRES) include le incertezze del CamPer ogni punto di misura è stato intro- pione Nazionale di Resistenza e del dotto un nuovo misurando [4]. trasferimento alla scala di Resistenza. – Corrente continua: è stato valutato il y = kL – kI (5) prodotto di uB(std_DCV) con uB(stdRES) la cui incertezza tipo è: dei resistori o derivatori nella catena di riferibilità dei due Laboratori e utilizzati per ottenere i valori di corrente (6) desiderati. r(kL, kI) è stato ottenuto dividendo questo valore per il prodotto delle incertezze tipo dei due Laboratori per ogni punto di misura. dove r(kL, kI) è il coefficiente di correlazione fra le misure dei Laboratori. (10) Sono stati definiti criteri per valutare r(kL, kI) per ogni grandezza elettrica. – Tensione continua: r(kL, kI) è stato – Corrente alternata: r(kL, valutato come rapporto tra il quadra- kI) è stato valutato come to dell’incertezza tipo di categoria B per la corrente continua in uB(std_DCV) della taratura all’INRIM del quanto i resistori di trasfecampione da 10 V nella catena di rimento AC/DC sono solo riferibilità di entrambi i Laboratori e il verificati (non tarati). prodotto delle incertezze tipo dei due È stato calcolato l’indice di Laboratori per ogni punto di misura: compatibilità IC (o errore

IC è risultato inferiore a 1 per ogni punto di misura, il che è importante in quanto il Cal-Lab dichiara incertezze molto piccole. I criteri per valutare il fattore di correlazione potranno essere ancora più utili in confronti di misura in cui le incertezze dei termini correlati siano superiori. Il Cal-Lab ha dimostrato di avere adeguate competenze, strumentazione e procedure per sostenere le proprie capacità di misura. Il calibratore si è dimostrato adatto a valutare le capacità di Laboratori alto livello e ha mostrato elevata stabilità e insensibilità al trasporto rendendolo idoneo a confronti multilaterali. RIFERIMENTI BIBLIOGRAFICI 1. C. Cassiago, G. La Paglia, U. Pogliano, “Stability evaluation of high-precision multifunction instruments for traceability transfer”, IEEE Trans. Instrum. Meas. Vol. 50, 6, p. 1206-1210, 2000. 2. G. Rietveld, “Artifact calibration: an eval-

Figura 2 – Valori di En in tensione alternata


N. 02ƒ ; 2016

s

IL TEMA

uation of the Fluke 5700A series II calibrator”, Rep. ISBN 90-9 013 322-4, 1999. 3. P.P. Capra, F. Galliana, “1 W and 10 kW high precision transportable setup to calibrate multifunction electrical instruments”, Measurement, 82; p. 367-374, 2016. 4. Evaluation of measurement data – Guide to the expression of uncertainty in measurement, BIPM JCGM 100, 2008.

Marco Lanzillotti, Torino, 1981. Perito elettronico “E. Majorana”, Grugliasco, Torino, 2001. Nel 2002 inizia l’attività all’IEN, ora INRIM. Si occupa del Laboratorio per la taratura degli strumenti multifunzione e di accreditamento di Laboratori. Alessandro Stefano Guerrato, 1977, Perito elettronico. Dal 1999 tecnico di Laboratorio in Fluke Italia, Vimodrone. Assistenza tecnica e taratura strumenti di misura –- Sperimentatore Centro SIT 46; dal 2006 Sostituto LAT 46.

Flavio Galliana, Pinerolo, (TO), 1966. Laurea in Fisica all’Università di Torino. Dal 1993 all’Istituto Elettrotecnico Nazionale “Galileo Ferraris” (IEN), si occupa di misure di resistenza e di accreditamento di Laboratori, della cui struttura diviene Responsabile per l’IEN. Dal 2006, con l’Istituto Nazionale di Ricerca Metrologica (INRIM) continua l’attività di misure elettriche e si occupa di confronti di misura.

Giuseppe La Paglia, Torino, 1953. Perito nucleare. Dal 1972 al 2015, presso l’IEN poi INRIM, ha operato nel settore Metrologia Elettrica allo sviluppo e mantenimento di diversi campioni nazionali. Dal 1984 svolge la funzione d’ispettore per l’accreditamento di Laboratori di taratura nell’ambito del SIT e ACCREDIA.

Tabella 1 – Risultati per la tensione continua. Le incertezze sono a 1 s

s (mV)

kI (×10–6)

u(kI) kL u(kL) d uB(std_DCV) (×10–6) (×10–6) (×10–6) (×10–6) (×10–6)

1 –1 3 10 –10 100 –100

–25,0 –20,0 5,0 5,5 4,0 0,5 0,5

96 96 32,5 11,5 11,5 1,1 1,1

50,0 –50,0 16,7 5,0 –5,0 2,5 0,0

155 155 55 24 24 1,8 1,8

75,0 –30,0 11,7 2–0,5 2–9,0 2,0 –0,5

(V) 0,3 –0,3 1 –1 3 –3 7 10 –10 20 –20 30 –30 50 100 –100 300 –300 400 800 1.000 –1.000

0,5 0,2 –0,2 0,0 2,3 2,3 2,3 2,2 2,3 2,5 2,5 1,7 1,7 1,5 1,2 1,2 1,7 1,6 1,8 1,5 1,2 1,1

0,9 0,9 0,4 0,4 0,5 0,5 0,4 0,3 0,3 0,4 0,4 0,5 0,5 0,6 0,4 0,4 0,7 0,7 0,7 0,5 0,5 0,5

1,5 –0,3 0,7 1,1 2,7 1,8 2,2 2,1 2,1 1,5 2,0 0,9 0,9 0,6 0,8 1,1 1,3 1,0 0,9 0,7 0,5 1,0

1,7 1,7 0,5 0,5 0,6 0,6 0,4 0,5 0,5 0,6 0,6 0,8 0,8 0,6 0,6 0,6 0,7 0,7 0,7 0,6 0,6 0,6

1,0 –0,5 0,9 1,1 0,4 –0,5 –0,1 –0,1 –0,2 –1,0 –0,5 –0,8 –0,8 –0,9 –0,4 –0,1 –0,4 –0,6 –0,9 –0,8 –0,7 –0,1

T_M ƒ 94

u(d) (×10–6)

IC

0,1 0,1 0,1 0,1 0,1 0,1 0,1

182,3 182,3 63,9 26,6 26,6 2,1 2,1

0,2 –0,1 0,1 –0,0 –0,2 0,5 –0,1

0,1 0,1 0,1 0,1

1,9 1,9 0,6 0,6 0,8 0,8 0,6 0,5 0,5 0,7 0,7 0,9 0,9 0,8 0,7 0,7 1,0 1,0 1,0 0,8 0,7 0,7

0,3 –0,1 0,7 0,8 0,3 –0,3 –0,1 –0,1 –0,2 –0,7 –0,3 –0,4 –0,4 –0,6 –0,3 –0,1 –0,2 –0,3 –0,5 –0,5 –0,5 –0,1

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

Figura 3 – Valori di En in resistenza

Figura 4 – Valori di En in corrente continua

Figura 5 – Valori di En in corrente alternata


s

IL TEMA

Luca Callegaro, Cristina Cassiago, Enrico Gasparotto

Un derivatore di corrente simulato come campione viaggiatore di resistenza elettrica di basso valore

A SIMULATED CURRENT SHUNT TO BE EMPLOYED AS A LOW-RESISTANCE TRAVELLING STANDARD We present a device (SimShunt) that simulates the electrical behavior of a lowvalued resistor, and is intended to be employed as a low-resistance travelling standard. It is composed of a direct-current current transformer (DCCT) and a mid-range resistance standard. A 10 mW SimShunt prototype has been constructed; it can be calibrated with commercial dc resistance bridges and exhibits a very small power coefficient. The expected long-term and transport stability is a few parts in 106 or better. RIASSUNTO Presentiamo un dispositivo (SimShunt) che simula il comportamento elettrico di un resistore di basso valore, da impiegarsi come campione viaggiatore. Il SimShunt è composto da un DCCT (trasformatore di corrente per correnti continue) e da un resistore di valore intermedio. È stato costruito un prototipo da 10 mW, che può essere tarato con ponti di resistenza commerciali e che mostra un coefficiente di potenza molto ridotto. La stabilità relativa, temporale e di trasporto, è stimata in poche parti in 106 o migliore. IL PROBLEMA

tional des Poids et Mesures (CIPM MRA), gli NMI partecipano a confronti internazionali, che utilizzano derivatori come campioni viaggiatori. In anni recenti, i confronti internazionali per bassi valori di resistenza hanno mostrato che la stabilità al trasporto dei derivatori d’interesse metrologico è – a dispetto della loro apparente robustezza costruttiva – molto modesta. Anche ponendo estrema cura nella movimentazione, l’incertezza del valore di riferimento del confronto viene dominata dal contributo dovuto alla stabilità e risulta dell’ordine anche di decine di parti in 106 [1] e quindi almeno un ordine di grandezza più elevata dell’incertezza di taratura dichiarata dagli NMI [1, 2]. Il confronto risulta così inutile al suo scopo primario, che è quello di una mutua validazione delle rispettive capacità di misura.

I resistori di basso valore (derivatori, o shunt) sono largamente impiegati in ambito industriale come trasduttori per forti correnti, economici e affidabili. In ambito metrologico, i derivatori tipicamente utilizzati hanno valori di resistenza nominale nel campo 100 µW – 100 mW, e correnti nominali sino al kA. La corrispondente dissipazione di potenza, da 1 W a 100 W, è di gran lunga superiore alla potenza (dell’ordine di 10 mW) solitamente dissipata nella taratura e nell’utilizzo di resistori campione di valore intermedio (1 W – 10 kW). Il conseguente riscaldamento dei derivatori deve essere mitigato con tecniche di raffreddamento, tipicamente forzato, ad aria o liquido. La riferibilità della misura per forti correnti viene trasferita dagli istituti metrologici primari (NMI) verso i Laboratori di taratura tramite derivatori tarati. LA SOLUZIONE PROPOSTA Come per altre grandezze elettriche, al fine di ottemperare al Mutual Recogni- Descriviamo qui un derivatore simulation Arrangement del Comité Interna- to (SimShunt), composto da un trasfor-

matore di corrente per correnti in regime continuo (direct-current current transformer, o DCCT) e un campione di resistenza di valore intermedio. Il comportamento elettrico del SimShunt è analogo a quello di un normale resistore di basso valore, e gli stessi sistemi e metodi ne permettono la misura. A parità di corrente applicata, la dissipazione di potenza del SimShunt è molto inferiore a quella di un derivatore dello stesso valore nominale, così come il corrispondente coefficiente di potenza. La provata stabilità dei DCCT e dei resistori di valore intermedio suggeriscono che un SimShunt possa essere impiegato come campione viaggiatore ad alta stabilità nei confronti di misura e come campione di trasferimento della riferibilità nel campo dei bassi valori di resistenza.

Figura 1 – A sinistra, un resistore reale, di resistenza a quattro terminali R12. A destra, lo schema di principio del derivatore simulato SimShunt, di resistenza R12 = t R2

La Fig. 1, a sinistra, mostra un resistore reale, di resistenza a quattro terminali R12. La corrente I1 applicata ai morsetti di corrente genera, ai morsetti di tensione, una tensione V2 = R12 I1. La corrispondente potenza dissipata è P = R12 I12. La stessa Fig. 1, a destra, mostra lo schema di principio del SimShunt. I morsetti di corrente sono connessi

INRIM – Istituto Nazionale di Ricerca Metrologica l.callegaro@inrim.it

T_M

N.

2/16 ƒ 95


N. 02ƒ ; 2016

s

IL TEMA

all’avvolgimento primario del DCCT, e a questi è applicata la corrente I1. Il DCCT è un dispositivo attivo controreazionato: la corrente I2 di un generatore controllato interno al dispositivo, che percorre l’avvolgimento secondario, è controllata attivamente in modo da mantenere sempre nullo il flusso nel nucleo. La stessa corrente I2 fluisce anche attraverso un resistore R2, e la corrispondente caduta di tensione V2 costituisce il segnale di uscita del SimShunt. Quando il DCCT opera correttamente si ha I2 = t I1, dove t è il rapporto di trasformazione di corrente (molto prossimo al rapporto spire). La resistenza equivalente del SimShunt è allora R12 = V2/I1 = R2 I2/I1 = t R2 e la corrispondente potenza dissipata è P = t R12 I12. Un DCCT commerciale ha valori di t tipicamente compresi nell’intervallo 10-2 - 10-4; pertanto, R2 può essere scelto tra resistori di valore intermedio e specificati per una dissipazione di potenza molto inferiore a quella del corrispondente derivatore reale da simulare.

Il rapporto di correnti del DCCT è programmabile e la corrente primaria di fondo scala può essere scelta per valori da 125 A a 2 kA. Il rapporto t = 0,01 scelto per le misure e non disponibile tra i rapporti predefiniti del DCCT, è ottenuto realizzando un avvolgimento primario di 10 spire. Le proprietà del SimShunt sono state confrontate con un derivatore reale Rs (Tinsley, mod. 3504C), di valore nominale 10 mW, anch’esso termostatato in bagno d’olio.

Figura 3 – Deviazioni relative della resistenza R12 dal valore nominale Rnom = 10 mW per il SimShunt e per il derivatore reale, in funzione della corrente di misura. Le barre d’incertezza corrispondono a un fattore di copertura k=2

MISURE

Le misure sono state eseguite utilizzando un ponte a comparatore di correnti commerciale (Measurement International mod. 6010B con extender 6011B), per confronto con un resistore campione di valore nominale pari a 1 W, anch’esso termostatato in UN PROTOTIPO bagno d’olio e tarato per confronto con il campione nazionale italiano di Abbiamo realizzato presso l’INRIM resistenza elettrica. Il rapporto di traun prototipo del SimShunt, di valore sformazione t del DCCT è misurato nominale R12 = 10 mW, combinando: come in [5]. – un campione di resistenza di valore Il comportamento del ponte di misura R2 = 1W, termostatato in bagno d’olio durante la caratterizzazione del Sima 23,000 °C; Shunt è risultato sostanzialmente – un DCCT commerciale (LEM mod. analogo a quello corrispondente alla ITZ 2000-SPR ULTRASTAB). misura di un derivatore reale: il firmware interno e il programma di acquisizione del costruttore hanno impostato automaticamente il ponte per la misura di un resistore da 10 mW e ottenuto corrispondenti letture. La Fig. 3 riporta i valori di resistenza misurata sul SimShunt e sul derivatore reale in funzione della corrente primaria, variabile nel campo da 1 a 10 A. Si nota chiaramente che il SimShunt ha un coefFigura 2 – Una foto del prototipo di derivatore ficiente di potenza molto infesimulato. A sinistra la testa del DCCT con riore rispetto al derivatore l’avvolgimento primario esterno di 10 spire; a destra il resistore R2 in bagno d’olio reale: questo è dovuto all’ele-

T_M ƒ 96

vata linearità del DCCT e alla ridotta dissipazione di potenza, che risulta da 100 µW a 10 mW sul SimShunt, e da 10 mW a 1 W sul derivatore reale. Il SimShunt ha inoltre una deviazione dal valore nominale molto ridotta. Nella Fig. 4 si confronta il valore misurato R12 del SimShunt con un valore calcolato, dato dal prodotto t R2 tra il rapporto spire t e il valore misurato del resistore R2. Come si può osservare i valori riportati, misurato e calcolato, risultano compatibili entro le rispettive incertezze. PROSPETTIVE

I risultati evidenziano le superiori prestazioni del SimShunt rispetto al corrispondente derivatore reale dello stesso valore nominale, in particolare per quanto concerne il coefficiente di potenza, come si osserva in Fig. 3. Il confronto riportato in Fig. 4 mostra che è possibile stimare il valore di R12 senza effettuare alcuna misura di resistenza di basso valore. Questo risultato apre l’interessante possibilità, per un Laboratorio di taratura, di ottenere una riferibilità per le misure di resistenze di basso valore e di forti correnti anche in assenza di sistemi di misura, come ponti o extender, specifici per le basse resistenze. Il derivatore simulato è di recente


N. 02ƒ ;2016

n

zione di questo offset, mediante periodiche inversioni della corrente primaria. Variazioni di t causate da derive temporali nell’elettronica del DCCT sono più difficili da prevedere, ma poiché l’elettronica del DCCT è di fatto un controllore in anello chiuso, variazioni limitate del guadagno Figura 4 – Confronto tra il valore R12 del SimShunt, misurato causate da derive nei con il ponte a comparatore di correnti, e il valore t R2, dato componenti dovrebdal prodotto del rapporto di trasformazione t del DCCT bero avere effetti mole il valore misurato del resistore R2, entrambi relativi to limitati. Si consideal valore nominale Rnom = 10 mW. Le barre d’incertezza ri in ogni caso la difcorrispondono a un fattore di copertura k=2 ferenza con il comportamento di un decostruzione, e sia la sua deriva tem- rivatore reale, nel quale qualsiasi porale sia il comportamento come variazione nella resistività del matecampione viaggiatore devono essere riale dovuto a creep, condizioni amancora verificati. Come semplice com- bientali, vibrazioni meccaniche ecc. binazione di due elementi, ci si aspet- hanno un effetto diretto sulla resistenta che la stabilità temporale sia con- za. frontabile con la stabilità combinata Il confronto internazionale EURAdei due elementi che lo compongono. MET.EM-S35 [3], oggi in corso, impiePer quanto riguarda la stabilità di R2, ga come campione viaggiatore un diversi confronti internazionali DCCT di tecnologia simile a quello hanno dimostrato che campioni di re- qui descritto. Risultati preliminari mosistenza commerciali del valore no- strano derive, se ce ne sono, a livello minale di 1 W o superiore sono estre- di parti in 106 o meno. mamente stabili nel tempo e al tra- Su queste basi, ci si attende che il prosporto, con deviazioni tipiche del- totipo di SimShunt qui presentato l’ordine di parti in 108 (si vedano ad possa avere una stabilità nel tempo e esempio i report del confronto inter- al trasporto dell’ordine di alcune parti nazionale 4). in 106 o migliore. Come già detto, I DCCT per impiego metrologico sono questa performance è migliore di dispositivi recenti, e non sono ancora quella osservata in confronti che imdisponibili in letteratura dati riguardo piegano derivatori reali come camalla loro stabilità. Il principio di fun- pioni viaggiatori. Gli autori sono dizionamento dei DCCT è il comparato- sponibili a collaborazioni con istituti re di correnti, e pertanto per quanto metrologici e centri di taratura per riguarda la stabilità del rapporto t nel una verifica sul campo. tempo e verso le condizioni ambientali ci si aspettano comportamenti simili a quelli di trasformatori e divi- RIFERIMENTI BIBLIOGRAFICI sori induttivi in regime alternato, che hanno stabilità dell’ordine di parti in 1. G. Rietveld, J. H. N. van der Beek, 107. Il rilassamento magnetico e le M. Kraft, R. E. Elmquist, A. Mortara, magnetizzazioni residue del nucleo B. Jeckelmann, “Low-ohmic resistance possono causare variazioni nell’offset comparison: measurement capabilidella corrente secondaria, ma la tec- ties and resistor traveling behavior”, nica di misura dei resistori di basso IEEE Trans. Instr. Meas., vol. 6, no. 6, valore prevede comunque una reie- pp. 1723-1728, 2013.

IL TEMA

2. G. Rietveld, “Comparison of lowohmic resistor (100 W, 1 mW, 10 mW and 100 mW)”, Final Report 835, November 2007. Disponibile online: www.euramet.org. 3. C. Cassiago, A. Mortara, “Comparison of high-current ratio standard”, EURAMET, Technical Protocol 1217, Feb 2012. Disponibile online: www.euramet.org. 4. BIPM Key Comparison DataBase, “BIPM.EM-K13.a, Key comparison in Electricity and Magnetism, Resistance: 1 ohm”, 1996, ongoing. Disponibile online: http://kcdb.bipm.org. 5. L. Callegaro, C. Cassiago, E. Gasparotto, “On the Calibration of DirectCurrent Current Transformers (DCCT)”, IEEE Trans. Instr. Meas. vol. 64, n. 3, pp. 723-727 (2015).

Luca Callegaro è Primo Ricercatore presso l’Istituto Nazionale di Ricerca Metrologica (INRIM) di Torino. È responsabile del programma di ricerca “Metrologia dell’ampere” della Divisione Nanoscienze e Materiali. Dal 2015 è Chairman per il Technical Committee on Electricity and Magnetism (TC-EM) dell’European Association of National Metrology Institutes (EURAMET).

Cristina Cassiago è Tecnologo presso l’Istituto Nazionale di Ricerca Metrologica (INRIM) di Torino.

Enrico Gasparotto è Collaboratore Tecnico presso l’Istituto Nazionale di Ricerca Metrologica (INRIM) di Torino.

T_M ƒ 97



GLI ALTRI TEMI

s

MISURE DI UMIDITÀ S. Mangiarotti 1, M. Elkhayat 1, M. Grassi 1, P. Malcovati 1, A. Fornasari 2

Misure di capacità e controllo di temperatura per un microsensore di umidità Regolazione della temperatura per il controllo dell’umidità relativa

CAPACITY MEASUREMENTS AND TEMPERATURE CONTROL OF A HUMIDITY SENSOR This article aims at studying the possibility of generating predictable relative humidity variations with temperature on a capacitive humidity sensor. A software and a circuit temperature control will be analyzed. The precision of both systems is remarkable. A possible application is in the field of selfdiagnostics for humidity sensors. RIASSUNTO L’articolo presenta uno studio sulla possibilità di generare variazioni prevedibili di umidità relativa (RH) ottenute attraverso variazioni controllate di temperatura su un sensore di umidità capacitivo. Si analizzerà la realizzazione software e in seguito circuitale del controllo di temperatura. La precisione ottenibile da entrambi i sistemi è ragguardevole. Il sistema di controllo di temperatura proposto potrà essere utilizzato per funzioni di autodiagnostica del sensore. IL SENSORE DI UMIDITÀ CAPACITIVO

Un sensore di umidità capacitivo utilizza come elemento sensibile un polimero (Poliimmide) la cui costante dielettrica varia al variare dell’umidità relativa (RH), secondo una legge approssimativamente lineare. Ne consegue una corrispondente variazione di capacità (basti pensare alla semplice formula che lega capacità e costante dielettrica εr per un condensatore a facce piane parallele C = εrεrA/d). Il sensore e l’interfaccia circuitale di lettura sono oggi sempre più frequentemente realizzati tramite un unico circuito integrato. QUAL È LA RELAZIONE FRA UMIDITÀ RELATIVA E TEMPERATURA?

Umidità relativa e temperatura sono due grandezze strettamente legate tra loro. All’aumentare della temperatura l’umidità relativa diminuisce secondo una legge esponenziale. Un’ottima approssimazione della relazione fra le due grandezze è fornita dalla seguente equazione:

in cui PT è la pressione atmosferica, µH2O è la frazione molare di acqua presente nell’aria (indice dell’umidità assoluta) e T è la temperatura in gradi centigradi. REALIZZAZIONE PRATICA DELLE VARIAZIONI DI TEMPERATURA

causa del cambiamento di umidità relativa. IMPLEMENTAZIONE SOFTWARE DEL CONTROLLO DI TEMPERATURA

La verifica della possibilità di ottenere variazioni prevedibili di RH a seguito di gradienti di temperatura ha comportato inizialmente la realizzazione di un sistema di controllo di temperatura a livello software (LabVIEW). L’anello chiuso ha previsto l’utilizzo di un regolatore PI, tarato secondo appropriati algoritmi (regole di ZieglerNichols). Un alimentatore comandato in tensione è stato connesso all’heater al fine di fornire un adeguato livello di corrente. La lettura del valore di resistenza del termometro ha permesso di ricavare il corrispondente valore di temperatura. La lettura del valore di capacità del sensore è stata possibile grazie a un capacitance-to-digital converter (AD7746). Le capacità misurate sono state trasformate in opportuni valori di umidità relativa secondo la curva di calibrazione iniziale del sensore. Il sistema è stato inizialmente caratterizzato in anello aperto, ottenendo i dati riportati in Tab. 1. La precisione ottenibile nel controllo di temperatura è ragguardevole (si veda la Fig. 1), così come in Fig. 2 è evidente l’elevata precisione ottenibile in termini di variazioni di umidità misurate rispetto al modello matematico espres-

Modificare a livello locale (del sensore) la temperatura è relativamente semplice. È sufficiente sfruttare, per esempio, l’effetto Joule. Il sensore di umidità considerato include in effetti una resistenza da 250 W che viene utilizzata come riscaldatore (heater) quando percorsa da corrente. Una seconda resistenza di valore più elevato (2,5 kW) permette invece di leggere il corrispondente valore di temperatura (a seguito di un’opportuna conversione resistenza-temperatu- 1 Dip. Ingegneria Elettrica, Informatica ra). Tornando all’Eq. (1), è evidente e Biomedica, Università di Pavia che, se µH2O rimane costante (la misu- stefano.mangiarotti01@universitadipavia.it ra av viene in poco tempo), il gra- moataz.elkhayat@universitadipavia.it diente di temperatura sarà l’unica 2 Texas Instruments, Milano

T_M

N.

3/1 2/16 5 ƒ 99


N. 02ƒ ; 2016 so dall’Eq. 1. È quindi evidente come l’ipotesi formulata nell’introduzione sia verificata con una precisione nell’ordine del ±1% RH. Tale valore è stato stimato sulla base di un elevato numero di misure su diversi campioni. Tabella 1 – Risposta del sistema in anello aperto al variare della tensione (potenza) fornita

Figura 1 – Controllore PI: risposta al gradino. DT=3 °C

Figura 2 – Confronto misure RH-modello matematico (DT=3 °C)

IMPLEMENTAZIONE CIRCUITALE DEL CONTROLLO DI TEMPERATURA

La realizzazione circuitale del controllo di temperatura segue lo schema riportato in Fig. 3. Il regolatore PI è stato realizzato secondo i parametri Kp = 10, Ti = 1,04 s. Gli amplificatori operazionali che realizzano le funzioni di guadagno e integrazione utilizzano capacità commu-


Figura 3 – Realizzazione circuitale del controllo di temperatura: schematico

tate (SC) comandate da un clock a due fasi non sovrapposte f1 e f2 alla frequenza di 100 Hz. Il comparatore che segue l’amplificatore operazionale d’integrazione è collegato in uscita a un n-MOS di potenza di dimensioni W = 1.000 µm e L = 0,4 µm. L’accoppiamento termico fra la resistenza heater e il termometro è stato modellizzato in VerilogA. I valori delle due resistenze sono quelli già discussi nei paragrafi precedenti. L’alimentazione della resistenza di heater varia da 3,3 V a 7 V a seconda della temperatura da raggiungere. Il segnale di temperatura è una tensione, opportunamente amplificata di un fattore 10, ottenuta polarizzando la resistenza termometro con una corrente di valore opportuno. In particolare la corrente da 800 µA è utilizzata con il generatore di tensione da 0 V nel range 24-27 °C. La corrente da 200 µA è utilizzata invece con il generatore da 2 V nel range 2734 °C. Per temperature superiori la corrente andrà ulteriormente diminuita (ad es. 100 µA). Il periodo dell’onda a dente di sega all’ingresso invertente del comparatore è 1 MHz. Il guadagno d’anello è 1.000. Il sistema è stato simulato in ambiente Cadence a livello transistor. L’accuratezza raggiunta è nell’ordine degli 0,005 °C in un intervallo di temperatura di 50 °C. La Fig. 4 mostra il layout del chip realizzato in tecnologia CMOS a 0,35 µm. L’area del chip è 0,25 µm2. Sono utilizzati 12 pin. È prevista in futuro una realizzazione del chip per applicazioni industriali.

Figura 4 – Realizzazione circuitale del controllo di temperatura: layout

DAL LABORATORIO ALL’APPLICAZIONE INDUSTRIALE

Capacitive Humidity Sensor with a Novel Polyimide Design Fabricated by MEMS Technology”. In: IEEE InterSi è quindi dimostrata la possibilità di national Conference on Nano/Micro generazione di variazioni di umidità Engineered and Molecular Systems relativa controllate unicamente attra- 2009. verso gradienti di temperatura. Sia il controllo di temperatura software sia la realizzazione circuitale offrono Stefano Mangiarotti elevata precisione. La realizzazione ha conseguito la Laurea della regolazione esposta consentirà Magistrale in Ingegneria in futuro di variare a piacere RH e T Elettrica presso l’Universidi un sensore di umidità capacitivo. tà di Pavia nel 2015. FreLe applicazioni sono molteplici: dal quenta attualmente il Dotsemplice riscaldamento controllato torato di Ricerca in Ingegneria Microedel sensore per porre rimedio a situalettronica all’interno del Laboratorio di zioni quali condensa, accumulo di Sensori e Microsistemi. Ha fatto parte acqua o ghiaccio sul sensore, a più (internship) del gruppo Sensor Signal raffinati sistemi di autodiagnostica Path presso Texas Instruments (Milano) del sensore che permettano di evi- lavorando su sensori di temperatura e denziare malfunzionamenti in caso di umidità. letture di umidità prive di significato (a seguito di variazioni regolate di temperatura). RIFERIMENTI BIBLIOGRAFICI

1. D. Cartasegna et al., “Smart RFID label for monitoring the preservation conditions of food”, in: Proc. IEEE ISCAS, May 2009, pp. 11611164. 2. C.L. Zhao et al., “A fully packaged CMOS interdigital capacitive humidity sensor with polysilicon heaters”, IEEE Sensors J., vol. 11, no. 11, pp. 2986-2992, Nov. 2011. 3. N. Lazarus et al., “CMOS-MEMS capacitive humidity sensor”, J. Microelectromech. Syst., vol. 19, no.1, pp. 183-191, Feb. 2010. 4. J.H. Kim et al., “High Sensitivity

Moataz Elkhayat, nato nel 1986 a Il Cairo (Egitto), nel 2009 ha conseguito la Laurea triennale in Ingegneria Elettronica e delle Telecomunicazioni all’Higher Technological Institute (HTI) a Il Cairo. Ha conseguito la Laurea Magistrale in Sistemi Elettronici presso il Politecnico di Milano nell’Aprile 2013. Ha lavorato come designer nel Gruppo ROLD fino al 2014. Attualmente frequenta il Dottorato di Ricerca in Ingegneria Microelettronica all’interno del Dip. Ingegneria Industriale e Informazione presso l’Università di Pavia. L’ambito di ricerca si concentra su microsensori integrati, in particolare sensori di umidità capacitivi con controllo di temperatura integrato.

T_M ƒ 101


N. 02ƒ ; 2016 Marco Grassi ha conseguito la Laurea Magistrale in Ingegneria Elettronica nel 2002 e il Dottorato di Ricerca in Ingegneria Elettrica nel 2006 presso l’Università di Pavia. Nel 2001 ha lavorato (internship) presso Texas Instruments, Dallas, nel Gruppo Data Converters. Nel 2002 è entrato a far parte del Laboratorio di Microsistemi Integrati presso l’Università di Pavia, dove ha lavorato a circuiti “mixed signal high speed high resolution”. Dal 2004 l’attività di ricerca si è concentrata su interfacce per sensori. Dal 2007 lavora all’interno del Laboratorio di Sensori e Microsistemi come Ricercatore e Consulente Senior per il design su interfacce di lettura per sensori, convertitori A/D e convertitori DC/DC di potenza. Marco Grassi è inoltre dal 2012 Consulente Senior per il design per Sparkling IC, Tustin, California. Piero Malcovati ha conseguito la Laurea Magistrale in Ingegneria Elettronica nel 1991 presso l’Università di Pavia. Nel 1992 è entrato a far parte del Laboratorio di Fisica Elettronica presso il Federal Institute of Technology, Zurigo, Svizzera in qualità di Dottorando di Ricerca. Ha conseguito il Dottorato di Ricerca nel 1996 presso lo stesso Istituto. Dal 1996 al 2001 ha rivestito il ruolo di Ricercatore presso l’Università di Pavia. Dal 2003 è Professore Associato presso la stessa Università. La sua attività di ricerca si concentra su circuiti d’interfaccia per sensori e convertitori a elevate prestazioni. È un membro del Comitato Tecnico di Programma per numerose conferenze tra le quali ISSCC e ESSCIRC. È inoltre Senior Member di IEEE. Andrea Fornasari, Ph. D., è un membro dello Staff Tecnico presso Texas Instruments all’interno della Sensor Signal Path BU. È stato Design Lead sia per la prima sia per la seconda generazione di sensori digitali di temperatura e umidità di Texas Instruments. Le principali aree d’interesse riguardano tecniche di design di precisione per amplificatori operazionali (in particolare tecniche di correzione dinamiche dell’offset), ma anche convertitori analogico-digitali, applicazioni a bassa potenza e sensori. È autore e co-autore di più di 20 articoli per conferenze internazionali e riviste tecniche.

Abbonarsi ORA per 2 anni a TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

CONVIENE!!! 70 euro (anziché 80) L’abbonamento biennale Vi offre 8 numeri cartacei + 8 sfogliabili + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, tel. al n° 011/0266700 o inviare una e-mail a: metrologia@affidabilita.eu


GLI ALTRI TEMI

s

MISURE PER L’AMBIENTE E IL COSTRUITO Federico van der Velden

Impianti di riscaldamento, ventilazione e condizionamento dell’aria (HVAC) Acquisizione delle variabili per la regolazione automatica

HEATING, VENTILATION AND CONDITIONING PLANTS: ACQUISITION OF VARIABLES FOR THE AUTOMATIC REGULATION The energy demand in HVAC (Heating, Ventilating and Air Conditioning), lighting and water heating facilities represents the 26% of the total energy required. Building automation control systems can operate to guarantee the comfort conditions inside the buildings, where sensors play a fundamental role. Data acquisition from sensors must be efficient to improve smart architectures in control systems design and easy configuration in control process programming software. RIASSUNTO I consumi per climatizzazione, produzione d’acqua calda e illuminazione degli edifici rappresentano circa il 26% del fabbisogno energetico. La regolazione automatica degli impianti di riscaldamento e condizionamento d’aria è fondamentale per ottimizzare i consumi e garantire le condizioni di comfort richieste. Da una sintesi delle tecnologie di misura e controllo negli edifici, offriamo alcuni spunti per soluzioni che semplifichino le architetture dei sistemi di prossima generazione. CONSIDERAZIONI ENERGETICHE RELATIVE ALLA CLIMATIZZAZIONE DEGLI EDIFICI

L’energia consumata dagli edifici civili e commerciali rappresenta circa il 40% del fabbisogno energetico globale; il 65% di tale quota è costituito dai fabbisogni per climatizzazione, produzione d’acqua calda e illuminazione, e rappresenta il 26% dei consumi globali. Gli interventi di ristrutturazione edile e il rifacimento degli impianti tecnologici costituiscono una valida soluzione al problema, ma possono comportare costi considerevoli, ammortizzabili in tempi eccessivi. Un metodo efficace e rapido per ridurre i consumi è costituito dall’impiego di sistemi di regolazione automatica, programmati per garantire condizioni di comfort ottimali attraverso la regolazione e la programmazione oraria dei parametri di benessere ambientale richiesti. Lo scambio termico tra l’ambiente interno agli edifici e l’aria esterna aumenta in proporzione alla differenza di temperatura: con temperatura media ester-

MISURA DELLE VARIABILI FISICHE CONTROLLATE

La misura dei parametri climatici e di controllo costituisce il primo livello dei processi di regolazione per garantire il benessere climatico e ottimizzare i consumi d’energia. Nei sistemi per building automation si misurano prevalentemente temperatura, umidità relativa, pressione e velocità dell’aria; la pressione differenziale permette di valutare l’ostruzione dei filtri per l’aria e regolare i livelli di depressione o sovrappressione nei canali di condizionamento o negli ambienti soggetti a prescrizioni igienico-sanitarie (p. es. gli ambienti considerati “inquinanti” devono essere in costante depressione rispetto agli ambienti confinanti). Nei circuiti idraulici di riscaldamento e raffreddamento si misurano temperature, pressioni e portate dei fluidi, mentre nelle macchine che realizzano cicli a pompa di calore si rilevano temperature e pressioni relative alle fasi di espansione e compressione dei gas refrigeranti. La velocità dell’aria nei canali per condizionamento si misura con sonde di pressione differenziale, collegate a tubi di Pitot o griglie di Wilson; in alternativa esistono sonde basate sul principio fisico di misura dissipativo massico termico, descritto in sintesi nel paragrafo dedicato ai misuratori di portata. La norma UNI 10339 stabilisce i criteri di benessere ambientale, anche in funzione della qualità dell’aria: pertanto è necessario adottare sistemi che ottimizzino la filtrazione e i ricambi d’aria, regolando i sistemi di ventilazione a portata variabile in funzione dei contenuti di particelle e anidride carbonica rilevati negli ambienti.

na invernale di 7 °C, l’incremento di 1 °C rispetto ai 20 °C di temperatura interna determina aumenti del 7% circa dei consumi d’energia per riscaldamento, mentre l’aumento di 1 °C del valore di temperatura ambiente, in condizioni di temperatura esterna media invernale di 10 °C, determina incrementi dei consumi del 10% circa. Percentualmente, le variazioni dei consumi in funzione della temperatura interna, riferite al fabbisogno termico ottimale con 20 °C in ambiente, aumentano al crescere della temperatura esterna. In estate la differenza di temperatura tra ambiente climatizzato e aria esterna è notevolmente inferiore (Ta = 24 °C e Te = 25 °C a fronte di Ta = 20 °C e Te = 7 °C), inoltre il raffreddamento può richiedere ulteriori apporti energetici per de-umidificare l’aria, quindi la regolazione accurata dei parametri microclimatici ambientali non deve eccedere nella riduzione dei valori di temperatura e umidità. Nei processi di climatizzazione il rilevamento dei dati microclimatici ambientali e dei dati climatici Advice SST srls a socio unico esterni costituisce un elemento fonda- Soluzioni, sistemi e tecnologie mentale per ottimizzare le regolazioni. fevdvelden@gmail.com

T_M

N.

2/16 ƒ 103



N. 02ƒ ;2016

quenza dei valori misurati comporta i seguenti vantaggi: – quasi totale eliminazione della posa dei cavi e opere elettriche accessorie; – riduzione o totale eliminazione degli ingressi analogici nei sistemi di controllo; – semplificazione delle procedure di configurazione per l’acquisizione dei valori analogici; – razionalizzazione delle procedure di taratura periodica dei sensori. Trasformando il processo di trasmissione di segnali analogici in trasmissione di valori digitali, viene meno la necessità di condizionare i segnali elettrici mediante dispositivi soggetti a taratura, come i convertitori A/D degli ingressi analogici integrati nei moduli d’acquisizione o nelle unità di regolazione. MONITORAGGIO ENERGETICO

L’implementazione dei sistemi di controllo destinati a singoli edifici o grandi complessi edili è principalmente mirata al risparmio energetico: pertanto è necessario individuare soluzioni di regolazione adatte a ridurre le quote più rilevanti dei consumi in rapporto al fabbisogno energetico complessivo. Il fabbisogno energetico primario degli edifici adibiti a uso civile è limitato ai consumi d’energia elettrica per servizi e illuminazione (inclusi ventilazione, circolazione idraulica e raffreddamento per climatizzazione). Gli impianti di condizionamento d’aria possono necessitare di vapore per garantire i livelli d’umidità ambientale minimi ammissibili in condizioni invernali. Per valutare l’efficienza tecnica dei sistemi di trasformazione energetica è necessario determinare il rapporto tra l’energia prodotta e consumi d’energia primaria (gas metano, energia elettrica e altri combustibili). Le misure devono essere registrate per ogni generatore o gruppi suddivisi per funzioni specifiche: produzione di vapore, acqua calda e acqua refrigerata. Nei sistemi di cogenerazione si misurano i consumi d’energia primaria, la produzione d’energia elettrica e i recuperi termici al netto delle dispersioni. I dati di produzione elettrica utile dei gruppi di cogenerazione e i dati di con-

s

Se il fabbisogno energetico per l’illuminazione rappresenta una quota significativa dei consumi, è possibile gestire il livello di luminosità, rilevabile mediante sensori dedicati, oppure misurare l’irraggiamento solare e termico negli ambienti per regolare eventuali sistemi di schermatura dell’irraggiamento solare. I sensori per rilevare la concentrazione d’anidride carbonica nell’aria devono operare in campi di misura compresi tra 250 e 5.000 ppm, (5.000 ppm è il valore di limite massimo ammissibile per tempi d’esposizione in continuo delle persone fino a 8 h). Normalmente si adottano sensori opto-elettronici a radiazione infrarossa non dispersa (NDIR), aventi accuratezze dell’ordine di ± 60 ppm + 3% del valore misurato. La misura delle polveri nell’aria si basa su tecnologie opto-elettroniche: diodo trasmettitore e foto-transistor disposti diagonalmente per consentire il rilevamento della luce riflessa dalle polveri nell’aria. Si tratta di soluzioni adatte al controllo della filtrazione dell’aria, in grado di rilevare particolati molto sottili, come il fumo di sigaretta, adatte a misurare contenuti di polveri da 0 a 500 μg/m³ con risoluzione di 1 μg/m³. Esistono anche sistemi dotati di sensori per il controllo dei processi di raccolta delle acque meteoriche e per gestire l’irrigazione delle aree verdi, riducendo i consumi d’acqua potabile e l’impatto idrogeologico. La misurazione della velocità e della pressione dell’aria esterna può essere utilizzata per regolare e ottimizzare i ricambi naturali d’aria, anche mediante sistemi di ventilazione azionati dell’energia eolica. Per uniformare i segnali analogici e renderne più affidabile la trasmissione, i sensori sono frequentemente integrati in circuiti elettronici che generano segnali elettrici, modulati in corrente (in genere 0-20 o 4-20 mA) o tensione (0-5, 1-5, 0-10, 2-10 V) in proporzione ai valori delle grandezze misurate. L’esigenza di sonde combinate per misurare più variabili ha reso necessaria la realizzazione di sensori integrati con sistemi di conversione A/D e schede per la trasmissione dei dati convertiti in formato digitale. La trasmissione via bus o in radiofre-

GLI ALTRI TEMI

sumo dei sistemi di servizio ausiliari devono essere rilevati da contatori certificati, mentre i valori relativi alla produzione elettrica lorda, fornita ai morsetti dell’alternatore, possono essere acquisiti dai sistemi di misura integrati nella strumentazione a bordo macchina, previa documentazione del costruttore che attesti il grado di precisione del complesso di misura installato. Riguardo ai consumi elettrici, le nuove tecnologie digitali e i sistemi di misura estremamente compatti permettono di realizzare gli interruttori di protezione delle linee principali in media o bassa tensione integrandovi sistemi per gestire gli interventi in caso di guasto e per misurare costantemente la potenza e le principali variabili elettriche d’esercizio. I sistemi di misura d’energia termica (in forma di caldo o freddo) sono talvolta difficili da installare a fronte di soluzioni progettuali mirate a ridurre i costi di realizzazione delle reti idrauliche. Ove le reti di distribuzione del riscaldamento non siano predisposte per installare contatori d’energia termica al servizio di singole utenze, sono tollerate soluzioni alternative per stimare i consumi in base alle temperature e alle specifiche termo-tecniche dei corpi scaldanti. La stima non è possibile se le utenze sono riscaldate mediante sistemi termo-ventilanti o dispositivi aventi specifiche di scambio termico vincolate a parametri difficilmente quantificabili. I sistemi di misura dell’energia termica sono composti da misuratori di portata volumetrica, sonde di temperatura e unità di calcolo a microprocessore flow-computer. Le sonde di temperatura sono selezionate in fabbrica per essere fornite a coppie unitamente ai sistemi di misurazione, al fine di garantire il minimo errore di misura della differenza tra la temperatura del fluido termo-vettore in entrata e in uscita dai sistemi di produzione o dai circuiti d’utenza; le termo-resistenze al platino (PT 100) sono sufficientemente precise, affidabili e stabili nel tempo per realizzare tale obiettivo. Il flow-computer calcola il salto termico, la densità e le entalpie del fluido termo-vettore in funzione delle temperature; infine determina l’energia e la potenza termica consumata o generata

T_M ƒ 105


nel circuito in cui transita il fluido. I misuratori di portata costituiscono l’anello più critico del complesso per misurare l’energia termica. Dopo la metà degli anni ’90 si è potuto assistere alla diffusione di misuratori statici, basati su tecnologie di tipo elettromagnetico, a ultrasuoni, a vortici e massici termici; rispetto ai tradizionali contatori a turbina, i sistemi statici non sono soggetti a usura e non hanno inerzia meccanica. In termini di rapporto costi/prestazioni, i sistemi più diffusi sono del tipo a ultrasuoni (a tempo di transito) e a induzione elettromagnetica (basati sul principio fisico d’induzione della forza elettromotrice in un conduttore in moto attraverso un flusso magnetico ortogonale, avente intensità costante o variabile). I misuratori elettromagnetici sono adatti a fluidi caratterizzati da conducibilità elettrica superiore a 1 μS/cm. Sono precisi e affidabili ma soggetti a depositi calcareo-ferrosi all’interno del tronco di transito, che potrebbero creare circuiti parassiti tra gli elettrodi di misura e comprometterne la precisione. I sistemi “vortex” sono impiegati per rilevare portate di vapore e gas, mentre i sistemi massici termici si adottano per misurare portate di fluidi con capacità termica specifica nota, come il gas metano (consentono anche di rilevare se il gas è miscelato con aria). I misuratori massici termici non sono soggetti alle restrittive specifiche d’installazione dei sistemi vortex che devono essere posizionati a circa 40 diametri a valle e 20 diametri a monte di eventuali elementi perturbanti, a meno di adottare sistemi idonei per convogliare il flusso misurato. Il principio di misura dei sistemi vortex consiste nel conteggio dei vortici generati da un corpo smussato che perturba il flusso laminare del fluido di cui si desideri misurare la portata volumetrica. Un elemento sensibile avverte il passaggio dei vortici e determina la portata, direttamente proporzionale alla frequenza di generazione dei vortici e alla sezione di passaggio. Il principio di misura massico-termico è basato sulla proprietà di un fluido in movimento di sottrarre il calore prodotto in un corpo riscaldato; la differenza tra la temperatura del corpo riscaldato e la temperatura del fluido, il cui calore

T_M ƒ 106

N. 02ƒ ; 2016

s

GLI ALTRI TEMI

specifico deve essere noto, è proporzionale alla quantità di calore sottratto, ovvero alla massa di fluido entrata in contatto con il corpo scaldato. In base alla sezione di passaggio del tronco di misura si determina la quantità di fluido passante per unità di tempo (kg/s). In tutti i casi i calcoli sono svolti dal flowcomputer e dal microprocessore integrato nel sistema di misura. Gran parte dei modelli di flow-computer dispongono di porta di comunicazione per bus seriale, generalmente M-bus o Modbus; eventuali bus proprietari, caratterizzati da protocolli chiusi, possono costituire un vincolo all’integrazione dei sistemi. Un aspetto importante relativo ai misuratori d’energia riguarda l’accreditamento MID, che “regola gli strumenti di misura utilizzati per scopi commerciali e con usi metrico-legali”; gli strumenti accreditati sono soggetti a “regole tecniche certe e condivise”. Se è richiesta l’installazione di strumenti accreditati MID, è fondamentale adottare soluzioni interfacciabili tramite bus di comunicazione aperti che ne consentano una facile integrazione. I sistemi di misura complessi o dedicati a unità di controllo e regolazione automatica di macchine, sono frequentemente dotati di porte di comunicazione per trasmettere su bus (Modbus, Profibus-DP, ecc.) i parametri acquisiti. Per sistemi di controllo critici o deterministici è possibile adottare reti bus del tipo etherCAT, particolarmente efficienti, e CANbus. Se i sistemi non sono caratterizzati da tempi di reazione troppo rapidi e i controlli non presentano criticità, sono sufficienti connessioni tramite le tradizionali reti ethernet (802.3) dedicate ai sistemi informativi presenti nelle strutture gestite; l’occupazione di banda per lo scambio dei dati tra sistemi di controllo per building automation è piuttosto limitata. VERSO LA SEMPLIFICAZIONE ATTRAVERSO LE TECNOLOGIE INNOVATIVE

Il miglioramento dei processi di regolazione è vincolato alle misure per ottimizzare i controlli di singole zone climatizzate, ma l’incremento dei punti

controllati richiede ulteriori progressi tecnici per “integrare” i dispositivi di misura in microsistemi che elaborino autonomamente le sintesi dei dati acquisiti. La tecnologia digitale ha reso disponibili processori in grado di gestire l’intera catena di trattamento del segnale, dall’acquisizione dei valori correlati alle grandezze fisiche misurate, alla conversione analogico-digitale, con elaborazione numerica, calcolo del valore medio, visualizzazione locale su display alfanumerico e invio dei dati su rete bus o in radiofrequenza, mediante protocolli di comunicazione aperti. L’apertura dei protocolli non può limitarsi ai mezzi fisici di trasmissione e ai processi di scambio delle informazioni in rete: deve includere criteri univoci ed essenziali di conversione e codifica delle variabili trasmesse, affinché sia realmente possibile integrare sistemi di marche differenti, senza difficoltà. Un ulteriore livello di sviluppo potrebbe consistere nell’implementazione di logiche di regolazione dei parametri microclimatici locali, con conseguente ottimizzazione delle strategie di controllo residenti nei sistemi di regolazione primari, destinati alle unità centrali di trattamento d’aria e ai sistemi di produzione termica e frigorifera. L’impiego di sensori “intelligenti”, unito allo sviluppo delle reti interne in fibra ottica, rame, wireless e ibride, rappresenta la soluzione per trasformare i sistemi di controllo non solo in termini d’acquisizione delle informazioni, ma anche in termini d’architettura generale dei sistemi.

Federico van der Velden, laureato in Ingegneria Meccanica all’Università degli Studi di Brescia, ha intrapreso attività di consulenza dopo un’esperienza pluriennale nell’ambito dell’Ingegneria dei sistemi di controllo, ottimizzazione, simulazione, monitoraggio d’energia e gestione della manutenzione d’impianti HVAC e cogenerazione, presso una primaria azienda di gestione dell’energia al servizio di strutture ospedaliere.


GLI ALTRI TEMI

s

LA MISURA DEL COLORE P. Fiorentin 1, O. Da Pos 2

La similarità assoluta dei colori come base di un sistema di colori naturale Un primo approccio al problema

THE ABSOLUTE COLOR SIMILARITY AS A BASIS OF A NATURAL COLOR SYSTEM 48 color samples of different hue, blackness, and chromaticity were placed in a viewing booth lit by the Illuminant A and by a LED at 6,500 K. The task of the participants to this investigation was to evaluate their similarity to the appropriate unique colors. All colors were subjectively characterized by four values, independently obtained, two related to their chromaticity, plus White and Black. The method could be used for a new evaluation of the color rendering of light. RIASSUNTO 48 campioni di colore di diversa tinta, nero, e cromaticità sono stati posti in una cabina di visione e illuminati dall’Illuminante A e da un LED a 6.500 K. Il compito dei partecipanti a questa indagine era di valutare la loro somiglianza ai colori unici appropriati. Tutti i colori sono stati soggettivamente caratterizzati da quattro valori, ottenuti in modo indipendente, due legati alla cromaticità più bianco e nero. Il metodo può essere utilizzato per una nuova valutazione della resa cromatica di una luce. LA RESA DEL COLORE

Il colore di un oggetto non autoluminoso non è una sua caratteristica, bensì una caratteristica della luce da esso riflessa: dipende certamente dalla capacità delle sue superfici di riflettere la luce, ma anche dalla luce che incide su esso. Gli stessi oggetti, illuminati da luci diverse, possono apparire diversi. La Commission International d’Éclairage (CIE) definisce come “resa cromatica” l’effetto che una sorgente ha sull’apparenza degli oggetti rispetto al loro aspetto se sottoposti a una sorgente di riferimento (“Method of measuring and specifying color rendering properties of light sources” CIE publ. 13.2.1974). Un parametro che descriva la “resa del colore” deve permettere di capire se due sorgenti sono equivalenti o meno da un punto di vista dell’effetto che hanno sull’apparenza degli oggetti illuminati. Inoltre, se gli oggetti appaiono di colore diverso, si vuole quantificare questa diversità. Esiste un indice di resa del colore (CRI) definito

dalla CIE, che quantifica la resa del colore di una sorgente sotto analisi confrontandola con una sorgente di riferimento che ha una luce che è percepita di uguale colore [1]. Per la sua stessa definizione, tale indice non permette di confrontare la resa del colore di sorgenti luminose di colore diverso. Le caratteristiche delle nuove sorgenti luminose, in particolare quelle basate sui LED, non sono descritte nel migliore dei modi dal CRI, che necessita quindi di essere aggiornato. Inoltre la definizione del CRI sembra più legata alla strumentazione normalmente utilizzata e a meccanicismi, piuttosto che alla percezione visiva. Sono possibili altri approcci al problema della resa del colore: particolarmente interessanti sono quelli basati sull’analisi dell’apparenza dei colori rispetto a categorie che sono strutture di base della percezione umana del colore [2]. Una proprietà peculiare di questi metodi è di permettere di qualificare una sorgente luminosa sotto analisi in termini assoluti, e non necessariamente rispetto a una sor-

T_M

gente di riferimento che presenti una luce dello stesso colore. Il metodo proposto dagli autori si basa sul concetto dei colori unici e sulle variazioni dei colori degli oggetti, rispetto a questi riferimenti mentali, indotte da una variazione d’illuminazione, ovvero passando da una sorgente luminosa a un’altra. I COLORI UNICI

È conveniente riassumere di seguito le definizioni e le proprietà dei colori unici: sono sei colori che assomigliano solamente a essi stessi [3, 4]. Quattro di essi sono cromatici e sono un rosso che assomiglia solo al rosso, né al blu, né al giallo; un giallo che assomiglia solo al giallo, né al rosso, né al verde; un verde che assomiglia solo al verde, né al giallo, né al blu; un blu che assomiglia solo al blu, né al verde, né al rosso. Inoltre questi quattro colori unici non assomigliano né al bianco, né al nero. Bianco e nero sono gli ultimi due colori unici, che non hanno alcuna cromaticità e quindi non assomigliano ai primi quattro; inoltre il bianco non assomiglia al nero e il nero non assomiglia al bianco. I colori unici sono gli stessi per tutti gli esseri umani che abbiano una visione normale dei colori. Poiché i colori unici sono la struttura di base della percezione dei colori e ogni colore appare simile, in modo diverso, a uno o al massimo due colo-

1

Dip. Ingegneria Industriale, Università di Padova pietro.fiorentin@unipd.it 2 Dip. Psicologia Generale, Università di Padova osvaldo.dapos@unipd.it

N.

2/16 ƒ 107


colore che si fonda sulla percezione visiva e non su scelte tecnologiche. La geometria di uno spazio che possa rappresentare qualsiasi colore sulla base dei colori unici è simile a quello rappresentato in Fig. 1. La scelta dei colori unici non richiede campioni teorici o materiali: infatti i riferimenti sono i colori unici nella nostra mente. Quando abbiamo trasferito il riferimento nella nostra mente, vi sono difficoltà nel realizzare misure strumentali, che invece sono richieste per ottenere una facile e veloce qualificazione di una luce. Il riferimento mentale può essere identificato in ogFigura 1 – Schizzo della geometrica getti che devono essere illuminati da di un possibile spazio colore basato una certa sorgente luminosa. Le funsui colori unici. Oltre ai colori unici è rappresentato un arancione sbiancato zioni coefficiente di riflessione degli oggetti selezionati e questa luce diri unici cromatici e al bianco e al ventano i riferimenti, ma la scelta nero, essi possono essere considerati della luce è completamente arbitraria sufficienti per descrivere uno spazio e non più legata alla cromaticità della

T_M ƒ 108

N. 02ƒ ; 2016

s

GLI ALTRI TEMI

sorgente luminosa che si vuole analizzare. Le luci normalmente utilizzate per l’illuminazione di ambienti sono normalmente “bianche”, e solitamente contengono potenza a ogni lunghezza d’onda nell’intervallo visibile. È conveniente che anche la sorgente di riferimento abbia tali proprietà per non rischiare di avere sempre grosse variazioni dell’apparenza dei campioni sotto la luce di riferimento e sotto le sorgenti da analizzare. L’ESPERIMENTO VISIVO

Lo scopo dell’attività descritta è dimostrare che è possibile ottenere misure indirette di differenze di colore chiedendo a osservatori di valutare soggettivamente i colori, e quindi estraendo le differenze di colore da questi dati soggettivi. La procedura è parti-


N. 02ƒ ;2016

s

colarmente utile quando la differenza deve essere misurata in contesti diversi o sotto diverse illuminazioni. La procedura adottata prevede un completo adattamento all’illuminazione selezionata sotto cui i colori sono osservati e valutati, riproducendo una condizione di visione naturale. L’insieme di colori utilizzati nell’esperimento comprendeva 48 colori tratti dai quattro quadranti del Sistema Naturale dei Colori (NCS) [5]: 4 tinte di ogni quadrante, 3 sfumature per ogni tinta, come mostrato in Tab. 1. Essi sono stati osservati in una cabina di visualizzazione con le pareti interne bianche (coefficiente di riflessione circa 80%) e un insieme di sorgenti luminose differenti poste nella parte superiore interna, non visibili dall’osservatore. Nell’esperimento sono state utilizzate due fonti luminose: un LED a 6.500 K e un’approssimazione dell’illuminante CIE A (2.856 K). Le distribuzioni di potenza in funzione della lunghezza d’onda sono visibili in Fig. 2. Le valutazioni soggettive dei colori sono state eseguite spostando una

GLI ALTRI TEMI

state eseguite in uno stato di completo adattamento alla sorgente luminosa prescelta, che era sempre la stessa per un’intera sessione. Sono state eseguite quindici valutazioni per ogni condizione, per un totale di 5.760 (48 colori test, 2 sorgenti luminose, 4 colori unici, 15 prove). COSA SI PUÒ OTTENERE

Le due sorgenti luminose sono state scelte con un colore della luce emessa decisamente diverso: la sorgente a incandescenza fornisce una luce più “calda” (si potrebbe dire più “gialla”), mentre la luce emessa dalla sorgente a LED è più “fredda” (o più “azzurra”). Per due luci così diverse è ragionevole attendersi che, pur considerando l’adattamento cromatico del nostro sistema visivo, i colori degli oggetti illuminati possano essere sensibilmente diversi. Analizzando le somiglianze con il Bianco (W) e il Nero (S), sotto le due sorgenti luminose, i risultati mostrano che il Bianco è valutato un po’ di più sotto l’Illuminante A. Il Nero invece riceve valutazioni più basse sotto la sorgente a LED a 6.500 K. Inoltre le somiglianze dei campioni con il Giallo (Y) e il Blu (B) non sono significativamente diverse sotto le due sorgenti, mentre le somiglianze con il Rosso (R) e il Verde (G) sono significativamente influenzate dalla sorgente luminosa: la somiglianza dei campioni al Rosso e ancora di più al Verde si riducono passando dalla sorgente a incandescenza alla sorgente a LED a 6.500 K. Volendo riassumere il risultato del confronto, le somiglianze con tutti i colori unici sono state sommate tra loro per ciascun campione analizzato. Il risultato è presentato in Fig. 3 nella quale si nota come un significativo numero di campioni appaiono diversi sotto le due illuminazioni. I risultati mostrano che è possibile valutare direttamente le somiglianze di colore ai sei colori unici, senza

Figura 2 – Distribuzioni spettrali di potenza delle due sorgenti luminose usate nell’esperimento

freccia scorrevole montata su un supporto: se questa è posta alla estrema sinistra indica nessuna somiglianza, mentre se posta all’estrema destra indica l’identità. Il movimento della freccia era continuo e non erano presenti altre indicazioni oltre che ai due estremi. Un righello nascosto con divisioni in millimetri era mascherato e visualizzato solo Tabella 1 – I 48 Colori usati nell’esperimento divisi in quatto gruppi quando il partecorrispondenti ai quattro quadranti del cerchio di colore NCS cipante aveva scelto la posizione della freccia. Per ogni gruppo di colori relativo a ciascuno dei quattro settori ogni osservatore ha dovuto valutare la somiglianza con quattro colori unici: il Bianco (W), il Nero (S) e i due colori cromatici estremi del quadrante. L’insieme dei campioni, il colore unico con il quale fare il confronto e la sorgente di luce erano scelti in modo casuale. Tutte le operazioni sono

T_M ƒ 109


N. 02ƒ ; 2016 seguire la procedura utilizzata per la costruzione dell’attuale NCS, che implica una somma sempre uguale a 100. Questo nuovo metodo può essere usato per valutare differenze tra i colori osservati sotto illuminazioni diverse con lo scopo di derivare una metrica per la valutazione della resa cromatica più vicina alla reale percezione.

Figura 3 – Somme di somiglianze con tutti i colori unici per i campioni osservati sia sotto l’approssimazione dell’Illuminante A sia sotto la sorgente a LED a 6.500 K

RIFERIMENTI BIBLIOGRAFICI

1. CIE 13.3-1995, “Method of measuring and specifying colour rendering properties of light sources”. 2. O. Da Pos, P. Fiorentin, A. Maistrello, E. Pedrotti, A. Scroccaro. “Analysis of new colorimetric parameters for the assessments of colour quality”. Proceedings of the CIE Lighting Quality & Energy Efficiency Conference, Wien, pp. 148-160, x035 – 2010. 3. A. Hård, “Philosophy of the Hering-Johansson Natural Color System”, Proceedings of the International Colour Meeting, Luzern 1, pp. 357-365 (1965); Die Farbe 15, p. 296 (1966). 4. E. E. Hering, “Outlines of a theory of the light sense” [Zur Lehre vom Lichtsinn]. Eng. tr. by L.M. Hurvich, D. Jameson, Harvard University Press, 1920/1964. 5. NCS – “Natural Color System” ©® Scandinavian Colour Institute AB, Stockholm, Sweden 2000.

Pietro Fiorentin è Professore Associato di Misure Elettriche ed Elettroniche presso la Facoltà d’Ingegneria dell’Università degli Studi di Padova. Si occupa di misure, fotometria, colorimetria e illuminotecnica. È attualmente Responsabile del Laboratorio di Fotometria dell’Università di Padova. Osvaldo Da Pos è Studioso Senior dell’Università di Padova, Dipartimento di Psicologia Generale, membro del corpo docente del Corso di Dottorato in Scienze Psicologiche. Si occupa di Psicologia del Colore, in particolare di vari effetti e illusioni di colore, nonché delle relazioni luce colore da un punto di vista psicologico.

T_M ƒ 110


s

MISURE PER L’INDUSTRIA

GLI ALTRI TEMI

Annarita Lazzari

L’ottimizzazione degli intervalli di taratura Un problema aperto di grande impatto economico

OPTIMIZATION OF CALIBRATION INTERVALS: AN OPEN PROBLEM OF GREAT ECONOMIC IMPACT Traceability of measurement results is, in theory, the main concern of Metrologists. Calibration and measurement uncertainty evaluation is required to demonstrate traceability. However calibration is only valid for the calibration interval. Since the measurement uncertainty partially depends on the calibration result, it is realistic only if the device does not change (does not evolve). Thus the question of the calibration intervals is a key issue of traceability, often neglected. This paper deals with this subject, illustrating three interesting optimization methods already encompassed in the French Std. FD X 07-014 of 2006. RIASSUNTO La riferibilità dei risultati di misura è, in teoria, la principale preoccupazione di un Metrologo. Taratura e valutazione dell’incertezza di misura consentono di dimostrare questa riferibilità. Tuttavia, la taratura è valida solo al momento dell’operazione medesima. Dato che l’incertezza di misura dipende in parte dai risultati di taratura, essa è realistica solo se il dispositivo non si modifica (non evolve). Così la questione relativa agli intervalli di taratura è una questione essenziale di riferibilità troppo spesso trascurata. Questo articolo si occupa di questo argomento, illustrando tre interessanti metodi per l’ottimizzazione già considerati nella norma francese FD X 07-014 del 2006. L’ANALISI DEL PROBLEMA

Sono essenzialmente due le domande cui è necessario dare risposta, affinché la Metrologia in azienda possa essere efficiente e soprattutto compresa: 1. Perché tarare? 2. Quando (o meglio ogni quanto) tarare? La risposta alla prima domanda può, in effetti, sembrare semplice: perché solo la taratura, dandoci la riferibilità al campione, ci dice quanto “giusta” (o “sbagliata”) sia la nostra misura e ci dà il mezzo per correggerla. Ci sono vari vincoli dettati dalla normativa e dalla regolamentazione vigente. Tutti ormai conosciamo la definizione di “Taratura” fornita dal Vocabolario Internazionale di Metrologia (CEI UNI 70099 – VIM 3 par. 2.39), che individua nella taratura l’“operazione eseguita in condizioni specificate” e propone due step: – una prima fase stabilisce una relazione tra i valori di una grandezza, con le rispettive incertezze di misura;

per l’azienda e non solo una mera voce di costo, percepita come sfortunatamente ineliminabile a causa della normativa vigente. In realtà proprio il modo in cui concepisce e utilizza una taratura distingue un Metrologo serio e competente da un Metrologo burocrate, ed è in tal modo che si fa evolvere la Metrologia verso una vera Metrologia, utile e intelligente, che costituisca un elemento di redditività e di competitività per l’azienda, la Smart Metrology. Oltre alla definizione del VIM da cui siamo partiti e alla riferibilità ai campioni nazionali che ne scaturisce, altro elemento importante che ci spinge a tarare è la catena di riferibilità, cioè la catena ininterrotta di confronti che dalla misura restituita dall’apparecchiatura per misurazione ci porta fino al campione nazionale e poi alla confrontabilità delle misure sulla base di un’unificazione Internazionale. Altro aspetto è poi quello che spesso la regolazione viene confusa con la taratura: una taratura non è una regolazione, o qualsiasi operazione su un sistema per misurazione, ma è soltanto un confronto con uno standard. I requisiti specificati per la verifica devono essere definiti dal Metrologo, ma la taratura al tempo t fornisce solo un’istantanea dello stato dell’apparecchiatura di misurazione in quel momento. Che cosa accade dopo? Le apparecchiature per misurazione derivano e quindi, per garantire la correttezza della misura, entro i limiti dell’incertezza dichiarata, è necessario ripetere la taratura, come peraltro suggerito dalla ISO 9001 e dalla ISO 10012. Siamo dunque spinti a tarare anche sulla base di ciò che ci viene detto dalla Norma ISO 9001 (§ 7.1.5

– una seconda fase usa queste informazioni per stabilire una relazione che consenta di ottenere un risultato di misura a partire da un’indicazione, e di conseguenza trova un legame tra l’indicazione di un’apparecchiatura per misurazione e l’incertezza di misura. Tale seconda fase, che in realtà è la più importante in quanto consente fattivamente di utilizzare il risultato del confronto con il campione per correggere la misura, è troppo spesso ignorata in ambito aziendale e, di solito, si ritiene che la taratura si esaurisca con il solo primo step. Lo step 1, in realtà, serve solo a ottenere il certificato di taratura da mostrare all’ispettore, ma il valore aggiunto della taratura (e quindi il suo ritorno economico) sarebbe del tutto nullo senza tutto il resto. In effetti, se la convinzione fosse quella d’interessarsi alla sola prima fase, anche il presente articolo non sarebbe di nessun aiuto. Infatti, in questo contesto l’intento è di Direttore Tecnico e Commerciale, capire come la Metrologia possa effet- DeltaMu Italia srl tivamente essere un beneficio tangibile alazzari@deltamu.com

T_M

N.

2/16 ƒ 111


N. 02ƒ ; 2016

s

NEWS

NUOVI ENCODER ROTATIVI E LINEARI Tra le novità che Renishaw ha presentato a SPS IPC DRIVES (24-26 Maggio, Parma Fiere) spicca senza dubbio ORBIS™, un encoder rotativo assoluto con foro centrale adatto a essere montato all’estremità di alberi rotanti, situazione nella quale i classici encoder ad albero assiale non riescono a essere montati a causa dei vincoli di spazio. L’encoder comprende un anello magnetizzato permanentemente e un circuito stampato. La disposizione geometrica di 8 sensori RLS sul PCB consentono la generazione di segnali seno/coseno per ogni rotazione meccanica del magnete. Orbis™ dispone di un algoritmo aggiuntivo di auto-taratura che migliora la precisione del sistema di misura dopo l’installazione e, grazie al suo principio di misurazione e all’utilizzo di schede diverse e magneti di diverse dimensioni, permette un alto grado di personalizzazione tale da soddisfare numerose applicazioni. Il nuovo Orbis™: Altra novità presentata è l’encoencoder rotativo assoluto der LA11, un sistema lineare magnetico assoluto progettato per applicazioni di controllo di velocità e posizione di elementi in movimento. Il sistema encoder è altamente ripetibile, grazie alla misurazione assoluta senza contatto, agli algoritmi di sicurezza e all’alta qualità dei materiali utilizzati, come l’acciaio inossidabile con uno strato di elasto-ferrite per la riga magnetica, entrambi immuni agli agenti chimici comunemente presenti nelle industrie. Il lettore include sensori Hall per la lettura della riga PRBS, un sensore AMR per la lettura della riga incrementale, elettronica di interpolazione e circuiti personalizzati. I dati sono elaborati nella MCU (Management Control Unit) interna, grazie a speciali algoritmi che

determinano la posizione assoluta. Sempre all’insegna dell’innovazione è Atom™, un encoder ottico, incrementale, senza contatto, lineare e angolare, che combina diIl sistema lineare magnetico assoluto LA11 mensioni ridottissime con massima affidabilità, stabilità e immunità alla contaminazione. Le prestazioni del nuovo encoder sono il frutto di un design che non lascia spazio a compromessi, come invece spesso avviene con gli encoder miniaturizzati. Atom™, le cui dimensioni arrivano a 6,7 x 12,7 x 20,5 mm, è il primo encoder in miniatura a utilizzare ottiche filtranti con controllo automatico del guadagno (AGC) e dell’offset (AOC). Altro elemento di rilievo è Resolute™, encoder assoluto lineare e rotativo (angolare) con interfaccia Siemens DRIVE-CLiQ, che consente di elevare il livello prestazionale, garantisce maggiore affidabilità e fornisce straordinarie performance di controllo del movimento. L’encoder ottico assoluto Resolute™ può essere utilizzato insieme all’interfaccia DRIVE-CLiQ, per consentire ai costruttori di produrre macchine utensili più affidabili e performanti. Questo dispositivo è in grado di determinare la posizione al momento stesso dell’accensione con grande vantaggio, ad esempio, per mandrini di torni ad alte prestazioni e motori rotativi a presa diretta che richiedano alta precisione e massima integrità nel controllo del movimento. Per maggiori informazioni: www.renishaw.it

SENSORI DI FORZA KISTLER: DA 0-100 N A 0-700 KN La tecnologia piezoelettrica consente di misurare con un unico sensore forze dell’ordine di Newton e forze di tonnellate. La forza applicata sull’elemento sensibile al cristallo di quarzo genera, all'uscita del sensore, una carica elettrica e proporzionale che viene convertita dall'amplificatore di carica. I sensori di forza Kistler possono essere associati a un amplificatore per avere una tensione o una corrente d’uscita proporzionale alla forza applicata. Essi possono essere anche utilizzati con pannelli di misura Kistler (serie maXYmos) che consentono l’acquisizione, elaborazione e rappresentazione grafica della forza di processi, quali test di prodotto, calettamenti, cianfrinature, ecc. La vita a fatica di un sensore piezoelettrico è lunghissima, di gran lunga superiore a quella dei normali sensori estensimetrici, grazie al fatto che la misura non dipende dalla deformazione. La tecnologia piezoelettrica è oggi largamente impiegata per misurare grandezze fisiche meccaniche (forza e coppia, pressione) in regime quasi statico, quando la misura si può protrarre per decine di secondi o minuti. L’elevatissima linearità dei sensori di forza piezoelettrici consente di misurare con un unico sensore forze inferiori all’1% del fondo scala del sensore, apprezzando un errore molto piccolo. Di pari passo gli amplificatori e i pannelli di forza Kistler sono in

T_M ƒ 112

grado di riscalare l’amplificazione, in modo da garantire sempre la massima risoluzione su forze grandi e piccole, permettendo così l’utilizzo di un unico sensore dove altre tecnologie ne richiederebbero tre o più. Ciò consente, nella stragrande maggioranza delle applicazioni, di ridurre il numero di sensori utilizzati e standardizzare un modello di cella di carico per vari range. Inoltre la vita a fatica, “virtualmente infinita”, permette una riduzione drastica, fino al totale azzeramento, dei pezzi di ricambio, il cui mercato è praticamente nullo. Cionondimeno, le flange di accoppiamento assicurano la praticità per un uso immediato. Le celle di carico sono disponibili in varie taglie, divise in vari range di misurazione: Compressione delle forze da 0-100 N a 0-700 kN – Ogni sensore offre un range di misurazione estremamente ampio – Certificato di calibrazione per 3 range di misurazione: 100%, 10% e 1% – È opzionale la taratura ISO 15075 – Adattabilità meccanica con flange su entrambe le estremità – Facilmente montabile in tiranti o sistemi di piantaggio o spinta – Fattore della sicurezza contro il sovraccarico fino a 100, quando vengono utilizzati i range più bassi. Per ulteriori informazioni: www.kistler.com


N. 02ƒ ;2016 vers. 2015), che c’informa di due aspetti fondamentali: 1. la taratura è necessaria, ma non viene imposta alcuna periodicità; 2. non tutto dev’essere tarato. Solo in ambito di Metrologia Legale o per certi prodotti del settore aereonautico c’è una periodicità imposta per la taratura che deve essere obbligatoriamente rispettata. Infine la ISO 10012 (§ 7.1 § 7.1.1 e segg.) afferma che l’ottimizzazione degli intervalli di taratura è parte del processo di conferma metrologica. La norma specifica che devono essere presi in considerazione i requisiti metrologici del processo di misurazione, vale a dire: – necessità di conoscere il processo di misurazione (altrimenti non è non possibile l’ottimizzazione); – frequenza modulata secondo una storia di tarature precedenti. Si arriva così alla seconda delle due domande da cui siamo partiti: quanto frequentemente va ripetuta una taratura? Nessuna norma prescrive un intervallo fisso e precostituito. Anzi, la ISO 10012 sottolinea chiaramente che l’ottimizzazione degli intervalli di taratura è parte del processo di conferma metrologica, ed è quindi una delle funzioni che il servizio metrologia dell’azienda deve svolgere. Il problema è sulla base di quali parametri/considerazioni si arrivi a definire gli intervalli ottimi di taratura. L’ottimizzazione delle frequenze di taratura è anche un collegamento diretto all’ottimizzazione della funzione di Metrologia in azienda. Quest’articolo si occupa d’illustrare brevemente alcuni possibili metodi. Esistono in realtà vari suggerimenti, Norme e linee guida. Una delle più note e seguite è la Guida internazionale ILAC-G24/OIML D 10 (2007) (E) che tuttavia, come noto, offre soluzioni piuttosto generiche e pone forse più problemi di quelli che vorrebbe risolvere. In questo articolo prendiamo invece in considerazione tre metodi sviluppati prevalentemente in Francia, due dei quali ideati, applicati e diffusi da DeltaMu, con ottimi risultati in ambito aziendale. Sono tre metodi estremamente pratici, con un fondamento scientifico solido, interessanti di per sé stessi e riconosciuti utili da numerose aziende francesi, tanto che AFNOR li ha normati e li ha inseriti nella FD X 07-014 del 2006. Sono tre metodi concreti di ottimizzazione (il terzo dei quali è presentato nell’appendice dello standard medesimo) ed è quindi auspicabile che vengano impiegati anche in Italia, non essendoci, infatti, attualmente, nulla che prescriva come arrivare alla definizione dell’intervallo di taratura ottimo.

s

GLI ALTRI TEMI

misurazione. La prima fase di questo metodo consiste nel modellare la deriva osservata per ogni apparecchiatura con il metodo dei minimi quadrati. Tuttavia, la deriva di un’apparecchiatura per misurazione può cambiare bruscamente durante la produzione. Ad esempio si potrebbe non dover usare più l’apparecchiatura per un certo periodo, oppure avere un incremento o una diminuzione della produzione che può portare a un uso più o meno intensivo dell’apparecchiatura stessa. Una linearizzazione non terrebbe necessariamente conto di tali variazioni. Di conseguenza, in una seconda fase si decide di prendere in considerazione un’intera famiglia di derive provenienti da apparecchiature per misurazione simili fra loro. In tal modo tutte le apparecchiature per misurazione di una stessa famiglia vengono raggruppate per determinare (statisticamente) la deriva massima della famiglia medesima. Molto qualitativamente la situazione può essere illustrata come in Fig. 1. L’idea è che un’apparecchiatura per misurazione abbia un limite d’usura oltre il quale è fuori requisito. In corrispondenza di questo limite si traccia una retta, che rappresenta dunque la linea decisionale. Riportando sulle ascisse il tempo, cioè la data di taratura su un determinato periodo di osservazione (nell’esempio riportato nella Norma il periodo di osservazione copre 6 anni, ma potrebbe ridursi a un periodo più breve) e sulle ordinate i valori misurati, si trova che il risultato della misura decresce nel tempo secondo un andamento approssimativamente rettilineo perché si è ipotizzato, appunto, che l’apparecchiatura per misurazione si usuri come nel caso tipico di apparecchiature meccaniche. La pendenza α di tale retta rappresenterà, pertanto, la deriva dell’apparecchiatura considerata. In realtà, però, occorre qui notare che l’usura, e quindi la deriva, dipende anche dall’uso che viene fatto dell’apparecchiatura medesima, e cioè (come specificato sopra) si può riscontrare inizialmente una piccola deriva perché l’apparecchiatura non viene molto usata, mentre in un secondo momento può accadere che cambino le condizioni produttive, che s’inizi a fare un uso maggiore dell’apparecchiatura e che quindi si riscontri un decadimento più veloce. Si prende in considerazione allora la deriva di una fami-

IL METODO DELLA DERIVA

Il primo metodo è un metodo basato sulla deriva dell’apparecchiatura per

Figura 1 – Calcolo teorico della data della prossima taratura

T_M ƒ 113


glia di apparecchiature simili. Dopo di che, sulla scorta del Teorema del Limite Centrale, si considera la deriva (pendenza) massima calcolandola statisticamente, considerando cioè la distribuzione delle derive delle apparecchiature della stessa famiglia e valutandone la media (αmedia) e la deviazione standard (sα): αmax = αmedia ± 2sα Questa deriva massima rappresenta in azienda il caso peggiore dell’usura dell’apparecchiatura per misurazione considerata. S’identifica allora con αmax la pendenza massima e questa costituirà la deriva massima; poi si usa questo valore per identificare la successiva data di taratura mediante la seguente formula:

Quindi la frequenza di taratura (periodicità, nella Norma) di ogni apparecchiatura per misurazione può essere calcolata in base al suo ultimo valore di taratura e alla pendenza di deriva massima della sua famiglia di appartenenza. Naturalmente poi il tutto dovrà essere convertito in anni o in mesi. Tuttavia, poiché quella che stiamo considerando è una deriva massima statistica, ci possono essere apparecchiature con deriva maggiore e quindi si procede all’aggiunta di un fattore di sicurezza pari all’80% (o al 50%) che consente di anticipare un po’ la data della prossima taratura calcolata: Questo metodo fornisce una visione fisica e realistica della deriva delle apparecchiature in azienda e fornisce molte informazioni sul proprio processo di misura, consentendo di reagire all’eventuale problema prima ancora che questo si verifichi. Se, ad esempio, si notasse che un’apparecchiatura per misurazione presenta una deriva massima molto più elevata di quella calcolata, significherebbe che qualcosa è cambiato (ad esempio nel processo produttivo in cui l’apparecchiatura medesima viene utilizzata) e sarebbe dunque il caso d’indagare. È un metodo semplice, basato sul buon senso e addirittura pedagogico, in quanto spinge il Metrologo a capire cosa effettivamente stia succedendo nel proprio processo produttivo e di misura e ad analizzare i risultati stessi della taratura. Se, ad esempio, l’apparecchiatura per misurazione è molto obsoleta e usurata, la taratura successiva sarà molto ravvicinata, e questo può spingere a valutare se convenga sostituirla o, invece, procedere a successive tarature, ecc. Tuttavia, in generale, questo metodo è particolarmente adatto ad apparecchiature per misurazione soggette a usura meccanica o deriva nel tempo, e di conseguenza presenta lo svantaggio di funzionare molto bene solo con i tipi di campioni materiali: anelli, tamponi, blocchetti pianparalleli, ecc. Inoltre è un metodo che discende dall’analisi statistica di differenti apparecchiature per misurazione, e dunque occorre valutarne un certo numero prima di avere una buona base statistica perché il metodo funzioni, almeno 10.

T_M ƒ 114

N. 02ƒ ; 2016

s

GLI ALTRI TEMI

METODO DEL RAPPORTO PER IL CALCOLO DELLA PERIODICITÀ

Il secondo metodo consiste nel determinare l’intervallo di taratura di un’apparecchiatura per misurazione secondo la parte che essa rappresenta nell’incertezza di misura del processo in cui opera. Più il contributo dell’apparecchiatura nel processo di misurazione è basso, meno la periodicità può essere importante e viceversa. Questo metodo nasce dalla considerazione che la dichiarazione di conformità della produzione comporta l’analisi dell’incertezza di tutto il processo di misura, e non solo quindi la valutazione della conformità dell’apparecchiatura per misurazione durante la taratura. L’apparecchiatura per misurazione viene usata nel processo di misura e, come sappiamo, nel processo di misura sono essenzialmente 5 le cause che ne determinano l’incertezza: (i) ambiente, (ii) operatore, (iii) apparecchiatura per misurazione, (iv) metodo e (v) campione. S’identifica quindi il peso che assume l’incertezza introdotta dall’apparecchiatura per misurazione su tutto il processo. Ciò viene espresso attraverso l’Rper, cioè il rapporto per la valutazione della periodicità, espresso dalla seguente formula:

La somma quadratica delle incertezze a denominatore è (con le dovute approssimazioni) l’incertezza combinata (al quadrato) del processo di misura. Più il contributo dell’apparecchiatura di misurazione è basso (Rper prossimo a 0), meno la periodicità è importante: infatti, anche se lo strumento derivasse un po’, non avrebbe troppa influenza nel processo di misura, e quindi si potrebbe tollerare una periodicità più alta; viceversa per Rper vicino a 100. Questo consente di percepire il peso dell’apparecchiatura per misurazione nel processo di misura. Sperimentalmente è stata determinata una relazione fra la periodicità e Rper. La Fig. 2 mostra l’evoluzione dell’incertezza totale del processo di misura in funzione dell’evoluzione dell’errore dell’apparecchiatura. L’asse delle ordinate mostra l’evoluzione del Rapporto di Periodicità, espresso in %. Il grafico indica che al di sotto del 50% del rapporto di periodicità l’impatto delle apparecchiature è basso. Inoltre, qualsiasi deriva dell’apparecchiatura proFigura 2 – Rappresentazione dell’evoluzione voca una deridell’incertezza totale va dello stes-


N. 02ƒ ;2016

s

so ordine per il processo di misura. Idealmente, la frequenza di taratura (periodicità) può essere impostata a un valore elevato se il rapporto di periodicità è pari a zero, mentre dovrebbe essere posta uguale a zero (taratura permanente) se il rapporto di periodicità è pari al 100%:

GLI ALTRI TEMI

to solo ad apparecchiature per misurazione per cui sia stata valutata l’incertezza di misura e questa dovrà dunque essere valutata in azienda. METODO OPPERET

Da questo punto di vista è possibile la modellazione della periodicità con il metodo dei minimi quadrati in funzione del valore del rapporto di periodicità. La Norma preferisce un modello basato su una funzione “esponenziale non crescente” caratteristica di fenomeni fisici a deriva temporale. Nella Fig. 3, è mostrato un esempio di modellazione stabilito in base alle seguenti impostazioni:

La frequenza di taratura dovrebbe essere determinata per ogni processo che coinvolge l’apparecchiatura per misurazione in esame, il suo peso può essere diverso in ogni situazione. In tal caso si seleziona la minore periodicità risultante. Questo metodo presenta vari vantaggi: 1. propone un collegamento matematico fra Rper e Periodicità e questo collegamento può essere ottimizzato per i diversi settori industriali; 2. è adattato a qualsiasi apparecchiatura per misurazione; 3. spinge non solo a valutare l’incertezza di misura (come richiesto da normative e regolamentazioni vigenti), ma anche ad analizzarla, a metterla in relazione con l’incertezza globale del processo di misura e a utilizzarla per arrivare a prendere decisioni ottimali dal punto di vista sia economico sia tecnico. Tutto ciò comporta un atteggiamento consapevole del Metrologo all’interno dell’azienda e a un uso della funzione Metrologia che porti a un effettivo valore aggiunto. Tuttavia, la valutazione dell’incertezza di misura, se da una parte costituisce il vantaggio più consistente di questo metodo, è anche a volte percepita dalle aziende come il suo principale Figura 3 – Curva rappresentativa svantaggio: il di un esempio di modellazione metodo è adat-

Questo terzo metodo è stato proposto per la prima volta dalla società EDAS, successivamente è stato inserito in una guida pubblicata dal CFM (Collège Français de Métrologie) nel settembre 2005, per poi essere inserito in appendice alla FD X 07-014. È l’unico dei metodi della FD X 07014 non ideato da DeltaMu, ma alla cui definizione DeltaMu ha partecipato attivamente nel relativo Gruppo di lavoro AFNOR. Esso consente di determinare gli intervalli di taratura delle apparecchiature per misurazione considerando diversi criteri. Non si limita a seguire la deriva dell’apparecchiatura per misurazione, ma incorpora anche il concetto di rischio derivante da fattori che possono degradare o migliorare la qualità della misura. Esso, inoltre, non dimentica i vincoli di copertura o dell’organizzazione e la capacità di rilevare o meno un’anomalia. I fattori da considerare sono da analizzare singolarmente secondo ogni contesto industriale. Questo metodo è diverso dagli altri due perché non è basato sulle caratteristiche tecniche dell’apparecchiatura per misurazione ma su informazioni qualitative, come ad esempio (i) se lo strumento è usato molto oppure no, (ii) se è usato per un solo tipo di misura oppure no, (iii) se la misura è critica, (iv) se la taratura è costosa, ecc. Per prima cosa, quindi, si passa alla definizione di criteri, come ad esempio: – Criterio 1: Gravità di una misurazione errata; – Criterio 2: Esigenze di prestazioni metrologiche; – Criterio 3: Deriva strumentale e/o robustezza dello strumento; – Criterio 4: Fattori aggravanti; – Criterio 5: Costo della taratura. Per far ciò il Metrologo deve coinvolgere tutti i reparti aziendali rilevando le relative criticità ed esigenze. Pertanto l’analisi non deve essere confinata alla sola funzione Metrologia, ma richiede dati d’ingresso provenienti da tutti i reparti. Al termine si passa a dare un punteggio a ogni criterio individuato e a stabilire una base di ponderazione. Da qui scaturisce un punteggio assegnato all’apparecchiatura per misurazione da cui discende il calcolo della periodicità associata. Le criticità importanti di questo metodo sono: – la criticità della misura; – il monitoraggio. Queste dovranno sempre essere prese in considerazione, e avranno poi il maggior impatto nella fase di attribuzione del peso ai vari criteri: ad esempio, il criterio relativo al costo della taratura (seppur presente e preso giustamente in considerazione) non potrà mai avere un peso maggiore rispetto a quello di ciascuno dei due criteri sopra elencati. Proprio per questo motivo devono essere prese in considerazione

T_M ƒ 115


tutte le possibili criticità coinvolgendo nell’analisi i vari reparti aziendali, per tenere conto di tutte le esigenze, assegnando però a ognuna il giusto peso e arrivando infine alla valutazione ottimale. Questo metodo è un tipo di metodo “six sigma” che tiene conto di tutti i fattori che influenzano la qualità della misura. I criteri di rating sono cinque. Il punteggio deve essere obiettivo: la ponderazione va fatta in seguito all’esame dei criteri di criticità. Non è basato su caratteristiche tecniche, ma in ultima analisi sul buon senso e quindi sostanzialmente si fonda sull’idea di “matematicizzare” il buon senso. Da questo punto di vista questo metodo può essere pensato come la versione riveduta e corretta del metodo FMECA, generalmente ben conosciuto in azienda. Vediamone allora vantaggi e svantaggi. Vantaggi: 1. È un metodo pragmatico e non tecnico, ma è un metodo che usa una statistica semplice per elaborare i punteggi assegnati ai vari criteri scelti; 2. Permette di determinare gli intervalli di taratura delle apparecchiature per misurazione considerando diversi criteri. Non si limita a seguire la deriva dello strumento, ma incorpora anche il concetto di rischio derivante da fattori che possono degradare o migliorare la qualità della misura; 3. La Metrologia è coinvolta nella scelta dei criteri, ma tutta l’azienda viene coinvolta, e si crea un gruppo di lavoro che li definisce, coordinato dal Metrologo. La Metrologia diventa il link fra tutte le problematiche di ogni servizio, acquistando valore e significato per ogni reparto aziendale; 4. Non dimentica i vincoli dell’organizzazione e la capacità di rilevare o meno un’anomalia. I fattori da considerare sono da analizzare singolarmente secondo ogni contesto industriale; 5. Può essere usato per tutti gli strumenti. Svantaggi: 1. È basato sull’impiego della statistica, generalmente poco amata nell’industria, anche se un suo uso sapiente non può che portare grandi vantaggi; 2. Perché funzioni è necessario analizzare un gran numero di apparecchiature (~50); 3. Necessità di apparecchiature diverse fra loro. Tuttavia in realtà questi svantaggi possono tramutarsi in opportunità: a) una volta che il progetto sia stato sviluppato (in modo indipendente o con un aiuto esterno) può essere sempre utilizzato per tutte le apparecchiature aziendali sia presenti sia future, che dovranno quindi solo essere inserite in un sistema già costruito ad hoc per le esigenze dell’azienda medesima. b) Come per l’analisi FMECA si possono usare dati presenti in letteratura per casi analoghi e si può usare l’esperienza. La Smart Metrology già citata ha proprio come obiettivo quello di creare una base comune di dati nel cloud. Ultimo aspetto importante da sottolineare in relazione alla Norma che stiamo esaminando è che la linea guida FD X 07014 spinge anche a realizzare, oltre alla taratura tradizionale, alcuni monitoraggi periodici delle apparecchiature per misurazione qualunque sia il metodo di ottimizzazione scel-

T_M ƒ 116

N. 02ƒ ; 2016

n

GLI ALTRI TEMI

to (monitoraggio che può a volte essere limitato anche a un solo controllo visivo) e presenta anche un esempio di monitoraggio che può essere avviato con un grafico di controllo. Tutto ciò sottolinea l’approccio verso una maggiore qualità della funzione del Metrologo, visto non più come il mero esecutore (o talvolta archivista) delle tarature, ma come colui che ha piena coscienza e consapevolezza delle dinamiche insite nel processo di produzione/misura, e ha la giusta conoscenza e competenza per proporre soluzioni ottimali. CONCLUSIONI

La FD X 07-014 fornisce dettagliate indicazioni sui metodi che possono essere utilizzati a seconda delle apparecchiature coinvolte. È interessante notare che gli intervalli di taratura di tutti i dispositivi di una Società possono essere ottimizzati attraverso almeno uno dei tre metodi offerti, o dalla combinazione di due o più di essi. Si tratta di metodi molto più dettagliati di quelli proposti dalla D10 ILACG24/OIML e molto più facilmente applicabili. Sembrerebbe dunque auspicabile riferirsi alla FD X 07-014 anche al di fuori della Francia. Quanto affermato è confortato dagli ottimi risultati che DeltaMu ha avuto applicando con successo tali metodi in molte aziende clienti, che ne hanno tratto subito un grande beneficio sia economico, sia di migliore gestione della Metrologia in azienda. Tutti i metodi qui illustrati implicano una visione della Metrologia sempre più indirizzata verso la Smart Metrology, una Metrologia utile, efficace ed efficiente, una Metrologia intelligente che spinga il Metrologo a interagire con tutti i sistemi aziendali per rendere la funzione Metrologia imprescindibile protagonista della riduzione dei costi e del miglioramento della qualità e competitività. Smart Metrology è l’obiettivo principale (non a caso assunto come slogan) di DeltaMu, che si presenta come attore di grande esperienza per sostenere le aziende in questo processo di continuo miglioramento. Esperienza maturata nell’aver progettato, ideato e messo a punto, proprio per le aziende, i vari metodi di ottimizzazione su esposti, che hanno trovato un riscontro tangibile della loro efficienza nell’applicazione nei più diversi settori aziendali. Annarita Lazzari, Ingegnere Elettronico, ha conseguito un Dottorato di Ricerca con specializzazione in Metrologia, valutazione dell’incertezza di misura e controllo statistico di processo. Ha ricoperto ruoli di sempre maggiore responsabilità in grandi realtà multinazionali e in contesti diversi come fornitore di servizi e soluzioni per la Metrologia, il controllo di processo (sia di misura sia di produzione), la Gestione di Sistemi di Qualità e Controllo, Gestione Rischi e processi aziendali, gestione di un Istituto di formazione tecnica in ambito di Metrologia, Qualità e statistica e attività di consulenza aziendale. Ha partecipato con propri lavori di ricerca scientifica a vari Congressi Nazionali e Internazionali. Attualmente è Direttore Tecnico e Commerciale di DeltaMu Italia srl.


LA PAGINA DI ACCREDIA

s

Rubrica a cura di Rosalba Mugno 1, Silvia Tramontin 2 e Francesca Nizzero 3

La pagina di ACCREDIA Notizie dall’Ente di Accreditamento THE PAGE OF ACCREDIA ACCREDIA, The Italian National Accreditation Body plays an active role in “TUTTO_MISURE”, as a permanent strategic partner, ensuring a high added-value contribution to the quality of the Magazine, in the context of the measurement and testing sector, for the benefit of the industry.

RIASSUNTO ACCREDIA, L’Ente unico di Accreditamento Nazionale gioca un ruolo attivo nella squadra di “TUTTO_MISURE”, garantendo valore aggiunto a livello contenutistico per quanto riguarda l’ambito delle misure e delle prove. XXX CONVEGNO DEI CENTRI DI TARATURA ACCREDITATI

Il 21 aprile scorso si è tenuto a Torino il XXX convegno dei Centri di Taratura accreditati, organizzato da ACCREDIA nella ormai tradizionale cornice della Fiera internazionale “A&T – Affidabilità & Tecnologie”. La giornata è stata particolarmente intensa e numerosi i temi affrontati, di estrema importanza per l’attività dei Laboratori di taratura. L’ampia partecipazione, che ha raggiunto i 410 presenti (a fronte di 172 Laboratori accreditati e 86 ispettori ed esperti qualificati dal Dipartimento Laboratori di taratura), ha dimostrato il crescente interesse verso l’accreditamento delle tarature, sulle cui opportunità e necessità il mercato dimostra una consapevolezza decisamente superiore rispetto al passato. Il Convegno è stato aperto dal Presidente di ACCREDIA Giuseppe Rossi, da un anno alla guida dell’Ente Uni-

co di accreditamento, che ha ribadito l’importanza di questo momento di confronto tra le professionalità coinvolte nella catena del valore delle tarature, un settore che cresce a ritmi sostenuti e che richiede standard sempre più elevati, a tutela e a garanzia del cittadino, ma anche delle imprese e delle istituzioni, perché l’affidabilità delle misure è esenziale per la correttezza delle transazioni e alla base della fiducia nel mercato. “Per questo ACCREDIA – ha affermato il Presidente Rossi – continua a investire nella professionalità dei 73 ispettori e dei 13 esperti tecnici incaricati

di verificare la competenza dei Laboratori di taratura, e si impegna a sensibilizzare il mondo delle imprese e la Pubblica Amministrazione sull’importanza della qualità delle misure, anche attraverso il commento di una sentenza, quella notissima sugli autovelox, che rappresenta una pietra miliare per i Laboratori e, di conseguenza, per ACCREDIA“. Il primo intervento al Convegno è stato infatti curato dall’Avv. Ilaria Rivera del servizio studi della Corte Costituzionale e ha riguardato il significato e la risonanza della sentenza n. 113 del 2015 sull’incostituzionalità delle regole del Codice della strada nella parte in cui non prevede che tutte le apparecchiature siano sottoposte a verifiche periodiche di funzionalità e taratura. Nel 2015, in particolare, per la taratura dei sistemi di rilevamento della velocità istantanea dei veicoli, i cosiddetti autovelox, sono stati rilasciati 2.195 certificati, in crescita del 170% sul 2014, quando erano 814. 3 risultano i Laboratori accreditati per tarare gli autovelox, ma nuove richieste di accreditamento riguardano i Laboratori che effettuano la taratura degli strumenti di rilevazione della velocità media, o tutor, anch’essi oggetto della sentenza della Corte costituzionale. Un altro Laboratorio è accreditato per la taratura dei dispositivi di rilevazione delle infrazioni semaforiche e altri 3 per la taratura dei cronotachigrafi.

1

Direttore Dipartimento Laboratori di Taratura, ACCREDIA Torino r.mugno@accredia.it 2 Direttore Dipartimento Laboratori di Prova, ACCREDIA Roma s.tramontin@accredia.it 3 Relazioni Esterne, ACCREDIA Roma f.nizzero@accredia.it

T_M

N.

2/16 ƒ 117


Per quanto riguarda i nuovi documenti applicabili per i Laboratori di taratura, durante il Convegno sono stati illustrati i contenuti del Regolamento tecnico RT-36 “Prove Valutative Interlaboratorio (PT) e Confronti Interlaboratorio (ILC) per il Dipartimento Laboratori di taratura”, che introduce una nuova modalità di gestione del confronto e dei relativi risultati e prevede il ruolo attivo e consapevole dei Laboratori. ACCREDIA ha confermato anche per il 2016 il coinvolgimento del proprio personale tecnico nel Gruppo di lavoro di EA “LC wg ILC calibration”, che si occupa dell’organizzazione dei Confronti interlaboratorio a livello regionale e al quale candida i propri Laboratori accreditati. Inoltre, all’interno del Gruppo di lavoro di EA “wg PT” ACCREDIA partecipa alla stesura di una futura linea guida (Guidelines

T_M ƒ 118

N. 02ƒ ; 2016

s

LA PAGINA DI ACCREDIA

for accreditation bodies for use in the process of laboratory accreditation) per la gestione delle valutazioni dei Laboratori che partecipano a ILC con pochi partecipanti, anche auto-organizzati, e ad audit di misura. Un altro tema affrontato durante il Convegno riguarda l’organizzazione delle informazioni relative allo scopo di accreditamento dei Laboratori di taratura, un argomento che ha una duplice valenza: la definizione puntuale e chiara dello scopo, da un lato, è indispensabile per il Laboratorio nella pianificazione della partecipazione ai Confronti interlaboratorio, dall’altro, è funzionale alla formulazione dell’allegato al certificato di accreditamento, ovvero la tabella di accreditamento. È stato evidenziato come una precisa definizione dello scopo in termini di settori metrologici sia all’origine di tutte le attività del Labo-

ratorio accreditato, dalla presentazione delle domande stesse di accreditamento, estensione, rinnovo, alla programmazione delle attività di mantenimento della competenza mediante la partecipazione ai Confronti interlaboratorio; dalla pubblicazione delle informazioni sul sito istituzionale di ACCREDIA fino alla definizione della quota per il mantenimento dell’accreditamento. Il progetto, che è iniziato alla fine del 2015 e si articola su un arco temporale di due anni, culminerà con la riformulazione dell’attuale allegato al certificato di accreditamento basata su tre criteri: rispetto dei requisiti normativi, gestione centralizzata delle nomenclature e formulazione bilingue italiano-inglese. Grande interesse ha suscitato il tema della gestione delle tarature interne, che è stata definita e sistematizzata


N. 02ƒ ;2016 RISULTATI DELL’ATTIVITÀ SVOLTA NEL 2015

Si è tenuta il 12 maggio scorso a Roma l’Assemblea annuale dei Soci di ACCREDIA, per l’approvazione del bilancio dell’Ente e la presentazione della relazione sull’attività svolta nel 2015. Il resoconto dell’anno trascorso ha evidenziato la tendenza positiva dei principali indicatori quantitativi, dalla crescita dei soggetti accreditati all’aumento delle giornate di verifica, dall’incremento degli schemi accreditati al potenziamento del team ispettivo. L’ATTIVITÀ DI VALUTAZIONE

Anche nel 2015 si è registrata la crescita delle attività di valutazione della competenza di Organismi e Laboratori, che hanno raggiunto le 13.378 giornate (o giorni uomo – gg. u.) di verifica, condotte dai funzionari tecnici e dagli ispettori esterni dei tre Dipartimenti in cui si strutturano le attività dell’Ente di accreditamento, Certificazione e Ispezione, Laboratori di prova e Laboratori di taratura. L’incremento sull’anno precedente è stato del 5% (12.764 gg. u.) e del 9% sul triennio 2013-2015 (nel 2013 i gg. u. sono stati 12.320), in coerenza con l’aumento dei soggetti accreditati, passati dai 1.501 del 2013 ai 1.629 del 2015 (+ 9%). Per quanto riguarda il Dipartimento Laboratori di taratura, a fronte di due nuovi soggetti accreditati, si è rilevato un significativo incremento delle giornate di valutazione, corrispondenti a 113 gg. u. (+ 19% rispetto al 2014)

s

con la nuova edizione (rev. 04) del Regolamento tecnico RT-25 “Prescrizioni per l’accreditamento dei Laboratori di taratura”. È stato ribadito che devono essere valutate da ACCREDIA tutte le tarature eseguite dal Laboratorio che contribuiscono a definire la CMC (Calibration and Measurement Capability), siano esse relative al trasferimento di riferibilità della stessa grandezza, ovvero siano grandezze diverse da quella oggetto di accreditamento.

LA PAGINA DI ACCREDIA

Attività di valutazione 2013-2015 Confronto Giorni uomo – Soggetti accreditati

2015

2014

2013

gg.u.

Soggetti accreditati

gg.u.

Soggetti accreditati

gg.u.

Soggetti accreditati

Laboratori di prova

8.268

1.135

8.026

1.111

7.909

1.082

Certificazione e Ispezione

4.404

1.322

4.145

1.291

3.846

1.252

Laboratori di taratura

1.706

1.172

1.593

1.170

1.565

1.167

Totale

13.378

1.629

12.764

1.572

12.320

1.501

Dipartimento

che denota una ripresa del mercato delle tarature, per cui nell’ultimo triennio gli accreditamenti del Dipartimento sono cresciuti in maniera moderata ma costante (dai 167 del 2013 ai 172 del 2015). La crescita delle attività di verifica del Dipartimento Certificazione e Ispezione si è assestata al 6% (gg. u. passati da 4.145 a 4.404) sul 2014, corrispondenti a 31 accreditamenti in più. Per il Dipartimento Laboratori di prova si sono raggiunte le 8.268 giornate di verifica, con un incremento del 3% sull’anno precedente, a fronte di 24 soggetti in più tra Laboratori e Organizzatori di prove valutative interlaboratorio.

formità del modo di operare e la conformità alla norma internazionale ISO/ IEC 17011. Nel 2015 sono stati 454 gli ispettori e gli esperti operativi per le verifiche di organismi e Laboratori, 23 in più rispetto ai 431 del 2014 (+ 5%). GLI ACCREDITAMENTI

A dicembre 2015, i soggetti che operano sotto accreditamento ACCREDIA risultano 1.629, di cui:

• 1.135 Laboratori di prova, Laboratori di analisi mediche e Organizzatori di prove valutative interlaboratorio (Proficiency Testing Providers – PTP); • 322 Organismi di certificazione, GLI ISPETTORI d’ispezione e di verifica; ACCREDIA assicura la competenza e • 172 Laboratori di taratura e Produtla professionalità del proprio per- tori di materiali di riferimento (Refesonale impegnato nell’attività ispettiva rence Material Producers – RMP). (gli ispettori e gli esperti tecnici) attraverso processi di formazione e ag- L’aumento è stato registrato per tutte le categorie, complessivamente del + 4% giornamento continuo. Gli ispettori e gli esperti vengono selezionati sulla base delle competenze ed esperienze maturate nei diversi settori di attività, e il rispetto dei requisiti generali di qualifica per i tre Dipartimenti viene monitorato nel tempo attraverso specifiche procedure operative, che assicurano l’uni-

T_M ƒ 119


sul 2014 (1.572), con 57 Organismi e Laboratori in più. A fronte della fase recessiva del periodo in esame, l’incremento è stato in linea con quello degli anni precedenti (+ 5% tra 2013 e 2014) a denotare la solidità del mercato. In 10 anni, la crescita dei soggetti accreditati è stata costante e il numero

T_M ƒ 120

N. 02ƒ ; 2016

s

LA PAGINA DI ACCREDIA

di Organismi e Laboratori qualificati è praticamente raddoppiato (863 nel 2006), in particolare per gli Organismi di certificazione, ispezione e verifica (passati da 115 a 322) e i Laboratori di prova e analisi mediche e gli Organizzatori di prove valutative (da 578 a 1.135). Meno rilevante, nello stesso periodo, è stata la crescita degli accreditamenti delle tarature (con due Laboratori in più), ma significativa la ripresa degli ultimi anni. Considerando i risultati dell’attività di ACCREDIA sotto il profilo degli accreditamenti rilasciati per i diversi settori,

si è rilevato un aumento del + 4% tra 2014 e 2015, con 75 schemi accreditati in più, passati da 1.794 a 1.869. Tra i soggetti accreditati (Organismi e Laboratori), molti sono infatti qualificati per operare sul mercato in più di un settore. Se i volumi di attività più importanti hanno riguardato gli accreditamenti dei Laboratori di prova, aumentati nel biennio del 2%, gli incrementi più significativi si sono registrati per gli Organismi che rilasciano certificazioni del personale (+ 28%) e di prodotto (+ 14%), nonché per i soggetti che effettuano ispezioni (+ 23%). I RECLAMI

La gestione dei reclami e delle segnalazioni è un’attività chiave della politica di ACCREDIA, volta ad assicurare


N. 02ƒ ;2016

cremento significativo, in particolare, per le attività relative a certificazioni, ispezioni e prove di Laboratorio. Nel 2015, il volume di segnalazioni e reclami gestito dal Dipartimento certificazione e ispezione è stato il più consistente (79% del totale dei reclami ricevuti da ACCREDIA) in ragione della filiera delle valutazioni della conformità che coinvolge più direttamente le organizzazioni che si avvalgono delle certificazioni e i loro clienti finali. PROGETTI DELLA COMMISSIONE EUROPEA

la tutela e la soddisfazione degli utenti dei servizi accreditati di certificazione, ispezione, prova e taratura e dei prodotti e servizi certificati sotto accreditamento. Nel 2015 è stata uniformata la procedura per il trattamento dei reclami a cura dei tre Dipartimenti, che consente una più efficace gestione delle segnalazioni provenienti dal mercato. ACCREDIA prende in carico ogni segnalazione fondata, con cui gli Organismi e i Laboratori accreditati così come la Pubblica Amministrazione, le imprese e i consumatori intendono esporre la propria insoddisfazione nella fruizione di un servizio erogato, o nell’acquisto di un prodotto di una organizzazione certificata sotto accreditamento. Complessivamente, ACCREDIA ha ricevuto 195 segnalazioni e reclami, il 6% in meno rispetto al 2014 e il 5% in meno sui tre anni, con un de-

Si è tenuta il 28 aprile scorso, a Chis, ina ˘ u, in Moldavia, la cerimonia di chiusura del Moldac Twinning Light Project, il programma di collaborazione in materia di valutazione della conformità tra ACCREDIA e MOLDAC, l’Ente di accreditamento della Repubblica di Moldavia, alla presenza del Vice Premier del Governo moldavo, Octavian Calmic, e delle rappresentanze diplomatiche dell’Unione Europea e del Governo italiano, gli Ambasciatori Pirkka Tapiola ed Enrico Nunziata. Nel 2015 ACCREDIA ha vinto la gara della Commissione Europea per condurre il progetto Twinning Light, volto a supportare il MOLDAC nella preparazione della verifica di peer assessment di EA, dopo la quale MOLDAC potrà firmare gli Accordi di mutuo riconoscimento EA MLA, grazie ai quali le valutazioni di conformità su prodotti e servizi, rilasciate da Organismi e Laboratori accreditati dall’Ente

n

LA PAGINA DI ACCREDIA

moldavo, saranno riconosciuti su tutto il mercato comunitario e internazionale dando così una spinta ulteriore allo sviluppo dell’economia del Paese. Per questo progetto, durato 8 mesi, ACCREDIA ha attivato un ampio programma di formazione, con il coinvolgimento di tutti e tre i Dipartimenti, l’impegno di quasi 20 esperti tecnici e ispettori, oltre 140 giornate uomo di attività, più di 30 i viaggi, oltre alle numerose verifiche congiunte e ai seminari realizzati insieme ai funzionari del MOLDAC. L’obiettivo generale è stato quello di migliorare la competitività commerciale della Repubblica di Moldavia e di armonizzare la qualità delle infrastrutture attraverso la conformità alle norme europee e internazionali, contribuendo al miglioramento dei rapporti politici, economici e commerciali con l’Unione Europea. Diversi i progetti internazionali che vedono coinvolta ACCREDIA. Nel 2015, sempre nell’ambito dei Twinning Projects, l’Ente ha supportato anche l’EGAC, l’Ente di accreditamento egiziano, per l’implementazione dell’infrastruttura di accreditamento del Paese e ad aprile 2016 ha collaborato con il Governo macedone, organizzando un workshop del Taiex, lo strumento di assistenza tecnica e institution-building della Commissione Europea, indirizzato ai Paesi terzi con lo scopo di fornire assistenza tecnica per una corretta interpretazione della legislazione comunitaria, del recepimento di norme e disposizioni UE, e per la loro applicazione e trasposizione nelle rispettive normative nazionali.

T_M ƒ 121


FOTO-RADIOMETRO DOSIMETRO PER MISURE DI RADIAZIONI OTTICHE ARTIFICIALI NON COERENTI “R.O.A.” HD2402 (by Delta Ohm) è un foto-radiometro datalogger portatile per eseguire misure di radiazioni ottiche non coerenti, in accordo alla direttiva europea 2006/25/CE e al decreto legislativo n. 81 del 9 aprile 2008. Lo strumento è composto da una serie di sensori, per coprire le differenti porzioni spettrali, e da un piccolo laser che serve a indicare la sorgente analizzata. I vari sensori operano nei seguenti campi spettrali: – Sensore fotometrico per la misura dell’illuminamento (luxmetro) nel campo spettrale 380÷780 nm; – Sensore radiometrico per la banda UV (220÷400 nm) con fattore di peso spettrale S(λ); – Sensore radiometrico per la banda UVA (315÷400 nm); – Sensore radiometrico per la banda 400÷700 nm (blu) con fattore di peso spettrale B(λ); – Sensore radiometrico per la banda IR (700÷1.300 nm) con fattore di peso spettrale R(λ); – Sensore a termopila per la misura dell’irradiamento nell’infrarosso, campo spettrale 400÷2.800 nm. Lo strumento può essere alimentato collegandolo a un PC oppure tramite un alimentatore esterno con uscita USB. Per ulteriori informazioni: www.deltaohm.com

T_M ƒ 122

N. 02ƒ ; 2016

s

NEWS

NUOVE SOLUZIONI COMPLETE DI TECNICA DI MISURA BY HBM

HBM ha recentemente presentato a Norimberga, nell’ambito di Sensor+Test, tutto il suo repertorio di sensori e trasduttori, amplificatori di misura e software di acquisizione dati, ma anche software di analisi e affidabilità e offerte di assistenza e taratura. Fra le principali novità presentate, segnaliamo i sensori per condizioni ambientali estreme, oltre a un innovativo trasduttore multicomponente e un apparecchio di acquisizione dati modulare per test su batterie. Mercoledì 11 maggio, nell’ambito del forum Innovative Testing, prestigiosi relatori HBM hanno approfondito argomenti di particolare attualità, come le Misurazioni di forza a temperature fino a 300 °C e le Prove di resistenza con sensori a fibra ottica a griglia di Bragg. Altre presentazioni HBM si sono svolte durante le tre giornate dedicate ai forum specialistici, nei padiglioni 1 e 5; senza dimenticare i live show quotidiani, mirati all’installazione di svariati estensimetri ottici ed elettrici, che si sono focalizzati su particolari settori applicativi, tra i quali la misurazione ad alta velocità, la tecnica di misura industriale e ottica e la misurazione ad alta precisione. Per ulteriori informazioni: www.hbm.com/st2016


LA PAGINA DI IMEKO

n

Rubrica a cura di Paolo Carbone (paolo.carbone@unipg.it)

Aggiornamenti sulle attività IMEKO Aggiornamenti sulle attività IMEKO THE PAGE OF IMEKO IMEKO, International Measurement Confederation, is among the permanent collaborations to the Journal. This section contains information about the Association, publications, events and news of interest to our readers.

RIASSUNTO IMEKO, International Measurement Confederation, è tra i collaboratori stabili della Rivista. Questa rubrica contiene informazioni sull’Associazione, pubblicazioni, eventi, e notizie di utilità per i nostri lettori.

Service Award e inoltre riconosce l’impegno di scienziati che si sono distinti nel campo delle misure con la Ludwik Finkelstein Medal. Informazioni su questi premi sono disponibili all’url: http://www. imeko.org/index.php/imekoawards, dove si trovano anche informazioni sui vincitori dei premi e della medaglia degli anni passati.

È GIA ATTIVO IL SITO WEB DEL WORLD L’IMEKO continua a espandere le pro- cemente progressi. Recentemente, la CONGRESS DEL 2018

prie attività al fine di diffondere la cultura scientifica e tecnica in ambito metrologico: il giorno 20 maggio 2016 avrà luogo, come ogni anno, il World Metrology Day (www. worldmetrologyday.org). Il Prof. Grattan, attuale Presidente di IMEKO, è stato invitato come keynote speaker al Symposium on Measurement Academic Exchange, organizzato dalla Chinese Society for Metrology in occasione di questo evento. Fra le altre attività, l’IMEKO si attiva al fine di coinvolgere un numero crescente di membri nella propria organizzazione. Recentemente hanno aderito la Giamaica, l’Uganda e gli Stati Uniti, mentre per l’India, l’Ucraina e l’Egitto, la 59a sessione generale del Council dell’IMEKO, che si terrà a Budapest a settembre di quest’anno, deciderà in merito alla loro domanda di adesione. Come è noto IMEKO gestisce due Riviste scientifiche che sono di riferimento per i ricercatori che operano nel settore delle misure: si tratta di Measurement e di ACTA IMEKO. Entrambe pubblicano versioni estese dei lavori presentati ai congressi IMEKO. ACTA IMEKO, che gestisco in qualità di editor-in-chief, ha una storia più recente ma sta facendo velo-

rivista ha aderito a Crossref (www. crossref.org) una società no-profit che facilita la circolazione di articoli scientifici attraverso la gestione di link e citazioni. Attraverso Crossref ACTA IMEKO ha aderito anche al meccanismo di citazione e recupero delle informazioni basato sul DOI (Digital Object Identifier) che rende rapido l’accesso a prodotti della ricerca in rete. Quindi, nel futuro, a ogni articolo pubblicato in ACTA IMEKO sarà associato un DOI. Vale la pena di ricordare che il prossimo numero della rivista online è largamente dedicato alla pubblicazione dei lavori estesi originariamente presentati a Imekofoods 2014, la prima Conferenza IMEKO sul tema del cibo e della nutrizione organizzata dal TC23. Il successo dell’evento è stato tale per cui il congresso sarà organizzato anche quest’anno. Si veda il sito web all’url: www. imekofoods.org/index.php per altri dettagli. L’elenco degli altri eventi IMEKO per il 2016 è disponibile all’url: www.imeko.org/index. php/homepage/comingevents. Si ricorda che l’IMEKO organizza e gestisce due premi: il György Striker Junior Paper Award e il Distinguished

T_M

Il prossimo Congresso mondiale IMEKO (il XXII) si terrà a Belfast, nel Nord Irlanda, nel 2018 (3-7 settembre). Un’anticipazione del sito web è disponibile al link: http://imeko2018.org. I keynote speaker saranno il Prof. Klaus von Klitzing e il Prof. William D. Phillips, entrambi insigniti del premio Nobel. Il prossimo congresso mondiale IMEKO si preannuncia quindi come un evento di forte richiamo e interesse. IN USCITA IL PRIMO NUMERO DI ACTA IMEKO DEL 2016

All’indirizzo: https://acta.imeko. org/index.php/actaimeko è in uscita il primo numero della rivista open-access ACTA IMEKO del 2016. Si tratta del numero che raccoglie i migliori lavori, presentati al Congresso IMEKO TC-23 “Imekofoods”, completati con nuovi risultati che li estendono e due altri lavori presentati originariamente all’IMEKO World Congress del 2014. Buona lettura!

N.

2/16 ƒ 123


s

NEWS

I NUOVI ANALIZZATORI DI SEGNALI SERIE X DI KEYSIGHT TECHNOLOGIES Keysight Technologies, Inc. (NYSE: KEYS) ha recentemente presentato i nuovi analizzatori di segnali Serie X, che forniscono funzionalità notevolmente migliorate per agevolare gli utenti che creano dispositivi di nuova generazione. Degna di nota è un’interfaccia utente multi-touch (UI) che semplifica il set-up dei parametri di misura e crea una solida base per nuove soluzioni. I miglioramenti delle prestazioni e delle funzionalità rispondono ai bisogni emergenti nel settore aerospaziale, della difesa e delle comunicazioni wireless. L’interfaccia utente consente l’ottimizzazione dei parametri di misura in non più di due tocchi. La possibilità di controllare lo strumento con semplici gesti (pizzicare, trascinare, scorrere) rende l’analisi più immediata e intuitiva. L’omogeneità dell’interfaccia operativa in tutta la serie UXA, PXA, MXA, EXA e CXA, fa sì che sia sufficiente apprendere l’uso di uno degli strumenti per saperli usare tutti. Per aiutare i progettisti a creare dispositivi di nuova generazione, l’UXA (ammiraglia della Serie X) ora offre una copertura di frequenza fino a 44 o 50 GHz e banda di analisi integrata di 1 GHz: una novità assoluta. Il PXA offre ora le migliori prestazioni di rumore di fase del settore (da –136 dBc/Hz a 1 GHz, offset di 10 kHz, e larghezza di banda di analisi in tempo reale di 510 MHz con range dinamico privo da spurie sull’intera banda superiore a 75 dBc. “Questi progressi in termini di usabilità, funzionalità e prestazioni mostano come Keysight stia ancora una volta affermando la propria leadership nell’analisi dei segnali“, ha affermato Mario Narduzzi, direttore marketing di Keysight Communications Solutions Group.

T_M ƒ 124

“Quando gli ingegneri scelgono la Serie X, ottengono prestazioni che li avvicinano alle risposte di cui hanno bisogno per raggiungere i propri obiettivi di innovazione negli ambiti RF, microonde e onde millimetriche“. Per caratterizzare le interazioni dei segnali radar, l’UXA e il PXA supportano lo streaming di dati in tempo reale fino a una larghezza di banda di 255 MHz con risoluzione di 16 bit a 300 MSa/s. Quando sono utilizzati con un registratore di dati di X-COM Systems, solution partner di Keysight, gli analizzatori consentono l’acquisizione in tempo reale fino a 15 TB (> 3 ore) di memoria di acquisizione. Le applicazioni Serie X multi-touch semplificano le operazioni complesse con misure predefinite, per l’analisi degli impulsi, la demodulazione analogica, la cifra di rumore, il rumore di fase, per LTE/LTE-advanced e W-CDMA. La nuova applicazione a impulsi accelera lo sviluppo e la verifica dei “chirped wideband signals”, come quelli utilizzati nei sistemi radar. Utilizzando i punti di forza della Serie X, i nuovi analizzatori di cifra di rumore N897xB NFA Serie X si presentano con un display più grande, UI multi-touch e migliori prestazioni rispetto ai loro predecessori. Queste funzionalità migliorano la capacità di un utente di effettuare misurazioni rapide, precise e ripetibili della cifra di rumore fino a 40 GHz con una soluzione dedicata. Per ulteriori informazioni: www.microlease.it


CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

s Carlo Carobbi

Accreditamento dei Laboratori di prova operanti nel settore EMC Interpretazione della Lista di Riscontro ACCREDIA nel settore delle Prove EMC Apparecchiature di misura, manutenzione, tarature, rapporti di prova – Parte II

ACCREDITATION OF TEST LABORATORIES OPERATING IN THE EMC FIELD – PART II The subject of this article of the column on “Fields and Electromagnetic Compatibility” is to suggest an interpretation of the requirements set in the checklist of the national accreditation body ACCREDIA, when used for the assessment of the electromagnetic compatibility test Laboratories. What is here reported is the result of the knowledge and experience of the author, and it is not, nor is intended to represent the official position of the national accreditation body ACCREDIA. This fourth and last article (divided in two parts) deals with the requirements concerning measuring equipment, its maintenance and calibration and test reports (the previous three ones dealt with personnel, test methods, environmental conditions and quality assurance of the test results). RIASSUNTO Lo scopo di questo articolo della rubrica “Campi e Compatibilità Elettromagnetica”, come del precedente, è suggerire un’interpretazione delle verifiche previste dalla lista di riscontro (checklist) ACCREDIA quando applicata ai Laboratori di prova che operano nel settore della Compatibilità Elettromagnetica. Quanto qui riportato è una sintesi della conoscenza e dell’esperienza dello scrivente, non è né intende rappresentare la posizione ufficiale dell’ente nazionale di accreditamento ACCREDIA. Questo quarto e ultimo articolo (in due parti) tratta delle apparecchiature di misura, della loro manutenzione e taratura, dei rapporti di prova (i precedenti tre articoli riguardavano il personale, i metodi di prova, le condizioni ambientali e l’assicurazione qualità). APPARECCHIATURE DI MISURA, LORO MANUTENZIONE E TARATURA

RT-08, p.to 5.6.2.1: “Taratura effettuata da un ente esterno: a. riportare l’identità dell’ente di taratura e dell’organismo dal quale è stato accreditato; b. riportare il numero e la data dell’ultimo certificato di taratura; c. controllare che sia stata attuata la verifica della rispondenza dei risultati della taratura alle esigenze di utilizzo da parte del Laboratorio; d. verificare i criteri per la definizione delle frequenze di taratura (es. valutazione mediante carte di controllo)”. Qui l’ispettore riporta gli estremi dei certificati di taratura delle apparecchiature impiegate per la prova (perlo-

una specifica apparecchiatura che giustifichino un allungamento significativo dell’intervallo di taratura oltre quello raccomandato dalla guida. Personalmente tendo ad accogliere favorevolmente, se supportate da evidenza, estensioni dell’intervallo di taratura per apparecchiature passive con struttura relativamente semplice: antenne, sonde di tensione e di corrente, reti attenuatrici, terminazioni, filtri. Per tali apparecchiature infatti una verifica di taratura intermedia fornisce informazioni significative circa il loro “stato di salute”. Una fase critica è senz’altro la “verifica della rispondenza dei risultati della taratura alle esigenze di utilizzo da parte del Laboratorio”. Si faccia riferimento a quanto detto poco sopra su come si debba valutare la conformità dell’apparecchiatura ai requisiti del metodo di prova. Non mi soffermo infine sul problema di come ci si debba comportare se non si riesce a individuare o non è possibile servirsi di un Laboratorio di taratura accreditato per la grandezza/strumento d’interesse. L’attuale guida SINAL DT-0004 fornisce indicazioni in merito che spero saranno attualizzate e completate dalla guida futura. Mi limito a ricordare che sono recentemente uscite le revisioni aggiornate dei documenti contenenti le prescrizioni aggiuntive di ACCREDIA alla norma ISO/IEC 17025 (documenti ACCREDIA RT-08, per i Laboratori di prova, e RT-25, per i Laboratori di taratura). Questi documenti fondamentali per l’accreditamento dedicano particolare attenzione al punto 5.6.2.1 e introducono novità rispetto al passato per recepire pienamente le prescrizioni di ILAC P10:2013.

meno le più critiche e/o che contribuiscono maggiormente all’incertezza di misura). Si verificherà che le grandezze oggetto di taratura siano quelle previste dai metodi di prova e che l’intervallo di taratura (stabilito dal Laboratorio) sia stato rispettato. Per le prove al livello 2 occorrerà verificare non tanto l’ultimo certificato di taratura disponibile quanto il certificato di taratura “vigente” al momento in cui è stata effettuata la prova campionata da archivio. L’intervallo di taratura stabilito dal Laboratorio deve essere quello previsto dalla guida SINAL DT-0004. Se l’intervallo stabilito dal Laboratorio è più lungo di quello raccomandato dalla guida, il Laboratorio deve portare evidenze che giustifichino tale scelta. Le Università di Firenze, evidenze devono essere basate su una Dip. Ingegneria dell’Informazione raccolta di dati “storici” di taratura di carlo.carobbi@gmail.com

T_M

N.

2/16 ƒ 125


N. 02ƒ ; 2016 RT-08, p.to 5.6.2.2: “Taratura effettuata dal Laboratorio, verificare: a. che le procedure di taratura siano adeguate e riportino i limiti di accettabilità dei risultati delle tarature, e se il primario a disposizione sia adeguato per effettuare la taratura; b. l’esistenza di rapporti di taratura interni. Dare un giudizio sulla completezza e accettabilità dei risultati della taratura; c. se è stata calcolata l’incertezza di taratura; d. se i campioni di riferimento utilizzati sono stati tarati da organismi accreditati o da istituti metrologici che assicurano la riferibilità a campioni nazionali o internazionali; e. se esiste un programma di taratura per i campioni di prima (e seconda) linea; f. se i campioni di riferimento sono utilizzati esclusivamente per la taratura; g. se sono utilizzati campioni di I.a linea e se esistono rapporti interni di taratura su tali campioni. Riportare: matricola, certificato di taratura del campione/strumento di I.a linea in possesso del Laboratorio, identità dell’ente preposto alla sua taratura…”. RT-08, p.to 5.5.8: “Le procedure di taratura sviluppate autonomamente dal Laboratorio sono state validate (RT08 punto 5.4.5.2)?”. RT-08, p.to 5.4.6.1: “Se il Laboratorio tara internamente le sue apparecchiature, l’incertezza di taratura viene stimata secondo i requisiti della UNI CEI ENV 13005? Si rammenta che può essere applicato il documento EA/4-02”. RT-08, p.to 5.4.6.1: “Vengono effettuate, ove applicabile, verifiche intermedie tra due tarature? Esistono le relative registrazioni (carte di controllo, vedi UNI EN ISO 10012:2004, ISO 7870-2:2013)?”. Qui l’ispettore tecnico è chiamato a valutare non una prova, bensì una taratura interna. In genere le tecniche di taratura delle apparecchiature di misura EMC sono delineate nei metodi di prova. Quindi l’ispettore valuta la conformità di quanto fatto dal Laboratorio a fronte delle indicazioni fornite dal metodo di prova. Alcune procedure di taratura sono elementari e non richiedono validazione (es. misure di perdita d’inserzione e coefficiente di riflessione di cavi, terminazioni, attenuatori attraverso l’uso di un Vector Network Analyzer). Tuttavia occorre prestare attenzione al fatto che, ad esempio, non si può “appiccicare” l’incertezza di misura di un coefficiente di riflessione di un attenuatore coassiale da 10 dB al coefficiente di riflessione della porta EUT della rete artificiale. Ripensiamo a quanto detto in precedenza parlando dell’adeguatezza delle apparecchiature di misura: occorre senz’altro tener conto che nel caso della rete artificiale entra in gioco una transizione da coassiale a spina monofase/trifase che aumenta significativamente l’incertezza di misura. Quindi un’incertezza di taratura estesa di 2° sulla fase dell’impedenza di una rete artificiale su tutta la gamma di frequenza da 9 kHz a 30 MHz (come mi è capitato di trovare dichiarato in un certificato di taratura interno) non è credibile (e

T_M ƒ 126


N. 02ƒ ;2016

ne se lo scostamento è dovuto al fatto che non è stato inserito un fattore di correzione aggiornato (e quindi lo scostamento fra il vecchio e il nuovo è in genere di pochi decimi di dB, cioè piccolo rispetto all’incertezza di taratura e quindi trascurabile rispetto all’incertezza di misura), come non conformità; invece se lo scostamento è importante, perché ad esempio si è inserito come fattore di correzione quello di un’antenna diversa da quella prevista in base alla codifica del “file” contenente la correzione. L’esito di uno sbaglio del genere può essere la riemissione dei rapporti di prova (con le relative conseguenze negative sull’immagine e sulla credibilità del Laboratorio). RAPPORTI DI PROVA

Mi soffermo qui solo sugli aspetti che ritengo meno evidenti ma importanti e che necessitano quindi di un commento. RT-08, p.to 5.10.3.1: “È riportata l’incertezza di misura nei casi previsti? È espressa come incertezza estesa nella stessa unità di misura?”. Non è obbligatorio riportare sui rapporti di prova l’incertezza di misura (mentre essa dev’essere sempre riportata nei certificati di taratura interna). Si rammenti cosa dice la norma ISO/ IEC 17025: “…i rapporti di prova devono comprendere, se necessario per l’interpretazione dei risultati di prova, quanto segue: … quando applicabile, una dichiarazione circa l’incertezza di misura stimata; informazioni circa l’incertezza di misura sono necessarie nel rapporto di prova quando ciò influisce sulla validità o sull’applicazione dei risultati di prova, quando le istruzioni del cliente lo richiedono, o quando l’incertezza ha influenza sulla conformità a un limite specificato”. Vediamo anche cosa è scritto in RT-08: “Si rammenta che i risultati di prova devono essere corredati dalle relative incertezze quando queste influenzano la valutazione della conformità con i limiti. Il Laboratorio che emette giudizi di conformità deve definire, nei propri documenti, i criteri per la loro emissione, tenendo conto o meno dell’incertezza di misura”.

s

infatti dalla lettura della procedura di taratura interna si scopriva che il contributo d’incertezza associato alla transizione non era stato considerato). Per le tarature interne il Laboratorio deve redigere una procedura. Per i contenuti della procedura il Laboratorio può ispirarsi al documento ACCREDIA DT-03-DT, “Guida per la stesura delle procedure tecniche dei Laboratori Accreditati di Taratura”. Deve essere valutata l’incertezza di taratura secondo le regole ormai consolidate e previste dalla norma UNI CEI ENV 13005 (la cosiddetta GUM) e dalla guida EA/4-02 (che è una derivazione della GUM contenente vari esempi di calcolo d’incertezza mirati ai Laboratori di taratura). Raccomando l’uso delle procedure di taratura delineate dalle norme EMC, oppure definite dai fabbricanti della strumentazione di misura (descritte ad esempio nel “calibration manual”) e dalle guide internazionali (ad esempio quelle emesse in ambito EA). La procedura di taratura deve essere comunque validata, ad esempio per confronto fra i risultati della taratura e un certificato di taratura emesso da un Laboratorio accreditato oppure dal fabbricante (purché contenga l’indicazione dell’incertezza di taratura) per la stessa apparecchiatura. Per quanto riguarda infine le verifiche intermedie di taratura raccomando ancora una volta la consultazione della guida SINAL DT-0004 (e della sua revisione, che presto sarà disponibile). RT-08, p.to 5.5.11: “Eventuali fattori di correzione derivanti dalle tarature (interne ed esterne) sono applicati e oggetto di aggiornamento sia per le apparecchiature che per i software (es. scostamenti e incertezze)?” L’ispettore deve verificare che i fattori di correzione aggiornati ed estratti dai più recenti certificati di taratura siano inseriti nel software di gestione della prova. Di solito “pesco” un certificato di taratura esterna di un’antenna o di un sensore di potenza, oppure interna di un cavo o altro, e verifico la corrispondenza fra i fattori di correzione inseriti alle varie frequenze nel software di gestione della prova (o del ricevitore) e quelli riportati nel certificato di taratura. Se individuo scostamenti, farò un rilievo classificabile come osservazio-

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

Chiediamoci allora: Quali sono le prove per le quali si emette un giudizio di conformità tenendo in conto l’incertezza di misura? Per quanto ne so io non le prove d’immunità. Quindi perché alcuni Laboratori riportano sul rapporto di prova l’incertezza di taratura del tempo di salita, del picco e della durata dell’impulso EFT/B (tanto per fare un esempio, vedi la norma IEC 61000-4-4), magari a tutti i livelli? Chi chiede tutto questo dettaglio? Il cliente? Forse, certamente non ACCREDIA, né la norma. Io credo che in molti casi si tratti di (rischioso) eccesso di zelo. Se proprio si deve scrivere qualcosa che rassicuri il cliente, allora ritengo più utile affermare esplicitamente (e sinteticamente!) che le apparecchiature impiegate per la generazione delle grandezze di stimolo nelle prove d’immunità sono conformi alle norme pertinenti. Per le misure di emissione occorre invece tener conto di quanto scritto nelle norme applicabili. La maggior parte delle norme riguardanti le prove di emissione in ambito IEC prescrive di non tener conto dell’incertezza di misura nello stabilire la conformità, ma di fare il confronto secco fra limite e valore misurato e riportare comunque l’incertezza di misura nel rapporto di prova. Più esplicitamente: al momento in cui sto scrivendo (gennaio 2016), nella revisione attuale delle norme CISPR 14-1, CISPR 15, CISPR 22, CISPR 32 è scritto che “Determining compliance with the limits in this standard shall be based on the results of the compliance measurement, not taking into account measurement instrumentation uncertainty. However, the measurement uncertainty of the measurement instrumentation and its associated connections between the various instruments in the measurement chain shall be calculated, and both the measurement results and the calculated uncertainty shall appear in the test report”. Invece nella norma CISPR 11 si trova quanto segue: “Determining compliance with the limits in this standard shall be based on the results of the compliance measurements, taking into account the considerations on measurement instrumentation uncer-

T_M ƒ 127


tainty. Where applicable, measurement instrumentation uncertainty shall be treated as specified in CISPR 16-42”. Quindi all’interno dello stesso CISPR l’approccio non è uniforme. La situazione è in movimento e occorre quindi prestare attenzione alle future revisioni delle norme. L’incertezza di misura, quando riportata, sarà espressa in dB o percento come di consueto nella EMC. Purtroppo i limiti non sono di solito espressi nelle stesse unità di misura delle incertezze ma in termini assoluti (es. dB(μV/m), V/m, A/m …) ma questo non ci deve preoccupare. Mi raccomando: 70 dB(μV/m) – 30 dB(μV/m) = 40 dB, non 40 dB(μV/m)!! E poi – 40 dBm + 30 dB = – 10 dBm. E infine 30 dBm + 10 dBm = …??? Niente, non ha senso!! Non ce ne vogliate, cari puristi delle unità di misura!! Noi del mondo EMC e delle RF possiamo sommare pere con mele, togliere carciofi dai cavoli e non mescolare ciliegie con ciliegie quindi … dipende … (“che bel banco di … prova”? … no caro lettore, bensì banco di frutta e verdura!). Anche in RT-08 si è dovuto ammettere che siamo una razza speciale: “Quando viene riportata l’incertezza di misura, questa dev’essere espressa come incertezza estesa (U) nelle stesse unità di misura del risultato della prova, salvo il caso in cui sia previsto diversamente dalla norma di prova o da documenti guida di settore (es. prove di compatibilità elettromagnetica). È generalmente accettato usare un fattore di copertura k = 2. L’incertezza dev’essere espressa normalmente con livello di fiducia 95%”. RT-08, p.to 5.10.3.1: “Con riferimento al documento EA-4/16, e secondo le indicazioni del DT-0002, sul rapporto di prova è riportata una dichiarazione relativa al livello di fiducia e al fattore di copertura utilizzato?” Si veda sopra. RT-08, p.to 5.10.3.1: “Sui rapporti di prova verificare quanto richiede la norma: a. titolo; b. nome e indirizzo del Laboratorio; c. identificazione univoca (numero); d. nome e indirizzo del cliente; e. identificazione del/dei metodo/i;

T_M ƒ 128

N. 02ƒ ; 2016

n

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

f. identificazione dell’oggetto; g. data di ricevimento, date di esecuzione delle prove, date d’inizio e fine ove applicabile; h. ove applicabile, verbale, piani e procedure di campionamento; i. risultati delle prove con indicazione dell’unità di misura; j. ove applicabile il recupero e se sia stato utilizzato per i calcoli; k. nomi, funzioni e firme per approvazione; l. dichiarazione che i risultati si riferiscono ai soli oggetti provati; m. dichiarazione che il rapporto non può essere riprodotto parzialmente senza autorizzazione; n. numero di pagina e numero totale di pagine”. I punti h. e j. non si applicano alla EMC. Per quanto riguarda il punto h. si deve tuttavia tener conto di quanto richiede RT-08: “Se il campionamento è effettuato dal cliente o da terzi, questo deve essere indicato sul rapporto di prova”.

no e i vari Comitati di Redazione che si sono avvicendati in questi anni per avermi sempre lasciato la massima libertà. Un ringraziamento speciale va a Marco Cati, che mi ha sostituito nella responsabilità della Rubrica dal 2009 e non ha mai mancato di stimolarmi, rivedere e contribuire con scrupolo e passione a quanto ho scritto nel corso di questi undici anni. Grazie infine a Luigi, il “maestro”, anche lui, come Sergio, indimenticabile e irraggiungibile. RIFERIMENTI

1. MD-09-01-DL/DS, “Lista di riscontro per la valutazione dei Laboratori (parte tecnica livello 1)”, rev. 2. 2. RT-08, “Requisiti generali per l’accreditamento dei Laboratori di prova”, rev. 3. 3. RT-25, “Prescrizioni per l’accreditamento dei Laboratori di taratura”, rev. 4. 4. IEC GUIDE 115:2007, “Application of uncertainty of measurement to conformity assessment activities in the RINGRAZIAMENTI E SALUTO electrotechnical sector”. 5. ILAC P10:2013, “ILAC Policy on Carissimi lettori (so che ci siete, ho the Traceability of Measurement ricevuto tante testimonianze di consi- Results”. derazione e stima nel tempo!) è giunto il momento dei saluti. Arrivato alla soglia dei quaranta … contributi (con gli anni anagrafici sono un po’ più Carlo Carobbi è Riceravanti di quaranta) da quando avviai catore presso il Dipartila “Rubrica delle misure di campi e mento di Ingegneria delcompatibilità elettromagnetica” nel l’Informazione dell’Univer2005 (il primo articolo della Rubrica sità di Firenze dove insecomparve nel no. 1 del 2005 di T_M, gna Misure Elettroniche. sotto la direzione dell’indimenticabile Collabora come ispettore e irraggiungibile Sergio Sartori) sento tecnico con l’Ente unico di accreditamenil bisogno di “cedere il passo” ritenen- to ACCREDIA, sia per il Dipartimento do giusto, doveroso e necessario che Laboratori di Prova sia per il Dipartimenaltri, magari più qualificati ed esperti to Laboratori di Taratura. È presidente del di me (difficilmente più appassionati), SC 210/77B del CEI (Compatibilità Eletportino il loro contributo d’idee ed tromagnetica, Fenomeni in alta frequenesperienza alla Rubrica. A chi prende- za) e membro di gruppi di lavoro interrà in carico la Rubrica faccio allora un nazionali (IEC) che sviluppano e aggiorgrandissimo in bocca al lupo! nano norme di Compatibilità ElettromaRingrazio Sergio Sartori, il fondatore gnetica (EMC). Organizza e gestisce, in di T_M che non c’è più ma è presente collaborazione con altri esperti, prove nel ricordo mio come di tutti coloro valutative di misure di Compatibilità Eletche hanno avuto la fortuna di cono- tromagnetica. Nel 2015 ha ricevuto scerlo. Ringrazio Franco Docchio, dalla IEC il 1906 Award per il suo conLuciano Malgaroli, Massimo Mortari- tributo allo sviluppo delle norme EMC.


VISIONE ARTIFICIALE

s

Rubrica a cura di Giovanna Sansoni (giovanna.sansoni@unibs.it)

Sensori di visione basati su eventi I sistemi di visione dinamici

EVENT-DRIVEN VISION SENSORS The section on Artificial Vision is intended to be a “forum” for Tutto_Misure readers who wish to explore the world of components, systems, solutions for industrial vision and their applications (automation, robotics, food&beverage, quality control, biomedical). Write to Giovanna Sansoni and stimulate discussion on your favorite topics. RIASSUNTO La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori della rivista Tutto_Misure interessati a componenti, sistemi, soluzioni per la visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e sottoponetele argomenti e stimoli.

I sistemi di visione convenzionali vedono il mondo attraverso una serie d’immagini. Immagini successive contengono un’enorme quantità d’informazioni, che richiedono notevoli risorse in termini di accesso alla memoria, spazio su disco, energia e tempo computazionale. Inoltre, il tempo di esposizione del singolo pixel è lo stesso per ogni immagine, il che diventa critico in presenza di sotto-regioni molto chiare e molto scure. Recentemente è stata proposta una nuova tipologia di sensori di visione, nata proprio per ovviare a questi inconvenienti: si tratta dei sensori di visione basati su eventi, detti anche sistemi di visione dinami-

ci (DVS: Dynamic Vision Sensors). La filosofia di funzionamento prende spunto dalla modalità di acquisizione delle immagini propria della retina. Invece d’inviare intere immagini o porzioni di esse a predeterminati frame rate, vengono trasmesse le sole variazioni di contrasto osservabili al livello di ogni singolo pixel, dovute a ciò che nella scena cambia, nell’istante nel quale esse hanno luogo. Il risultato è di ottenere una sequenza di eventi con risoluzioni temporali al microsecondo, equivalenti o anche migliori delle telecamere veloci (v. T_M XVII n. 03/2015, pp. 287-289), riducendo drasticamente il consumo di potenza, i requisiti computazionali e d’immagazzinamento/gestione dei dati, e aumentando il range dinamico di ordini di grandezza, grazie alla possibilità di effettuare il processing localmente [1]. Queste caratteristiche sono raggiungibili grazie alla tecnologia realizzativa del singolo pixel, che consente di rispondere con eventi a bassissima latenza a variazioni di contrasto locali. Gli eventi sono trasmessi in modo asincrono e quasi istantaneamente su

T_M

un apposito bus, e consentono di ottenere prestazioni che, attualmente, solo le telecamere molto veloci sono in grado di offrire (ma a costi molto più alti!). Il tutto, ovviamente brevettato, è commercializzato da uno spin-off dell’Università di Zurigo e dell’ETH (www.inilabs.com) con il nome di DVS128 e s’interfaccia semplicemente mediante USB2.0 a PC o laptop. Il software è open source (jAER) e consente di catturare gli eventi ed elaborarli utilizzando le informazioni di timing a essi associate. Le applicazioni sono molteplici. Ad esempio, la ricognizione di oggetti in movimento in cattive condizioni d’illuminazione: le videocamere a tecnologia convenzionale sono troppo lente e, d’altro canto, il ricorso alle telecamere veloci richiede buone condizioni d’illuminazione. I sistemi dinamici, invece, rispondono quasi istantaneamente alle variazioni di contrasto locale, indipendentemente dai livelli d’illuminazione della scena, con alto range dinamico [2]. Le applicazioni di fluid particle tracking velocimetry: l’analisi del moto turbolento dei fluidi viene eseguita utilizzando telecamere veloci, con illuminazione a strobe, PC ad alte prestazioni e immagazzinamento di grandi quantità di dati. Il tutto può essere sostituito da un singolo sensore DVS connesso al PC e una sorgente collimata per illuminare il fluido in movimento. Ciò che viene registrato è la variazione locale di contrasto, legata al moto delle particelle del fluido, e si risolve in un ridotto flusso di dati, osservabile in tempo reale, e che consente il controllo online dei parametri del processo [3]. Le applicazioni di robotica mobile: lo sviluppo di robot che devono lavo-

N.

2/16 ƒ 129


N. 02ƒ ; 2016

n

VISIONE ARTIFICIALE

rare nel mondo reale richiede la realizzazione di facoltà percettive dei dispositivi ottenibili solo mediante algoritmi in grado di generare risposte rapide a eventi rapidi, si tratti di piccoli robot volanti, di droni, o di sistemi autonomi di guida in veicoli. Di nuovo, questi obiettivi possono essere raggiunti focalizzando l’attenzione alle variazioni della scena, locali al pixel, asincrone e veloci [4]. Lo studio di processi lenti, come, per fare un esempio in ambito medicale, lo studio dei pattern che descrivono i disturbi del sonno. Di nuovo, invece di accumulare dati relativi a lunghi periodi di osservazione dei pazienti, che oltre a richiedere notevoli risorse di memoria, richiedono moltissimo tempo per la valutazione in post-analisi, è possibile memorizzare gli eventi legati ai soli movimenti durante il periodo di sonno, riducendo il tracciato da analizzare in modo considerevole, e sostituendo alla variabile “tempo del sonno” la variabile “evento durante il sonno”, analizzabile in post-analisi in tempi ridottissimi, con risoluzione temporale al millisecondo. Le applicazioni di sorveglianza, nelle quali è necessario garantire ricognizione continua, riconoscimento di pericolo, gestione di variazioni rapide della scena, controllo di collisione sono tutti ambiti nei quali le variazioni locali della scena devono poter essere segnalate in tempo reale, in modo da attuare azioni di calcolo e di controllo decisionale rapido [5]. Il lettore interessato potrà avere maggiori informazioni, oltre che dai riferimenti bibliografici citati, anche da interessantissimi video, tutti facilmente scaricabili utilizzando parole chiave come “micro flying robots”, “dynamic vision sensors”, “event-driven vision sensors”. Ah, dimenticavo, uno dei maggiori ricercatori in questo ambito si chiama Davide Scaramuzza, e lavora all’Università di Zurigo, come responsabile del Robotics and Perception Group (http://rpg.ifi.uzh.ch). Lo potete vedere in azione nel video Youtube di cui al riferimento [5]. Sigh, a proposito di fuga dei cervelli!

RIFERIMENTI BIBLIOGRAFICI 1. A.C., Jonas Strubel, Christian Brandli, Tobi Delbruck, and Davide Scaramuzza. “Low-latency localization by active led markers tracking using a dynamic vision sensor”. In IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 891–898. Tokyo, Japan, November 2013. 2. www.ini.uzh.ch/%7Econradt/research/Pencil Balancer 3. D. Drazen, P. Lichtsteiner, P. Hafliger, T. Delbruck, A. Jensen, “Toward real-time particle tracking using an event-based dynamic vision sensor”, Experiments in Fluids, Vol. 51, 14651469, 2011. 4. http://siliconretina.ini.uzh.ch/wiki/doku.php? id=robogoalie 5. https://www.youtube.com/watch?v=KQpKQXU7 dkM


MISURE E FIDATEZZA

s M. Citterio, M. Lazzaroni, G.F. Tartarelli

L’affidabilità negli esperimenti di fisica delle particelle Parte I: La struttura e l’affidabilità

MEASUREMENT & DEPENDABILITY Elementary particle physics experiments can be thought as complex measuring instruments. Thanks to them we can measure the properties of elementary particles (as for example, their mass or lifetime) and of their interactions. The Large Hadron Collider (LHC), the most powerful proton-proton collider ever built, is successfully operating at CERN since 2009 and has reached a record center-of-mass energy of 13 TeV [1]. ATLAS and CMS [2-3] are two multi-purpose experiments built to exploit the LHC collisions. These are the two largest experiments of this kind ever built, and are the two experiments that in 2012 announced the discovery of the Higgs boson [4-5]. Aspects regarding reliability issues in the ATLAS experiment will be here summarized. RIASSUNTO Gli esperimenti di fisica delle particelle elementari possono a ragione essere ritenuti veri e propri strumenti di misura. Grazie a questi strumenti è possibile misurare le proprietà delle particelle elementari (come, per esempio, la loro massa e vita media) e le interazioni che intercorrono fra esse. Il Large Hadron Collider (LHC) – il più potente collisore protone-protone mai costruito – è operativo al CERN dal 2009 e ha raggiunto un’energia record nel centro di massa di 13 TeV [1]. I due esperimenti ATLAS e CMS [2-3], installati lungo l’anello del collisore, sono due grossi rivelatori costruiti per studiare le particelle prodotte nelle collisioni all’LHC. I due esperimenti hanno annunciato nel 2012 di aver confermato sperimentalmente l’esistenza del bosone di Higgs [4-5]. In questa memoria si cercherà d’illustrare le problematiche inerenti l’affidabilità che si possono incontrare in quest’ambito scientifico.

PREMESSA ALLA SERIE DI DUE ARTICOLI

di M. Catelani, L. Cristaldi, M. Lazzaroni

L’affidabilità dei componenti e, più in generale, dei sistemi elettronici è una caratteristica di notevole importanza in moltissimi ambiti scientifici e tecnologici. Nei casi in cui si ha a che fare con sistemi più o meno complessi, si

ha anche a che fare con domande quali: per quanto tempo questo dispositivo è in grado di funzionare, quali sono le caratteristiche ambientali che possono accelerare i meccanismi di guasto, cosa accade quando un componente o un sistema smette di funzionare, ecc. Questi sono alcuni dei tipici quesiti che il progettista e/o l’utilizzatore sovente si pongono. Non sfugge a questa logica il mondo della ricerca scientifica dove, sempre più spesso, il cammino verso la scoperta e l’innovazione è possibile grazie a notevoli investimenti in apparati complessi sviluppati utilizzando tecnologie e scelte progettuali di frontiera. Gli esperimenti di fisica delle particelle elementari sono un chiaro esempio

T_M

(che potremmo definire estremo) dello scenario appena descritto. Questi esperimenti sono resi possibili grazie alla realizzazione di sistemi particolarmente complessi da progettare, realizzare e, infine, manutenere. La complessità di questi esperimenti è tale per cui la probabilità di guasto e/o malfunzionamento può rivelarsi fatale se non opportunamente previsti e gestiti già in fase di progettazione e realizzazione del sistema. Un esempio tipico è l’esperimento ATLAS al CERN di Ginevra. A tal proposito, nell’ambito di questa rubrica si è ritenuto interessante presentare due memorie che hanno per oggetto la descrizione dell’esperimento con particolare riguardo alle problematiche inerenti l’affidabilità, la diagnostica (particolarmente importante quando i sistemi sono assai complessi) e la manutenzione, altro aspetto che ha notevole impatto sull’affidabilità. Nella prima di queste memorie, pubblicata su questo numero di T_M, viene descritto in sintesi l’esperimento e le situazioni che rischiano di modificare la vita attesa dei dispositivi presenti. La seconda memoria, che verrà pubblicata su un successivo fascicolo di T_M, sarà dedicata alla diagnostica dell’intero apparato sperimentale. Nel caso specifico, il sistema diagnostico che verrà presentato è nato con l’obiettivo di fornire un quadro completo di tutte le funzioni di sistema, in grado d’identificare funzionamenti anche non a specifica del sistema stesso.

Istituto Nazionale di Fisica Nucleare INFN mauro.citterio@mi.infn.it massimo.lazzaroni@unimi.it francesco.tartarelli@mi.infn.it

N.

2/16 ƒ 131


N. 02ƒ ; 2016

s

MISURE E FIDATEZZA

STRUTTURA DELL’ESPERIMENTO ATLAS

Le particelle elementari di maggior interesse a LHC hanno generalmente una vita media assai breve (per esempio, il bosone di Higgs ha una vita media di 10-22 s [4-5]), e decadono non appena sono generate nella collisione protone-protone. A causa di ciò non possono essere osservate direttamente, ma solo per mezzo di particelle stabili (fotoni, elettroni, muoni e pioni) prodotte durante il processo di decadimento. L’esperimento ATLAS consiste di una serie di strati di sensori opportunamente installati intorno al punto in cui avviene la collisione, con lo scopo di misurare la quantità di moto, l’energia e la direzione di queste particelle [2]. Tali sensori sono installati in una regione a geometria cilindrica intorno al fascio e in due regioni terminali a forma di disco situate ai due estremi della zona cilindrica appena citata in modo da coprire, per quanto possibile, nel miglior modo l’intera regione angolare attorno al punto d’interazione. In ATLAS (Fig. 1), per esempio, i layer più interni sono costituiti da sensori al silicio (con geometria a pixel e a microstrip) e sono seguiti da un rivelatore a tubi a deriva (“drift tube”) capace anche di rivelare la radiazione di transizione.

Figura 1 – L’esperimento ATLAS e i suoi sottosistemi

Questi rivelatori sono situati entro un grande solenoide di circa 2,5 m di diametro e di 5,8 m di lunghezza in grado di produrre un campo magnetico di 2 T. Le particelle cariche ionizzano il materiale con cui sono costruiti i sensori creando un segnale elettrico che può essere opportunamente rilevato. I segnali rilevati nei diversi strati consentono in tal modo di ricostruire la traiettoria della particella. Il campo magnetico devia le traiettorie e rende possibile la misura della carica e della quantità di moto della particella. Al di fuori di questi sensori sono installati i calorimetri che misurano l’energia delle particelle per assorbimento totale nel materiale di cui sono composti. Ancora più esternamente si trovano le camere per la rivelazione dei muoni.


N. 02ƒ ;2016 ASPETTI CHE MINANO L’AFFIDABILITÀ

Molti aspetti e/o situazioni minano, o comunque comportano un notevole detrimento dell’affidabilità delle apparecchiature presenti in un esperimento di fisica delle particelle elementari. Si citano i seguenti. Aspetti legati alla presenza di radiazioni: le radiazioni danneggiano i rivelatori stessi nonché le apparecchiature elettroniche che costituiscono una parte importante dell’esperimento. I danni possono derivare dal fatto che le particelle create durante l’interazione protone-protone rappresentano un fondo di radiazione ionizzante. Notevole è, inoltre, la presenza di particelle non ionizzanti prodotte dall’urto di queste particelle con i rivelatori stessi e/o con le strutture di supporto dell’esperimento. Entrambe le tipologie possono, per differenti effetti, danneggiare i dispositivi elettronici minando l’affidabilità e la vita media degli stessi. I problemi possono anche essere di diversa natura, in quanto il fenomeno appena descritto può portare anche a commutazione di stato delle celle tipiche dell’elettronica digitale. Aspetti legati alla presenza del campo magnetico: la presenza di un ingente campo magnetico (sino a 2 T in ATLAS e 4 T in CMS) pone notevoli problemi nella scelta dei componenti commerciali e nel progetto di componenti e circuiti.

A tale scopo è bene sottolineare che l’elettronica che equipaggia l’esperimento è talvolta così spinta da aver richiesto in passato (e oggi per l’elettronica dei futuri upgrade) lo sviluppo di circuiti integrati ad hoc (custom). La presenza del campo magnetico pone notevoli problemi nelle sezioni di alimentazione e distribuzione della potenza. Nella progettazione degli alimentatori (tipo mainframe) o dei cosiddetti Point-of-Load (PoL – alimentatori a bordo scheda che hanno come scopo l’alimentazione di piccole parti a bordo di una scheda elettronica) si ricorre, infatti, spesso all’uso di trasformatori e induttanze che, come è noto, soffrono della presenza dei campi magnetici. La presenza di campi magnetici tende pertanto a essere una causa di diminuzione del tempo di vita media di alcuni componenti elettronici. Aspetti legati alla temperatura: uno dei fattori d’influenza i cui effetti riguardano i materiali, i dispositivi e i processi è la temperatura. Dal momento che molti processi, quali le reazioni chimiche e la diffusione di gas (tanto per citare un paio di esempi), subiscono accelerazioni all’aumentare della temperatura, è possibile definire una sorta di modello di validità generale. Nel caso dei componenti elettronici la formulazione di un modello analitico

s

Questi sono deflessi per mezzo di un sistema di magneti costituito da tre grossi magneti toroidali in aria, ognuno consistente di otto avvolgimenti superconduttori. Complessivamente ATLAS è lungo 44 m, ha un diametro di 25 m e un peso di 7.000 tonnellate. I canali di misura sono circa 100.000.000. L’intero sistema occupa una caverna appositamente realizzata avente dimensioni di 53 m x 35 m x 30 m, a 92 m sotto il livello del suolo.

MISURE E FIDATEZZA

in grado di descrivere le variazioni del tasso di guasto è facilitata dal fatto che, se da un lato è possibile identificare nella temperatura un fattore d’influenza che interessa diverse famiglie di componenti, vi è dall’altro il vantaggio di poter contare su una mole consistente e coerente di dati. A tal proposito, si ricorda che i componenti elettronici vengono prodotti in quantità elevate, e con un elevato grado di unificazione. Nel caso specifico non c’è una indicazione a far lavorare i componenti a una temperatura elevata, ma ciò può essere talvolta vero in situazioni, che nel caso in esame si manifestano sicuramente, dove la concentrazione di apparecchiature elettroniche è a un tale livello di affollamento che i dispositivi tendono a scaldarsi vicendevolmente. La dissipazione è un fattore molto importante e talvolta assai difficile, visto dove sono installati i dispositivi e considerata anche la difficoltà ad assicurare un’efficiente dissipazione di calore. La dissipazione del calore avviene tipicamente mediante dissipatori a liquido, il che comporta una complicazione aggiuntiva, non solo per la necessità di prevedere i sistemi di tubazioni, ma anche per il fatto che si deve prevedere che in caso di guasto del sistema idraulico non ci sia spargimento di liquido in un ambiente affollato di circuiti elettronici. In definitiva, la temperatura di esercizio dei dispositivi deve essere tenuta in debito conto durante la fase di progettazione ma anche di esercizio.

Figura 2 – Calendario di LHC dal 2015 al 2035 [6]

Aspetti legati alla scarsa accessibilità: la Fig. 2 mostra il calendario operativo di LHC dal 2015 al 2035 [6]. Sebbene i tempi indicati in questo calendario possono subire modifiche in itinere, come per altro è già accaduto in passato, emerge chiaramente come si evolve-

T_M ƒ 133


ranno nel tempo le campagne di misura e di fermo macchina. Lo schema di lavoro è chiaro. LHC alterna periodi di cosiddetta presa dati (data taking), chiamati RUN 1, RUN 2 ecc. ad altri periodi in cui la macchina è ferma per manutenzione o per operazioni di miglioramento (detti upgrade). Tali periodi sono chiamati in Fig. 2 di Long Shutdown e sono indicati con LS1, LS2 ecc. La fase 1 di LHC si estende sino a LS3. A quel punto è pianificato un sostanziale upgrade che porterà LHC ad avere un grosso incremento di luminosità. LHC è fermata anche in occasione di periodi più brevi (circa una settimana), detti Technical Stops (TS), durante i periodi di data taking e in concomitanza dell’inizio/fine di ogni anno per il cosiddetto Year-End Technical Stops (YETS). L’accesso all’elettronica (ma anche, per esempio, alla meccanica) che equipaggia l’esperimento sia per questioni di manutenzione sia per gli eventuali miglioramenti (upgrade) è possibile solo entro le finestre temporali previste e illustrate in Fig. 2. Accessi di qualche ora all’area dell’esperimento durante il funzionamento sono possibili solo quando LHC viene fermato per il sopraggiungere di problemi. In questo caso è possibile, al più, sostituire qualche modulo od operare sull’elettronica di più facile accesso (questo è il tipico caso di alcune schede posizionate in rack localizzati sulle pareti della caverna). Interventi più lunghi e, soprattutto, pianificabili in anticipo, sono possibili, invece, durante i periodi TS e YETS. Gli interventi che comportano un mi glioramento delle prestazioni (upgrade) sono generalmente più complicati e, a causa del tempo necessario, sono possibili solo durante i periodi di LS. Ecco perché si fa un largo uso della ridondanza e del sovradimensionamento: un guasto singolo in un circuito (che è poi un guasto che mina una funzione ben specifica) non pregiudica nell’immediato il funzionamento dell’intero esperimento. L’eventuale intervento di manutenzione può esse-

T_M ƒ 134

N. 02ƒ ; 2016

n

MISURE E FIDATEZZA

re pianificato al successivo periodo di accesso alla macchina. CONCLUSIONI

In questa memoria, dopo una piccola premessa di ordine generale circa gli esperimenti di fisica delle particelle elementari, è stata illustrata a titolo esemplificativo la struttura dell’esperimento ATLAS installato e operativo presso il CERN di Ginevra. Successivamente sono stati analizzati, sebbene in forma succinta e qualitativa, gli effetti della presenza delle radiazioni, ionizzanti e non, del campo magnetico e dell’ambiente sull’affidabilità dei circuiti elettronici presenti. In una prossima memoria si daranno alcuni dettagli quantitativi su quanto già qui introdotto, e verrà illustrato l’approccio adottato in ATLAS per il monitoraggio e la diagnostica sull’intero esperimento, cosa, come è facile intuire, di notevole difficoltà, se non altro per il gran numero di dispositivi e situazioni possibili. RIFERIMENTI BIBLIOGRAFICI 1. Lyndon Evans and Philip Briant (editors), “LHC Machine”, JINST 3, S08001, 2008. 2. ATLAS Collaboration, “The ATLAS Experiment at the CERN Large Hadron Collider”, JINST 3, S08003, 2008, pp. 1-437. 3. CMS Collaboration, “The CMS experiment at the CERN LHC”, JINST 3, S08004, 2008, pp. 1-384. 4. ATLAS Collaboration, “Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC”, Phys. Lett. B 716, 2012, 1. 5. CMS Collaboration, “Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC”, Phys. Lett. B 716, 2012, 30. 6. http://lhc-commissioning.web. cern.ch/lhc-commissioning

Mauro Citterio si è laureato in Fisica all’Università degli Studi di Milano nel 1987. Dal 1991 al 1999 ha lavorato presso la Instrumentation Division del Brookhaven National Laboratory (BNL), Upton, NY. Dal 1999 è all’Istituto Nazionale di Fisica Nucleare dove, attualmente, ricopre l’incarico di Dirigente Tecnologo. I suoi interessi sono: progettazione elettronica a basso rumore, elettronica resistente alle radiazioni, applicazioni criogeniche, caratterizzazione dei semiconduttori. Ha partecipato e partecipa a esperimenti di fisica delle alte energie negli Stati Uniti e al CERN di Ginevra. È autore di numerose memorie scientifiche.

Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Fisica dell’Università degli Studi di Milano e, dal 2013, associato all’Istituto Nazionale di Fisica Nucleare (INFN). La sua attività di ricerca è rivolta alle misure per le applicazioni industriali, per la diagnostica dei sistemi industriali, per l’Affidabilità e il Controllo della Qualità. È segretario del CT 85/66 – Strumenti di misura delle grandezze elettromagnetiche, Strumentazione di misura, di controllo e da Laboratorio e membro del CT 56 – Affidabilità del CEI.

Francesco Tartarelli è Primo Ricercatore dell’Istituto Nazionale di Fisica Nucleare (INFN). La sua attività di ricerca si svolge nell’ambito della fisica delle particelle elementari, studiando le proprietà e le interazioni dei costituenti fondamentali della materia tramite esperimenti con acceleratori di particelle. Ha lavorato nella Collaborazione CDF al Tevatron del Fermilab (USA) e successivamente nella Collaborazione ATLAS all’LHC del CERN. Dal 2012 è responsabile locale del gruppo ATLAS di Milano.


TECNOLOGIE IN CAMPO

s

Rubrica a cura di Massimo Mortarino (mmortarino@affidabilita.eu)

Posizionamenti e controlli in produzione Posizionamenti di precisione in micro-produzione e controlli in produzione di ganasce freno

TECHNOLOGIES IN ACTION The section “Technologies in action” presents a number of recent case studies of industries or institutions gaining profit from the latest innovation in measuring instruments and systems. RIASSUNTO La Rubrica “Tecnologie in campo” presenta un compendio di casi di studio di Aziende e/o istituzioni che hanno tratto valore aggiunto dalla moderna strumentazione di misura. POSIZIONAMENTI DI PRECISIONE siano anche il più compatti possibile, per poter essere integrati nelle unità NELLA MICRO-PRODUZIONE

di Gianluca Poli (Physik Instrumente) g.poli@pi.ws Cos’hanno in comune componenti ottici e fibre di vetro nella fotonica, dispositivi mobili e orologi da polso di alta qualità? Più di quanto si potrebbe pensare a prima vista: l’obiettivo comune è quello di riuscire a posizionare con elevata precisione i singoli componenti durante il montaggio, nella maggior parte dei casi su più assi. Durante l’assemblaggio, non solo è necessario lavorare con la massima precisione e in uno spazio molto ristretto, ma è anche importante che le sonde di misura, i sistemi e le ottiche per le telecamere siano posizionati correttamente, al fine di assicurare una garanzia di qualità dopo il montaggio. Oggi la micro-produzione richiede alta precisione, pertanto sono necessari sistemi di posizionamento che, oltre a garantire elevata precisione,

Figura 1 – Grazie alla sua elevata stabilità, Hexapod di PI può essere montato in qualsiasi direzione (Immagine di PI)

tante, sia per l’assemblaggio sia per la garanzia di qualità. Posizionamento di precisione fino a 6 gradi di libertà L’esperienza dimostra che i sistemi a cinematica parallela sono ideali in queste circostanze: come gli Hexapod, sistemi a cinematica parallela a sei gradi di libertà, che garantiscono un esatto posizionamento nella gamma micrometrica e sub-micrometrica. Grazie alla loro elevata rigidità e stabilità, gli Hexapod hanno un’eccellente risposta dinamica e un’ottima capacità di posizionare il carico, come ad esempio componenti, sistemi per le telecamere o fibre, su sei assi nello spazio, tre lineari e tre rotativi.

di produzione. Esempi possono essere trovati in molti settori: durante la produzione di dispositivi per telefonia mobile, quando alcuni componenti del dispositivo stesso devono essere allineati e tenuti in posizione per l’incollaggio; per la regolazione delle lenti ottiche in obiettivi, binocoli o anche sui sensori delle telecamere, come quelli utilizzati nelle fotocamere retrovisive dei veicoli; in fotonica, quando le fibre devono essere perfettamente posizionate per realizzare il cosiddetto “first light”. Se questi flussi di lavoro sono compleFigura 3 – Tutti gli attuatori agiscono tamente o parzialmente automatizza- direttamente sulla stessa piattaforma in sistemi ti, il processo dipende da segnali pro- a cinematica parallela: non è quindi possibile errori di guida come accadrebbe venienti da sensori esterni, telecamere accumulare per i sistemi “impilati”, e ciò aumenta o soluzioni di visione artificiale. Per- notevolmente la precisione (Immagine di PI) tanto, dovrebbe essere possibile integrare facilmente un sistema di posi- Tutte le unità agiscono su un’unica zionamento nel sistema di automazio- piattaforma mobile, che garantisce ne di livello superiore; requisito impor- evidenti vantaggi rispetto ai sistemi seriali o impilati: maggiore precisione sul percorso, maggiore ripetibilità e planarità, minore massa in movimento e quindi maggiore dinamicità per tutti gli assi in movimento. Il punto di pivot può inoltre essere definito liberamente in base alle esigenze. Un tipico rappresentante di questa categoria di prodotti è l’Hexapod miniaturizzato H-811, che fa parte della vasta gamma tecnologica di PI Figura 2 – (immagine di PI) (Physik Instrumente).

T_M

N.

2/16 ƒ 135


N. 02ƒ ; 2016

Figura 4 – Con corse lineari fino a 34 mm, corse rotazionali fino a 42° e una risoluzione di 0,04 µm, questo Hexapod miniaturizzato può essere caricato fino a 5 kg ed è adatto per un ampio spettro di applicazioni nel microassemblaggio e nella garanzia di qualità (Immagine di PI)

Con un movimento minimo incrementale di 0,2 µm e una ripetibilità di ±0,1 µm, questo sistema di posizionamento è anche in grado di raggiungere velocità fino a 10 mm/s ed è disponibile in versioni compatibili con il vuoto. Inoltre i corrispondenti algoritmi di scansione per la regolazione della fibra ottica

T_M ƒ 136

sono già integrati, offrendo grandi vantaggi nel campo della fotonica. Grazie alla loro struttura a cinematica parallela, gli Hexapod richiedono un controllo speciale, ma ciò non crea problemi, poiché gli strumenti vengono forniti con un controllore digitale ad alte prestazioni. Il controllore digitale è in grado di pilo-

Figura 5 – Il controllore digitale esegue tutti i calcoli delle coordinate cartesiane inserite dall’utente trasformando le posizioni di destinazione cartesiane in controllo di ogni singola unità (Immagine di PI)

tare, oltre agli assi dell’Hexapod, due ulteriori assi, come attuatori lineari per il posizionamento su lunghe corse o per il movimento a 360° di un rotatore. È inoltre possibile eseguire un semplice collegamento di un PLC di livello superiore. Gli Hexapod possono potenzialmente essere integrati in qualsiasi sistema di automazione e comunicare con il controllore, ad esempio tramite EtherCAT. Questo specifica le posizioni o le traiettorie di destinazione come coordinate cartesiane nello spazio e riporta le posizioni reali all’interfaccia fieldbus. Il controllore effettua tutti gli altri calcoli e agisce su un drive intelligente rispetto al PLC. SpaceFAB – Sistemi di posizionamento a sei assi piccoli come il palmo di una mano Il principio di cinematica parallela usato per gli Hexapod può essere


N. 02ƒ ;2016 saputo trasformarsi costantemente per assecondare le nuove richieste dei propri clienti e di un mercato sempre più esteso. Da circa vent’anni il Gruppo Bonetto è entrato pienamente nel campo dell’automazione, in particolare per il settore automotive: dalla produzione di linee di finitura per pastiglie freno alle macchine speciali per l’assemblaggio di componenti della pompa gasolio e della pompa del vuoto, del gruppo frenante e di altre parti del veicolo. Oggi, il Gruppo si occupa di tutte le fasi che vanno dalla progettazione meccanica delle macchine speciali costruite insieme al cliente alla gestione delle aziende esterne che eseguono le lavorazioni meccaniche, all’asFigura 6 – (Immagine di PI) semblaggio dei componenti, all’installazione e alla messa in funzione delle Con una risoluzione di posizione macchine. di 2 nm, questi sistemi possono inoltre raggiungere corse fino a 13 mm x 13 mm x 10 mm e un movimento angolare sugli assi rotazionali di oltre 10°. Il design è basato su assi lineari di posizionamento combinati e può essere facilmente e velocemente adattato alle esigenze applicative, anche per l’uso in ultra-alto vuoto. I Figura 7 motori piezo di tipo “Inertia Drives” della serie Q-Motion sono la forza trainante: caratterizzati da un design Si.El., la società che rappresenta il miniaturizzato, offrono un’elevata Dipartimento Elettrico e Software del risoluzione su corse teoricamente illi- Gruppo Bonetto, opera da oltre 15 mitate, sono dotati di un sistema di anni nei più svariati settori dell’imauto-bloccaggio e garantiscono un piantistica elettrica, automazione e ottimo rapporto qualità-prezzo. A servizi per l’energia come fornitore seconda della versione, vengono fatti d’impianti e servizi. funzionare a una frequenza di 20 kHz “Si.El. sviluppa la progettazione elete possono raggiungere velocità fino a trica e del software, la costruzione dei 10 mm/s. quadri, fino alla messa in funzione e alla consegna ‘chiavi in mano’ al cliente”, riferisce Stefano Fenoglio, SISTEMA INNOVATIVO responsabile SW del Gruppo e della DI CONTROLLO IN PRODUZIONE messa in funzione degli impianti di Si.El. Recentemente, Si.El. ha portato DI GANASCE FRENO a termine la realizzazione di una Quattro telecamere per i con- nuova macchina di finitura delle trolli metrici e le verifiche quali- ganasce freno per veicoli industriali. tative in una linea robotizzata “Da molti anni siamo presenti nel setFondata nel 1929, Bonetto Automa- tore dei materiali di attrito e delle zioni è nata come costruttore e manu- ganasce in particolare”, sottolinea tentore di macchine agricole e, negli Fenoglio. “Il cliente ci ha richiesto una anni, l’azienda di Pinerolo (TO) ha macchina di rettifica delle ganasce

s

applicato anche altrove, per esempio sugli SpaceFAB, basati su tre coppie di assi XY che posizionano una piattaforma utilizzando tre gambe di lunghezza costante, rendendo possibile corse veloci e precise a sei assi. I prodotti della serie SpaceFAB, molto piccoli, possono essere facilmente posizionati sul palmo di una mano (Fig. 6).

TECNOLOGIE IN CAMPO

che, provenendo dagli stampi, non hanno ancora una forma perfettamente circolare. Deve quindi essere eseguita una lavorazione di rettifica per regolare la circonferenza della ganascia, seguita dal controllo qualità del pezzo”. Una macchina con due tavole La prima parte della macchina comprende due grosse mole e un sistema robotizzato, che carica le ganasce da un alimentatore. Infatti le ganasce vengono ricevute impilate a gruppi di 30-40 unità su un sistema di trasporto, per offrire un buffer di lavoro all’operatore. Il robot carica quindi la ganascia sulla prima tavola rotante, che a sua volta la porta sotto la prima mola, dove viene eseguita una sgrossatura su tutta la sua circonferenza.

Figura 8 – La macchina comprende due grosse mole e un sistema robotizzato che carica le ganasce da un alimentatore

Successivamente la tavola ruota e porta la ganascia sotto la seconda mola, che esegue una finitura superficiale finalizzata a ottenere il diametro richiesto. A questo punto il robot preleva la ganascia e la sposta sulla seconda tavola rotante, per poter eseguire una serie di controlli. In particolare, le prime due postazioni, di controllo metrico, misurano tramite tastatori alcune quote meccaniche del pezzo (raggio assoluto, raggio polare, parallelismo, ecc.). Nelle due postazioni successive sono state invece installati sistemi di visione Keyence, che verificano una serie di caratteristiche di qualità del prodotto in base alle esigenze del cliente: la

T_M ƒ 137


N. 02ƒ ; 2016

n

TECNOLOGIE IN CAMPO

geometria di tutti i fori e delle asole, l’altezza e la larghezza delle alette della ganascia, la marcatura sul lining con distinzione del colore blu/bianco/rosso (tre tipi di ganasce), il punto di attacco fascia e il punto di attacco lining, la presenza e l’area tempra, fino alla presenza della luce fascia/costa. In particolare, la presenza di luce fra due lamiere saldate è motivo di scarto del pezzo.

5 MP e una telecamera da 2 MP Front light con quattro barre LED e un backlight per la verifica di geometrie, fori e asole, il controllo dimensionale delle alette, del punto d’attacco fascia e del punto d’attacco lining in backlight e la verifica presenza e area tempra. Nella seconda stazione di controllo sono presenti due telecamere da 2 MP, un sensore di visione IVG e due backlight per la verifica presenza luce fascia/costa e il controllo presenza e colore marcatura.

Figura 9

Figura 11 – Due telecamere da 2 MP Keyence, un sensore di visione IVG e due backlight permettono di verificare la presenza luce fascia/costa e il controllo presenza e colore marcatura

Figura 10 – Due controllori Keyence governano in automatico le 4 telecamere e le 8 luci delle due postazioni

“I dispositivi Keyence sono stati programmati in modo da eseguire tutti i controlli specifici sul pezzo che viene disposto sulla tavola dal robot, cambiando la combinazione di misure e controlli quando si presenta un pezzo di tipo diverso”, spiega Fenoglio. “Dopo questi controlli, la macchina scarta automaticamente i pezzi fuori tolleranza”. La configurazione della macchina prevede quindi, nella prima stazione di controllo, una telecamera Keyence da

T_M ƒ 138

La macchina utilizza l’algoritmo ShapeTrax2 (ricerca della forma geometrica) per l’ispezione delle macchie, la funzione di tendenza posizione bordi e la funzione di tendenza larghezza bordi. La misurazione geometrica dimensionale, che richiede l’uso di molti strumenti e calcoli complessi, può essere impostata con un clic. Data la semplicità delle impostazioni, lo strumento geometrico/dimensionale non solo riduce le ore di lavoro ma consente di portare grandi vantaggi anche dal punto di vista operativo. Infine la correzione dell’ombreggiatura in tempo reale corregge le gradazioni cromatiche nell’area d’ispezione in tempo reale.

La generazione automatica del manuale per l’utente completa la configurazione. Una scelta naturale “Keyence è un nostro fornitore storico, soprattutto nel settore della sensoristica”, afferma Fenoglio, “al quale abbiamo deciso di affidarci dopo aver ottenuto efficaci risposte in termini sia tecnici sia commerciali. Il service Keyence ci segue, infatti, dalla fase di campionatura iniziale alla messa in funzione presso il nostro stabilimento, alla consegna della macchina al cliente, alla messa in funzione finale presso il cliente. Anche la nostra richiesta di variazione in corsa del progetto ha ricevuto una risposta estremamente tempestiva, permettendo una consegna puntuale al cliente finale”. Il sistema di visione è unico, ma utilizza più telecamere per coprire tutta l’area di lavoro. “Non era possibile utilizzare una sola postazione di lavoro, perché i diversi controlli richiedevano condizioni diverse e non era possibile alloggiare nella stessa postazione più telecamere, con ottiche così differenti. Quindi le 14 prove da eseguire sono state assegnate a due postazioni diverse”, spiega Fenoglio, “impegnando 4 telecamere. Nella prima postazione ci sono 2 telecamere e un sistema di visione IVG per alcune delle prove, oltre al controllore che gestisce l’illuminazione frontale e la retroilluminazione. Anche nella seconda postazione ci sono 2 telecamere, per avere un campo di lavoro molto più grande grazie a 2 ottiche. Oltre al sensore di visione IVG, vi sono quindi due controllori che governano in automatico le 4 telecamere e le 8 luci delle due postazioni. In particolare, un controllore gestisce una telecamera e il secondo controllore le altre tre. È stato possibile montare l’IVG in mezzo a due ottiche solo grazie alle sue dimensioni ridotte: dovendo inquadrare la macchia di colore al centro del pezzo, non disturba il funzionamento delle telecamere”. Per ulteriori informazioni: www.keyence.it/solutions/ case-studies/bonetto.jsp


METROLOGIA GENERALE

s

Rubrica a cura di Luca Mari (lmari@liuc.it)

Definizione del misurando e incertezza di definizione Un’introduzione

GENERAL METROLOGY In this permanent section of the Journal our colleague and friend Luca Mari, world-recognized expert in fundamental metrology and member of several International Committees, informs the readers on the new development of the fundamental norms and documents of interest for all metrologists and measurement experts. Do not hesitate to contact him! RIASSUNTO In questa Rubrica permanente il collega e amico Luca Mari, internazionalmente riconosciuto quale esperto di metrologia fondamentale e membro di numerosi tavoli di lavoro per la redazione di Norme, informa i lettori sui più recenti temi d’interesse e sugli sviluppi di Norme e Documenti. Scrivete a Luca per commentare i suoi articoli e per proporre ulteriori temi di discussione! Ai fondamenti della misurazione sta un numero relativamente limitato di entità interdefinite, così da costituire un cluster in cui ogni componente dipende più o meno direttamente da ogni altra. Si spiegano così i diversi “punti di vista” sulla misurazione (così li chiama il Vocabolario Internazionale di Metrologia – VIM, ben traducendo l’inglese “approaches”: con un po’ di enfasi li si potrebbe considerare paradigmi nel senso di T.S. Kuhn), la cui compresenza rende a volte difficile la comunicazione appunto sulle questioni metrologiche di fondo: cos’è un valore di grandezza? Ha senso parlare di valor vero, e nel caso cos’è un valor vero? Errore e incertezza sono compatibili e possibilmente compresenti, o alternativi? L’accuratezza è una caratteristica puramente qualitativa o può essere valutata numericamente? E così via. Negli ultimi decenni intorno all’incertezza di misura si è costituito un cluster, che il VIM chiama “punto di vista basato sull’incertezza” (uncertainty approach), “che ha reso necessario

riconsiderare alcuni dei concetti” per come intesi in precedenza, e tra questi in particolare quello di valor vero di una grandezza (citazioni dall’Introduzione del VIM). Schematicamente, secondo il punto di vista tradizionale ogni grandezza individuale (come la lunghezza della penna che è sul mio tavolo in questo momento) ha un valore numerico – il rapporto tra la grandezza individuale stessa e l’unità di misura scelta – che solo a causa di errori la misurazione non riesce a determinare. Il fatto che la media campionaria sia uno stimatore non distorto del valore atteso della distribuzione da cui si suppone che il campione sia stato ottenuto fornisce una giustificazione matematica di questo “punto di vista basato sull’errore” (error approach): in assenza di errori sistematici, la media delle misure converge al valore della grandezza misurata, che in questa prospettiva ha dunque senso chiamare “valor vero”. Questo punto di vista ha il merito di assumere una metafisica forte e semplice, e perciò rassicurante, secondo cui le grandezze individuali e quindi i loro rapporti numerici sono dati (“i numeri sono nel mondo”), e scopo della misurazione è di scoprire i se-

T_M

condi interagendo con le prime. Il fatto poi che tali valori veri e le loro stime siano rapporti numerici, e dunque numeri razionali, è un ulteriore elemento che rende attraente questo punto di vista, dato che rende applicabili alle misure i modelli matematici usuali, che operano su numeri e non su intervalli, distribuzioni di probabilità o sottoinsiemi sfumati, il cui trattamento analitico non è sempre banale e perciò sempre più frequentemente sostituito da uno numerico (Montecarlo ecc.: anche questo potrebbe essere considerato un cambiamento paradigmatico “alla Kuhn”). Non è questo il contesto per discutere le ragioni che hanno portato a mettere in discussione il “punto di vista basato sull’errore”, ma è un fatto che ormai da un po’ di anni anche documenti ufficiali come il citato VIM e la Guida all’Espressione dell’Incertezza di Misura (GUM) ammettono che tale punto di vista potrebbe essere da ripensare e aggiornare, se non proprio da sostituire. Ma qual è l’elemento fondamentale di discrimine tra i due “punti di vista”? È proprio la distinzione tra errore e incertezza, come sembra suggerire la scelta terminologica (error approach, uncertainty approach) del VIM? E quindi errore e incertezza sono incompatibili, così che descrivendo risultati di misura in termini di errore l’incertezza non può avere alcun ruolo, e viceversa? O almeno in qualche situazione il concetto di errore di misura rimane sensato anche in un contesto orientato a valutare incertezze, e in particolare errori di misura possono essere cause d’incertezza di misura? La domanda non ha una risposta ovvia, anche perché il concetto stesso d’incertezza di misura ha avuto (e sta tuttora avendo?) un’evoluzione. Nella prima edizione del VIM (pubblicata

N.

2/16 ƒ 139


N. 02ƒ ; 2016

s

METROLOGIA GENERALE

nel 1984) era definito come “una stima che caratterizza l’ampiezza dell’intervallo dei valori che include il valor vero del misurando” (an estimate characterizing the range of values within which the true value of a measurand lies), mentre ora, nell’attuale, terza, edizione (pubblicata nel 2007) è definito come “parametro non negativo che caratterizza la dispersione dei valori che sono attribuiti a un misurando, sulla base delle informazioni utilizzate” (non-negative parameter characterizing the dispersion of the quantity values being attributed to a measurand, based on the information used). Come si vede, nel frattempo il riferimento al valor vero del misurando è scomparso… Ne dovremmo concludere che il cambiamento tra i “punti di vista” passa per una nuova interpretazione del concetto di valor vero, o perfino per il passaggio da accettazione a rifiuto dell’esistenza dei valori veri (non della loro conoscibilità, su cui pare esserci una certa convergenza: se anche i valori veri esistono non sarebbero comunque conoscibili, come argomenta nel VIM la Nota 1 alla definizione di valor vero di una grandezza)? Anche questa è un’ipotesi interessante, e che meriterebbe un’analisi approfondita. Propongo però un’altra posizione qui: i due “punti di vista” si distinguono fondamentalmente per il diverso modo che hanno d’interpretare l’attività di descrizione della grandezza individuale a cui si attribuisce il risultato di misura. Non è una novità, naturalmente, che si riconosca che ci può essere una differenza tra la grandezza individuale che è stata effettivamente misurata e quella a cui si attribuisce il risultato di misura: tale differenza può dipendere in particolare da una differenza tra la grandezza individuale con cui lo strumento di misura ha interagito e quella con cui si supponeva che avrebbe interagito. Riprendendo e adattando un esempio della GUM (D.3.2 e seguenti), si potrebbe essere interessati a misurare lo spessore di un certo foglio metallico. Riconoscendo la dipendenza dello spessore dalla temperatura, si decide che il misurando è lo spessore del foglio a 20 °C. Potrebbe però poi accadere che per qualche motivo la misurazione si realizzi applicando al foglio un micrometro quando la temperatura è diversa. In questo modo, anche se l’informazione prodotta nella realizzazione empirica della misurazione fosse perfettamente corretta, rimarrebbe comunque nel risultato quello che tradizionalmente si chiamerebbe un errore sistematico, che infatti sarebbe riducibile non ripetendo la misurazione ma solo introducendo una correzione nel calcolo nel caso in cui la differenza di temperature fosse nota. Non pare davvero così importante se in questa situazione ciò che si corregge sia un errore o – come lo chiama il VIM – un effetto sistematico: sia la GUM sia il VIM trattano di correzioni, e non sono proprio gli errori che si correggono? In questo caso la distinzione tra


N. 02ƒ ; 2016

n

METROLOGIA GENERALE

effetto ed errore potrebbe essere solo lessicale. Piuttosto, la questione interessante che emerge da questo semplice esempio è che non necessariamente il misurando è la grandezza individuale con cui lo strumento di misura interagisce, e ciò dunque non solo nel caso dei metodi di misura cosiddetti “indiretti” (concetto definito dalla norma IEC 60050, 311-02-02, consultabile da www.electropedia.org): lo strumento di misura non determina il misurando, o per lo meno in generale non lo determina completamente, perché anche una volta che lo strumento di misura è stato scelto, il misurando è deciso, non è dato. Potrebbe essere un’ovvietà, considerando che la misurazione è un processo di produzione che si progetta e realizza con una finalità, ma se confrontiamo le definizioni di “misurando” proposte nel corso del tempo dal VIM: – VIM1 e VIM2: “grandezza individuale soggetta a misurazione” (VIM1: a quantity subjected to measurement; VIM2: particular quantity subject to measurement); – VIM3: “grandezza individuale che si intende misurare” (quantity intended to be measured), possiamo constatare come la nuova definizione rimuova l’ambiguità: il misurando, cioè la grandezza individuale a cui si attribuisce il risultato di misura, è la grandezza che si intende misurare. A mio parere, questo riferimento esplicito alle intenzioni è un elemento fondamentale nel percorso di evoluzione, o rivoluzione che sia, dei “punti di vista” sulla misurazione: secondo l’interpretazione attuale, il misurando è descritto a partire dalle intenzioni del soggetto che misura. Si noti bene: si sta sostenendo che ciò che dipende da intenzioni è il misurando, non il suo valore, e quindi la grandezza individuale che si sceglie di misurare, non il risultato che si produce, e quindi la domanda che si pone, non la risposta che si ottiene. Questo potrebbe essere sufficiente per tranquillizzare almeno un poco coloro che starebbero immaginando che tutto ciò è la porta d’ingresso dei fan-

tasmi della soggettività nella metrologia. No, non è così: riconoscere un ruolo per le intenzioni nella scelta del misurando non elimina i requisiti di riferimento all’oggetto (“oggettività”) e d’indipendenza dal soggetto (“intersoggettività”), che sono caratteristici della misurazione. Qualche conclusione preliminare è ora a portata di mano. Primo: il misurando è una grandezza individuale che è necessario descrivere, attraverso un’espressione del tipo “spessore del foglio F”, oppure “spessore del foglio F a 20 °C”, oppure “spessore del foglio F a 20 °C nella posizione P”, oppure..., per riportare un risultato di misura, che infatti ha la forma “la grandezza individuale descritta come... ha il valore...”. Secondo: ogni descrizione contiene un numero limitato di dettagli sull’entità descritta, e la descrizione di una grandezza individuale può essere progressivamente estesa introducendo via via nuovi dettagli. Terzo: i risultati di misura hanno generalmente lo scopo di essere trasferibili, e quindi di essere interpretabili intersoggettivamente; occorre dunque ammettere che la descrizione di un misurando potrebbe essere mancante di dettagli rilevanti per l’utente del risultato di misura associato a quel misurando. Questa possibile mancanza è stata caratterizzata nell’ultima versione del VIM come un’incertezza di definizione (del misurando) (la GUM, che ha introdotto il concetto, la chiama “incertezza intrinseca”), “componente dell’incertezza di misura che deriva dalla quantità finita di dettagli nella definizione di un misurando” (component of measurement uncertainty resulting from the finite amount of detail in the definition of a measurand). Ne segue che “l’incertezza di definizione fissa un limite inferiore a qualsiasi incertezza di misura” (ancora dall’Introduzione del VIM), e questo rende conto dell’utilità di base di questo concetto: se si accertasse che l’incertezza di definizione, valutata prima di effettuare la misurazione, è maggiore della massima incertezza accettabile per gli obiettivi della misu-

razione stessa (la cosiddetta incertezza obiettivo, target uncertainty), se ne potrebbe concludere che il costo della misurazione non è giustificato e la misurazione dovrebbe essere evitata. Per proseguire in questa riflessione, propongo alcuni problemi, che mi paiono non del tutto ovvi. * Il VIM ha adottato il termine “incertezza di definizione”: ma si tratta proprio di un’incertezza relativa alla definizione del misurando? Come si definisce una grandezza individuale? Il cosiddetto “modello della misurazione”, che ha il misurando come variabile di output, ha qualcosa a che vedere con la definizione del misurando (per non prendere una posizione su questo, sopra ho scritto, in modo non impegnativo, di descrizione del misurando)? * Sempre il VIM scrive (2.11, Nota 3) che “qualora l’incertezza di definizione associata al misurando sia considerata trascurabile rispetto alle altre componenti dell’incertezza di misura, si può ammettere che il misurando abbia un valor vero unico ai fini pratici”. È dunque un’incertezza di definizione non trascurabile quella che impedisce di avere valori “praticamente unici”? * Ancora il VIM3 nell’Introduzione dichiara che “il punto di vista basato sull’incertezza [...] prevede [...] che l’informazione ottenuta dalla misurazione consenta [...] d’individuare un intervallo di valori, che possono essere ragionevolmente attribuiti al misurando, [...] ma neppure le misurazioni più raffinate possono far sì che l’insieme si riduca a un valore unico, a causa della quantità finita di dettagli nella definizione del misurando stesso”. Davvero l’incertezza di definizione, per quanto eventualmente trascurabile, a rigore non può mai essere nulla? * L’incertezza di definizione è solo un valore minimo per l’incertezza di misura, oppure rientra nel bilancio dell’incertezza e si combina perciò con le altre componenti d’incertezza? (VIM, 2.26, Nota 1: “L’incertezza di misura [...] comprende anche l’incertezza di definizione”).

T_M ƒ 141


MANIFESTAZIONI EVENTI E FORMAZIONE

n

Eventi nel mondo nel 2016 Segnalazione di manifestazioni ed eventi d’interesse 2016

5 - 8 luglio

Thessaloniki, Greece

13th international Conference on Nanosciences & Nanotechnologies

6 - 8 luglio

Las Palmas, Gran Canaria

International Conference on Modern Electrical Power Engineering (ICMEPE-2016)

www.aedie.org

10 - 14 luglio

Trento, Italy

18th

http://icton2016.fbk.eu

11 - 13 luglio

Newport Beach, USA

2016 IEEE Summer Topical Meeting Series

www.photonicstopics.org

11 - 15 luglio

Sydney, Australia

16th Annual NUSOD Conference

www.nusod.org/2016/

19 - 22 luglio

Hamburg, Germany

ISEAC-39th Environmental & Food Monitoring

www.iaeac.com/iseac39-hamburg

Shanghai, China

37th Progress in Electromagnetics Research Symposium (PIERS)

www.piers.org/piers2016Shanghai

8 - 11 agosto

International Conference on Transparent Optical Network (ICTON 2016)

www.nanotexnology.com/index.php/nn

29 agosto - 1 settembre

Miedzyzdroje, Poland

Methods and models in Automation and Robotics (MMAR 2016)

www.mmar.edu.pl

31 agosto - 2 settembre

Belfast, Northern Ireland

Control 2016 - 11th International Conference on Control

www.qub.ac.uk/sites/Control2016/

4 - 7 settembre

Lausanne, Switzerland

XXIIth International Conference on Electrical Machines (ICEM'2016)

www.icem.cc/2016

5 - 9 settembre

Wroclaw, Poland

2016 International Symposium on Electromagnetic Compatibility - EMC EUROPE

www.emceurope.org/2016

Budapest, Hungary

21st IMEKO TC4 International Symposium on Understanding the World through Electrical and Electronic Measurement

www.imeko-tc4-2016.hu/

Ostrava, Czech Republic

8th International Conference on Intelligent Networking and Collaborative Systems INCoS-2016

http://voyager.ce.fit.ac.jp/conf/incos/2016/index.html

7 - 9 settembre

Bologna, Italy

2nd

IEEE International Forum on Research Technologies for Society and Industry (RTSI), Technologies for smarter society

https://apice.unibo.it/xwiki/bin/view/RTSI2016/

8 - 9 settembre

Torino, Italy

12a Conferenza del Colore

www.gruppodelcolore.it/index.php?option=com_content&view= article&id=50&Itemid=57&lang=it

12 - 15 settembre

Trento, Italy

2nd IEEE International Smart Cities Conference

https://events.unitn.it/en/isc2-2016

14 - 19 settembre

Lviv, Ukraine

Nanomaterials: Application & Properties '2016

http://nap.sumdu.edu.ua/index.php/nap/nap2016

19 - 21 settembre

Benevento, Italy

XXXIII Congresso del Gruppo Misure Elettriche ed Elettroniche (GMEE 2016)

www.misure2016.unisannio.it/index.php/gmee/home

19 - 21 settembre

Benevento, Italy

XV Congresso del Gruppo Misure Meccaniche e Termiche (GMMT 2016)

www.misure2016.unisannio.it/index.php/gmmt/home

22 - 23 settembre

Barcelona, Spain

2nd International Conference on Sensors and Electronic Instrumental Advances (SEIA' 2016)

www.sensorsportal.com/SEIA_2016/index.htm

28 - 30 settembre

Aachen, Germany

7th IEEE International Workshop on Applied Measurements for Power Systems (AMPS 2016)

http://amps2016.ieee-ims.org

30 settembre - 3 ottobre

Kenting, Taiwan

2nd International Conference on Computing and Precision Engineering (ICCPE)

www.apsiii.org/ICCPE2016/index.html

2 - 5 ottobre

Benevento, Italy

2nd

www.imekofoods.org

4 - 5 ottobre

Edinburgh, UK

SECOND IEEE INTERNATIONAL SYMPOSIUM ON SYSTEMS ENGINEERING

http://ieeeisse.org

9 - 13 ottobre

Venezia, Italy

AMBIENT 2016, The Sixth International Conference on Ambient Computing, Applications, Services and Technologies

www.iaria.org/conferences2016/AMBIENT16.html

19 - 21 ottobre

Torino, Italy

METROARCHAEO 2016 – International Conference on Metrology for Archaeology and Cultural heritage (TC4)

www.metroarcheo.com

23 - 27 ottobre

Firenze, Italy

IEEE IECON 2016

www.iecon2016.org

30 ottobre - 2 novembre

Orlando, USA

IEEE Sensors 2016

http://ieee-sensors2016.org

1 - 4 novembre

Rio de Janeiro, Brazil

IEEE Intelligent Transportation Systems Conference (ITSC 2016)

https://web.fe.up.pt/~ieeeitsc2016

2 - 4 novembre

Toulouse, France

Conference on Electrical Systems for Aircraft, Railway, Ship Propulsion and Road Vehicles and the International Transportation Electrification Conference – ESARS ITEC 2016

www.esars-itec2016.org

6 - 9 novembre

Sydney, Australia

IEEE Smart Grid Comm 2016

http://sgc2016.ieee-smartgridcomm.org

7 - 9 settembre 7 - 9 settembre

T_M

N.

IMEKOFOODS “Metrology Promoting Objective and Measurable Food Quality and Safety”

2/16 ƒ 142


LA MISURA DEL SOFTWARE

s

GUFPI-ISMA Luigi Buglione (luigi.buglione@gufpi-isma.org)

Quanto è grande un requisito? Parte V – Misurare i requisiti non-funzionali: Benchmarking e Profili non-funzionali

WHICH IS THE SIZE OF A REQUIREMENT? PART V – MEASURING NON-FUNCTIONAL REQUIREMENTS: BENCHMARKING AND NON-FUNCTIONAL PROFILES Each measurement must apply a measurement scale: to compare two projects, this metrological rule must be rigorously applied. This is why IFPUG SNAP (Software Non-functional Assessment Process) proposes a set of 14 measurements that cannot be summed into a unique overall value, based on the ISO/IEC 25010:2011 quality model. A solution for an effective benchmarking of ICT projects from different application domains is to create “nonfunctional profiles” moving from the SNAP method architecture and useful to obtain clusters to be managed separately. RIASSUNTO Ogni misura deve applicare una scala di misurazione: per confrontare due progetti è pertanto necessario applicare in modo rigoroso questa regola metrologica. Ecco perché IFPUG SNAP (Software Non-functional Assessment Process) propone un set di 14 misure derivate dal modello di qualità della norma ISO/IEC 25010:2011 che non possono essere sommate tra di loro in un unico valore. Una soluzione utile per un benchmarking efficace di progetti ICT relativi a diversi domini applicativi è quella di creare “profili nonfunzionali”, partendo dalla struttura del metodo, utili per determinare cluster da considerare e gestire separatamente. INTRODUZIONE

Nello scorso numero si concludeva suggerendo di misurare la qualità, e non solo di valutarla in modo qualitativo. Talvolta però uno dei principali errori nel settore ICT è di non categorizzare correttamente i progetti, considerandone le caratteristiche principali. In breve, il concetto di non mescolare “mele e pere” (o “apples and oranges” per il mondo anglosassone) sembra spesso non trovare applicazione nella pratica dei progetti ICT. Si rischia di semplificarne eccessivamente l’analisi poiché i progetti possono essere estremamente diversi tra di loro osservandone le componenti e i requisiti che li compongono, portando quindi a possibili stime disomogenee. Prima ancora di misurare e/o valutare un oggetto, è necessario effettuare un “clustering” dei progetti determinando quali possano essere le carat-

teristiche rilevanti per poterli distinguere in gruppi da trattare separatamente. Nel mondo dei requisiti funzionali utente (FUR – Functional User Requirements) esistono diverse best practice al riguardo: ad esempio si possono determinare le principali caratteristiche funzionali di un progetto (es: metodo CHAR [2]) e quindi classificare i gruppi utili, oppure individuare una serie di filtri da applicare su una serie di dati storici (es: usando il repository ISBSG D&E [3]) o ancora raggruppare i progetti per BFC (Base Functional Component [5]), ovverosia le componenti funzionali di un metodo FSM (Functional Size Measurement) quali EI (External Input), EO (External Output), EQ (External inQuiry), ILF (Internal Logical File) e EIF (External Interface File) per il metodo IFPUG FPA o Entry (E), Exit (X), Read (R) e Write (W) per il metodo COSMIC

FPA, i due metodi FSM maggiormente adottati. Partiamo proprio da quest’ultimo approccio di benchmark – quello del “profiling” – che può essere di maggior profitto per una clusterizzazione dei progetti analizzati dal punto di vista dei requisiti non-funzionali (NFR). “PROFILING” PER FUR E NFR

Per gli appassionati di thriller e polizieschi, parlare del “profilo” di un criminale è cosa normale, ma sembra apparentemente bizzarro se si trasporta il concetto a un ambito di analisi tecnico come quello della gestione di un progetto. Nel caso di FUR (Functional User Requirement), l’analisi delle BFC prevalenti permette di determinare similitudini e atteggiamenti tipici di un sistema ICT. Ad esempio, una prevalenza di EI e ILF nelle frequenze assolute in un conteggio IFPUG FPA permette d’individuare la presenza di sistemi tipicamente “gestionali”, il cui obiettivo principale è registrare informazioni. Al contrario, una maggior presenza di EO/EQ è indicativa di un sistema tipicamente atto alla presentazione di dati verso l’esterno. E via dicendo. Immaginando di poter sovrapporre idealmente tali distribuzioni di frequenze per n progetti, possiamo raggruppare in cluster diversi gruppi di progetti per una gestione omogenea, delineando comunanze a livello alto anche nella distribuzione degli effort di prodotto tra FUR e NFR. Come già detto nei precedenti numeri [6], i NFR sono un mondo in evoluzione (dal Factor-Criteria-Model in poi), legato all’andamento delle tecnologie, che indirizza in buona sostanza le modalità d’interazione e

T_M

N.

2/16 ƒ 143


N. 02ƒ ; 2016

s

Figura 1 – Profili Funzionali: un esempio con IFPUG FPA

NEWS

dove siano due sistemi a dialogare tra di loro, es. nel settore Telco). Considerando progetti con una predominanza funzionale di presentazione dati e

t

gestione dei dati e delle informazioni con e verso l’utente (da intendersi ormai non più solo come utente “umano”, ma anche utente “sistema”, lad-

NEWS

presumibilmente simili nella distribuzione degli effort tra attività derivanti da FUR e da NFR (es: Data Warehouse e Portale Web), è ragionevole pensare però che questi non abbiano sicuramente le stesse caratteristiche intrinseche. Pertanto l’adozione del principio del “divide-et-impera” permette in modo semplice di gestire con stesse modalità oggetti comparabili, migliorando efficienza ed efficacia nella loro gestione. La seguente figura illustra un possibile esempio di profilatura non-funzionale usando il metodo IFPUG SNAP [4], presentato nello scorso numero [1]. Nell’esempio è possibile evidenziare di che tipo di progetto si tratti e quali siano i ruoli progettuali da coinvolgere al fine di poter disporre di maggiori e più dettagliate informazioni per

t

LA MISURA DEL SOFTWARE

SENSORI LASER A TRIANGOLAZIONE, IDEALI PER APPLICAZIONI OEM

SENSORI CAPACITIVI PER MONITORAGGIO SQUILIBRI NEI GRANDI MOTORI ELETTRICI

I nuovi sensori laser a triangolazione optoNCDT 1320 e 1420 di Micro-Epsilon, distribuiti in Italia da Luchsinger srl, consentono misure precise senza contatto di spostamento, distanza e posizione. L’interfaccia web integrata, le dimensioni compatte e l’eccellente rapporto prezzo/prestazioni, rendono questi Smart Sensor unici sul mercato e molto interessanti per le applicazioni OEM. Il modello 1320 offre velocità di misura fino a 2 kHz, mentre il modello 1420 arriva fino a 4 kHz. Una funzione di Auto Compensazione del Target (ATC) permette un controllo preciso del segnale di distanza, indipendentemente dal colore o dalla luminosità del target. Anche gli oggetti più piccoli possono essere rilevati in modo affidabile, grazie alle piccole dimensioni dello spot di misura. Un sistema ottico ad alte prestazioni agevola la proiezione dello spot sul target di misura, permettendo un corretto posizionamento anche sui componenti più piccoli. L’interfaccia web, intuitiva e semplice da usare, offre numerose funzioni di ottimizzazione e stabilizzazione delle misure: Funzioni “Preset” permettono settaggi veloci dei parametri – Archiviazione ed esportazione fino a 8 configurazioni utente – Visualizzazione del segnale video – Selezione del picco di segnale e della sua media. Grazie alla leggerezza e alle dimensioni ridotte, i sensori laser optoNCDT possono essere facilmente integrati in spazi ristretti e sono ideali nelle applicazioni in cui si hanno accelerazioni improvvise (ad esempio, sui bracci dei robot o nelle macchine “pick and place”).

Pur essendo molto robusti, i motori elettrici necessitano di un funzionamento regolare per prolungare al massimo il loro ciclo di vita. Squilibri interni durante il funzionamento possono causare ingenti danni e significative perdite finanziarie (in modo particolare nei motori di grosse dimensioni). I sensori capacitivi di Micro-Epsilon, distribuiti nel mercato italiano da Luchsinger srl, risolvono questi problemi monitorando in modo affidabile la concentricità del movimento durante la corsa. I sensori capacitivi vengono utilizzati all’interno dei grossi motori elettrici utilizzati dai mulini, nella produzione di cemento, nella frantumazione della roccia o negli impianti estrattivi, per monitorare in tempo reale se il rotore, la parte mobile all’interno del motore elettrico, ruota in modo fluido all’interno dello statore, che è invece la parte fissa. A causa di squilibri interni durante il funzionamento il rotore può entrare in contatto con lo statore, causando ingenti danni all’intero motore. È possibile controllare questi movimenti anomali tramite i sensori capacitivi di Micro-Epsilon, progettati per effettuare misure di spostamento senza contatto, che misurano la distanza tra statore e rotore monitorando il gap tra i due. L’immunità ai campi elettro-magnetici, la possibilità di scelta tra un’ampia gamma di forme e dimensioni, l’elevata precisione, risoluzione e stabilità sono le caratteristiche che contraddistinguono i sensori capacitivi, ideali per analizzare movimenti, controllare tolleranze o essere utilizzati nei controlli di processo.

Per ulteriori informazioni: www.luchsinger.it

Per ulteriori informazioni: www.luchsinger.it

T_M ƒ 144


N. 02ƒ ;2016

n

LA MISURA DEL SOFTWARE

to NFR, sia per meglio comprendere che cosa rientri nell’ambito di un FUR. “Benchmarking provides an inventory of creative changes that other companies have enacted“ (John Langley) RIFERIMENTI BIBLIOGRAFICI

Figura 2 – Profili Non-Funzionali: un esempio con IFPUG SNAP

effettuare stime prima e conteggi poi (es.: un FUR è lavorabile prevalentemente da un analista/programmatore/tester, mentre un NFR può riferirsi a specialisti con costi orari superiori, come un DBA o IT Architect, o un esperto di customizzazione di un COTS/ERP quale SAP, ecc.). Ancora, la struttura di ciascuna tassonomia di caratteristiche NFR può permettere di evidenziare eventuali anomalie in una stima/conteggio. Ad esempio, per un conteggio di sviluppo per un sistema con interfaccia grafica, non è possibile non valorizzare la sotto-categoria §2.1 (User Interface). Se questa sottocategoria fosse riconosciuta presente, andrebbe quindi investigato se ci siano o no requisiti relativi alla disponibilità di quelle funzionalità su più possibili browser e/o ambienti/sistemi operativi (sotto-categoria §3.1 – Multiple Platform), e via dicendo per ogni altra possibile combinazione. Analoghi esempi possono essere fatti usando il modello di qualità proposto dalla norma ISO/IEC 25010:2011 o altre tassonomie di classificazione dei NFR, già illustrate in un precedente articolo [6]. La profilatura – sia funzionale sia non – può pertanto rappresentare un ulteriore strumento di verifica dell’effettivo conteggio delle BFC (per i metodi funzionali) e delle BNFC (Base Non-Functional Component per i metodi nonfunzionali) al fine di validare il corretto dimensionamento di un sistema.

DALLA PROFILATURA AI DATI STORICI: QUALI DIFFICOLTA PRATICHE?

È possibile imparare dalla storia aziendale, ma va tenuta memoria di quanto fatto. La fase di closure dovrebbe essere il momento più importante per un progetto, come indicato da molte guide e best practice (es: PMBOK, ITIL, CMMI, ...), ma spesso si rischia di non dare sufficiente enfasi e tempo per storicizzare dati, informazioni e le “lessons learned”, che rappresentano uno degli asset di maggior valore per un’organizzazione. I dati sul lato funzionale sono ormai per molte organizzazioni qualcosa di acquisito (la FPA nasceva nel 1979, quindi ha quasi quarant’anni di storia), mentre per il lato non-funzionale stiamo iniziando a quantificare ciò che è stato visto finora in termini qualitativi. Classificare e raggruppare applicazioni e sistemi per elementi omogenei può quindi essere un primo elemento di confronto utile per evitare serie storiche apparentemente disomogenee nei numeri. Nei prossimi numeri proseguiremo l’analisi del metodo IFPUG SNAP, con ulteriori esempi pratici analizzando le categorie del metodo. Ricordiamo che al momento SNAP è l’unica tecnica che tenta di codificare una nfsu (nonfunctional sizing unit) per i requisiti non-funzionali di prodotto, ma può rappresentare uno stimolo sia per studiare e produrre nuove misure in ambi-

1. L. Buglione, Quanto è grande un requisito? Parte 4: Requisiti Non-Funzionali, Tutto_Misure, #04/2015, Gennaio 2016, URL: http://goo.gl/ed1B5Y 2. ISO/IEC, IS 14143-5:2004 – Information technology – Software measurement – Functional size measurement – Part 5: Determination of functional domains for use with functional size measurement 3. ISBSG, repository D&E (Development & Enhancement) r13 (Feb 2015), URL: www.isbsg.org 4. IFPUG, SNAP (Software Non-Functional Assessment Process) APM v2.3, May 2015, URL: www.ifpug.org/ about-ifpug/about-snap 5. L. Buglione, C. Gencel, The Significance of IFPUG Base Functionality Types in Effort Estimation, ISMA5 (5th IFPUG International Software Measurement & Analysis Conference), September 2010, URL: http://goo.gl/EQHkC7 6. Buglione L., Quanto è grande un requisito? Parte 3: Requisiti Non-Funzionali, Tutto_Misure, #03/2015, Ottobre 2015, URL: http://goo.gl/Pn9BPD

Luigi Buglione è il Presidente di GUFPI-ISMA (Gruppo Utenti Function Point Italia – Italian Software Metrics Association) e Direttore IFPUG Conference & Education. Attualmente lavora in qualità di Process Improvement and Measurement Specialist presso Engineering Ingegneria Informatica SpA. È Associate Professor presso l’École de Technologie Supérieure (ETS) di Montréal. Per ulteriori info: www.gufpi-isma.org

T_M ƒ 145


N. 02ƒ ; 2016

SENSORI A EFFETTO HALL ERMETICI SUI CATAMARANI DI COPPA AMERICA Nel 2017 i top team di vela di tutto il mondo si contenderanno la 35a Coppa America, con scafi da regata performanti e tecnicamente più avanzati. In collaborazione con i principali team di F1 e aziende aerospaziali, essi stanno studiando la fluidodinamica delle ali rigide e dei foils, al fine di raggiungere velocità fino a 50 Km/h. Fondamentale per il miglioramento continuo delle prestazioni delle barche è la possibilità di acquisire dati in tempo reale tramite una moltitudine di sensori posizionati strategicamente, per misurare le deformazioni strutturali e attuare un’analisi comparativa, carico-regolazioni, durante la navigazione. La Tecnologia Magni-Tec® è utilizzata da diversi team, quale soluzione innovativa per le regolazioni precise delle derive, vitali per mantenere la barca in assetto alla massima velocità. Magni-Tec® è un riferimento nei sensori di posizione lineare e angolare senza contatto, e fornisce ai progettisti soluzioni superiori e impegnative in ambienti caratterizzati da presenza di fluidi e alte vibrazioni. Completamente ermetici con protezione IP68/IP69K per applicazioni operative sotto getto d’acqua e condizioni di immersione. I sensori della serie MHL 1400 hanno un corpo sottile e una scelta di opzioni per il montaggio, come giunti sferici, giunti sferici a sgancio rapido oppure morsetti. Possono funzionare con alimentazione +5 Vdc regolata oppure +8/+30 Vdc non regolata, con un’uscita analogica 0/+5 Vdc. Per ulteriori informazioni: www.dspmindustria.it

T_M ƒ 146

ACQUISIZIONE DATI AD ALTA VELOCITÀ E SEGNALI CANBUS IN UN SOFTWARE Perception e i sistemi di acquisizione dati Genesis High-Speed sono perfetti per la misurazione a cadenze di campionamento elevate e l’elaborazione di grandi quantità di dati. Nella nuova versione, HBM amplia il campo d’applicazione di Perception con la registrazione di segnali CANbus del modulo QuantumX MX471B. Quest‘ultimo dispone di quattro interfacce CAN ed è idoneo per la lettura di messaggi CAN, CCP o xCP-onCAN. La sincronizzazione con i dispositivi Genesis High-Speed avviene tramite il protocollo temporale di precisione basato su Ethernet. Grazie alla nuova funzione di personalizzazione dei bottoni, i cosiddetti “user key“, la semplicità d’uso è ancora maggiore. È possibile riunire insieme più istruzioni e assegnarle a un solo user key. Ad esempio, è possibile configurare oltre 20 diverse istruzioni di navigazione con cursore per diversi display e, contemporaneamente, trasmettere questi valori nelle origini dati ed effettuare il trasferimento in un file di registro. Una volta impostato, sarà poi sufficiente un semplice clic sull‘user key, per eseguire un’intera lista di azioni in Perception, risparmiando minuti preziosi per i test. Non è previsto un limite quantitativo per gli user key, quindi l’utente può configurare moltissimi bottoni che l’aiuteranno nelle proprie attività. Per ulteriori informazioni: www.hbm.com/it/2279/ software-per-acquisizione-dati-ad-alta-velocita


METROLOGIA LEGALE E FORENSE

s

Rubrica a cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com www.avvocatoscotti.com)

La bolletta elettrica... Il jolly del fisco

LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the D.lgs 22/2007, the so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlightening aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del D.lgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! LA BOLLETTA ELETTRICA E IL CANONE RAI

Premetto che la data del presente commento è il 30 aprile 2016 e, al momento della pubblicazione della Rivista, le indicazioni qui riportate potrebbero essere state superate da modifiche normative intervenute nel frattempo. La recente normativa nazionale ha disposto, in ragione dell’alto tasso di “evasione” riferito a tale imposta, l’imposizione del canone RAI nella bolletta elettrica. Le previsioni legislative stabiliscono che, a decorrere dal 1° luglio 2016, l’imposta debba essere esposta nella bolletta elettrica; il canone non sarà versato in un’unica soluzione bensì mediante rateazione (in 10 rate) da effettuarsi a cura dei singoli trader di energia elettrica che provvederanno a indicare nella bolletta, in apposita voce separata, il valore dell’imposta. La vicenda trae origine dalla legge di

stabilità (legge 208/2015) che, all’art 1 comma 152 e seguenti, prevede alcune modifiche della legge relativa al canone (legge 880/1938) disponendo, mediante un’attribuzione di compiti ai trader alquanto creativa e discutibile, il pagamento dell’imposta in oggetto mediante la fattura di fornitura di energia elettrica riferita all’utenza domestica dell’abitazione principale. Sulla scorta delle previsioni della legge 208/ 2015, che demanda a un successivo decreto ministeriale la completa attuazione delle disposizioni legislative, il MiSe ha redatto uno schema di decreto recentemente sottoposto al parere obbligatorio del Consiglio di Stato, che dapprima aveva sospeso la propria valutazione in attesa di

modifiche dello schema sottoposto e, in seguito alla revisione dei punti critici da parte del MiSe, ha fornito parere positivo. In particolare, il primo provvedimento del Consiglio di Stato del 07/04/2016, dopo avere comunque considerato legittimo il decreto così redatto, sia sotto il profilo formale sia sostanziale (in quanto il Ministero trova la sua fonte di potere normativo nella legge di stabilità sopra menzionata) ne individuava “alcuni profili di criticità che dovrebbero trovare soluzione prima della sua definitiva approvazione, anche al fine di non condizionare il grado di efficacia di tale strumento normativo”. In primis si rilevava la mancanza assoluta di una definizione di apparecchio televisivo, dato che, alla luce della moderna tecnologia, diversi dispositivi avrebbero potuto essere ricompresi nel novero di quelli costituenti elemento essenziale per assoggettamento a imposta (smartphone, tablet, pc, ecc.). Inoltre, sono state mosse censure alla totale carenza di previsioni in ordine alla privacy, ovvero alla tutela dei dati personali che i diversi enti coinvolti nel procedimento (Anagrafe tributaria, Autorità per l’energia elettrica, il gas e il sistema idrico, l’Acquirente unico spa, il Ministero del-

T_M

N.

2/16 ƒ 147


l’interno, i Comuni e alcune società private) trattano a vario titolo al fine di consentire l’esposizione dell’imposta nella bolletta elettrica. Infine, il Consiglio di Stato rilevava lacune riguardanti la (mancata) diffusione delle informazioni correlate al pagamento della suddetta imposta evidenziando che “non sono previste forme adeguate di pubblicità, rispetto all’elevato grado di diffusione raggiunto dal mezzo televisivo e che al fine di superare tale criticità occorrono precise disposizioni”. Successivamente il MiSe, con nota n. 28019/2016 del 20/04/2016, ha fornito una più esaustiva definizione di apparecchio televisivo, al fine d’individuare puntualmente i soggetti obbligati al pagamento del canone, identificandolo con un qualsiasi apparecchio in grado di ricevere, decodificare e visualizzare il segnale digitale terrestre o satellitare direttamente o tramite decoder o sintonizzatore esterno, con espressa esclusione per altri dispositivi purché non muniti di sintonizzatore per la ricezione del segnale, senza che però tale definizione sia inserita nel decreto ministeriale. Ciò al fine di evitare, secondo le argomentazioni espresse dal MiSe, da un lato un eccesso di delega (una definizione di apparecchio televisivo fornita all’interno del DM avrebbe lo scopo di modificare la legge del 1938 che, in quanto legge, non può essere modificata se non attraverso altra legge o atto avente pari efficacia giuridica) e dall’altro d’ingessare la definizione di apparecchio televisivo in uno schema predeterminato che si presta a rapida obsolescenza. Il Ministero, con propria nota n. 9917 del 26/04/2016, ha trasmesso il nuovo testo dello schema di decreto al Consiglio di Stato che, alla luce delle modifiche apportate al testo in applicazione di parte dei suggerimenti indicati (riferiti alla privacy e alla diffusione dell’informativa verso il pubblico), ha espresso, con provvedimento n. 1010/2016 del 27/04/2016, parere favorevole alla sua emanazione. Indipendentemente dalle disposizioni contenute nell’emanando decreto mi-

T_M ƒ 148

N. 02ƒ ; 2016

s

METROLOGIA LEGALE E FORENSE

nisteriale, l’imposizione della tassa canone RAI nella bolletta elettrica pone alcune problematiche di ordine sistematico sotto il profilo giuridico. Trattandosi di tassa, infatti, appare alquanto discutibile la delega conferita a un soggetto privato (quale il trader di energia elettrica) di riscossione, e quindi di successivo versamento verso l’erario, soprattutto mediante il metodo di esposizione di tale voce di costo all’interno della fattura derivante da un contratto di diritto privato di fornitura di energia elettrica. Non si può sottacere che la natura di tale rapporto giuridico potrebbe influenzare inesorabilmente anche il recupero della suddetta imposta: cosa accadrebbe nell’ipotesi in cui il contratto di fornitura di energia elettrica costituisse oggetto di contenzioso, e venisse dichiarato nullo o venisse annullato? Quali, invece, le conseguenze in caso di switch da parte del cliente verso altro fornitore nelle more del recupero dell’imposta (nel periodo di rateazione)? Tali considerazioni riguardano le difficoltà che i trader potrebbero potenzialmente trovarsi ad affrontare, con conseguente riflesso sul recupero dell’imposta da parte dello Stato che patirebbe gli effetti riguardanti esclusivamente rapporti di natura civilistica, del tutto estranei alle normative pubblicistiche in materia di tributi. Infine non si possono trascurare le numerose perplessità che la nuova normativa ha destato per quanto concerne l’annosa questione circa la legittimità del canone RAI, che più volte ha costituito oggetto d’impugnazione e di eccezione d’incostituzionalità, senza tuttavia essere mai stato dichiarato integralmente illegittimo né dalla Corte di Cassazione, né dalla Corte Costituzionale. Ne deriva, stante il quadro che si va prefigurando, che l’unico rimedio per la contestazione di una simile imposta resta quello d’impugnare la prima bolletta elettrica, con riguardo alla sola parte riferita all’imposta o, in alternativa, procedere al pagamento della bolletta solamente per l’importo riguardante il consumo di energia (con la conseguente iscrizione a ruolo, da parte dello Stato a mezzo dell’Agen-

zia delle Entrate, dell’imposta evasa e relativa opposizione successiva). LA BOLLETTA ELETTRICA: NUOVO PARAMETRO A FINI IMU

Com’è noto, la normativa nazionale prevede il pagamento dell’imposta IMU a carico dei soggetti proprietari d’immobili (o titolari di altro diritto reale sull’immobile), sulla scorta di un range di aliquote definite a livello statale successivamente definite dai singoli Comuni i quali, nell’ambito della loro discrezionalità e sulla scorta dei limiti (minimi e massimi) nazionali, determinano la precisa aliquota di riferimento per ciascuna categoria d’immobile (case, terreni, fabbricati industriali, commerciali ecc.). Al fine di evitare un carico eccessivo d’imposte in danno ai contribuenti proprietari di unico immobile adibito a prima casa (o a residenza, o dimora abituale), le norme in materia emanate contemplavano la possibilità di una detrazione (oggi esenzione) sull’imposta dovuta per tali tipi d’immobili. Frequentemente, il mancato riconoscimento di tale agevolazione da parte del singolo Comune interessato, che conseguentemente procede a ricalcolare l’imposta dovuta dal contribuente, dà origine a contenziosi trattati dalle competenti Commissioni Tributarie provinciali. Proprio questo è il caso che oggi ci occupa! Una recente sentenza della Commissione Tributaria Regionale Lombardia (sentenza 782/2016) ha riconosciuto la legittimità delle pretese del Comune ricorrente riguardanti il recupero dell’ICI (l’imposta oggi sostituita dall’IMU) nei confronti di un soggetto che aveva dichiarato l’immobile quale casa di residenza con conseguente beneficio di esenzione. A dimostrazione dell’insussistenza di tale circostanza (ovvero quale prova del fatto che tale immobile non era adibito a residenza del contribuente) il Comune ha allegato le bollette di energia elettrica attestanti un consumo non plausibile per una casa di residenza abituale, in quanto si trattava di prelievi di ener-


NEWS

s

N. 02ƒ ;2016

anni (si rammenta che la prescrizione per il recupero delle partite economiche derivanti da guasto o malfunzionamento è di 5 anni e, parimenti, si precisa che i contatori di energia elettrica BT domestici sono soggetti a verifiche ogni 15 anni come stabilito dal DM 60/2015!), può essere oggetto di modifica o di rettifica a seguito di controlli sul contatore che dimostrino guasti che hanno determinato una misura inferiore rispetto agli effettivi consumi di energia. Considerato tale possibile scenario, quali gli effetti per il contribuente soccombente in un procedimento giudiziale analogo a quello di cui alla sentenza citata, nell’ipotesi di ricostruzione dei consumi a seguito di verifica del malfunzionamento del contatore? Potrebbe l’utente chiedere all’Amministrazione il rimborso delle somme pagate? Oppure potrebbe chiedere il risarcimento del danno al distributore di energia elettrica? In linea di principio, riterrei di escludere la prima ipotesi (soprattutto nel caso di sentenza definitiva) mentre potrebbe essere plausibile e logica la seconda. Tuttavia va precisato che, al fine di richiedere il risarcimento del danno, è necessario dimostrare, secondo codice civile, un inadempimento del distributore, ovvero fornire prova di un suo comportamento negligente. Ora, rammentando che le disposizioni del decreto ministeriale 60/2015 fissano in 15 anni il termine per le verifiche periodiche, come potrebbe ravvisarsi una negligenza del distributore nell’ipotesi in cui il contribuente fosse condannato a versare l’imposta IMU con riferimento ai ridotti consumi di energia per il primo quinquennio d’installazione di un contatore di energia (magari già non correttamente funzionante ab initio)? Si tratta evidentemente di una prova piuttosto ardua, che peraltro dev’essere rigorosamente fornita dal soggetto che intende ottenere il risarcimento. Infatti, in un simile procedimento, la controparte non dovrebbe, sotto il profilo processuale, allegare alcun elemento a sua difesa tranne limitarsi a rigettare e disconoscere semplicemente qualsivoglia responsabilità.

n

gia inferiori al valore medio per persona. La Commissione Tributaria ha quindi accolto le argomentazioni del Comune ritenendo che “il Comune abbia dimostrato con dovizia di particolari che a un consumo medio giornaliero unipersonale di 2,00 kW la contribuente si colloca a 0,34 kW, sufficiente per illuminare appena due lampadine”. Conseguentemente è stata dichiarata l’illegittima esenzione dall’imposta prevista per la prima casa, e quindi è stata pronunciata la condanna del contribuente al pagamento delle imposte ICI non versate. Ora, a prescindere dal caso specifico in concreto trattato dalla sentenza (dove forse effettivamente il consumo poteva presentarsi piuttosto ridotto), la pronuncia citata rischia di generare un pericoloso precedente giurisprudenziale quanto all’utilizzabilità e attendibilità dei dati contenuti nelle bollette per il consumo di energia elettrica. In primis tali argomentazioni, in specie riferite al consumo medio unipersonale pari a 2,00 kW, potrebbero rivelarsi in diverse situazioni del tutto errate in ragione di un oculato consumo elettrico da parte dell’utente, nonché dell’adozione di apposite cautele destinate al risparmio energetico (tipo sostituzione delle lampadine, elettrodomestici di elevata classe energetica, fonti alternative o rinnovabili di energia), così come sulla scorta del fatto che, frequentemente, nella casa di residenza non si trascorre l’intera giornata ma, ad esempio, solo le ore notturne (magari consumando pure i pasti fuori casa!!). In secondo luogo, a prescindere dalle valutazioni di cui sopra circa il consumo medio pro capite e considerando quindi tali stime come valido presupposto, non si può trascurare che, sempre più spesso, si assiste a fenomeni di malfunzionamento o guasto del contatore di energia elettrica che, solo dopo diverso tempo (ANNI!), sono scoperti e ripristinati con conseguente ricostruzione dei consumi sulla base dell’errore rilevato (?). Dunque ecco l’attendibilità della bolletta elettrica che, anche a distanza di

METROLOGIA LEGALE E FORENSE

NUOVO PROGRAMMA DI SEMINARI SULLA TECNICA DI MISURA DELLA HBM ACADEMY

Nel 2015 l’offerta corsi della HBM Academy è servita agli oltre 3.000 partecipanti ai seminari per perfezionarsi professionalmente sulla tecnica di misura e giungere, in modo rapido ed efficiente, a risultati di misura sicuri e affidabili. La miscela ideale di consolidate conoscenze di base ed esercizi pratici rappresenta una garanzia per l’operatività degli apprendisti. Docenti competenti, conoscenze rilevanti per la pratica, molteplici applicazioni e una formazione riconosciuta, certificata in conformità ai vigenti standard DIN, sono gli elementi che contraddistinguono la HBM Academy. I seminari e i workshop della HBM Academy, molto quotati presso i tecnici di misura di tutta Europa e anche presso gli istituti di istruzione superiore, hanno luogo nei moderni poli scolastici di Darmstadt o Ismaning (Monaco). Chi fosse interessato ai seminari potrà scegliere nel 2016 tra oltre 50 date oppure definire percorsi formativi individuali. Per maggiori informazioni: www.hbm.com/seminare Email: seminare@hbm.com HBM Test and Measurement Fondata in Germania nel 1950, Hottinger Baldwin Messtechnik (HBM Test and Measurement) si è costruita una reputazione come leader mondiale di tecnologia e del mercato nell’industria delle misurazioni e prove. HBM offre prodotti per la catena di misurazione completa, dalle prove virtuali a quelle fisiche. Le sedi di produzione sono situate in Germania, U.S.A., Cina e Portogallo; HBM è presente in più di 80 paesi nel mondo.

T_M ƒ 149


s

NEWS

CONFRONTI INTER-LABORATORIO: QUALITÀ E AFFIDABILITÀ METROLOGICA Specializzata nella valutazione delle incertezze di misura, Delta Mu supervisiona regolarmente campagne di confronti inter-laboratorio (C.I.L.) per consentire ai diversi partecipanti di verificare i propri metodi di misura e progredire nella loro padronanza della metrologia. Laboratori accreditati o no? Un obbligo: valutare la qualità delle proprie misure. Una soluzione: aderire alle campagne di confronti inter-laboratorio (C.I.L.) promosse e gestite da Delta Mu. Il valore aggiunto offerto dalle campagne C.I.L. Delta Mu – garanzia di anonimità dei risultati; – un unico referente per ogni campagna; – C.I.L. in metrologia dimensionale, misure 3D, temperatura, microbiologia, ecc.; – 10 anni di esperienza; – presentazione dei risultati secondo le norme della serie ISO 5725; – analisi dei valori statisticamente ambigui, effettuata insieme al partecipante coinvolto; – consulenza nella determinazione delle cause e nella messa a punto delle correzioni; – calcolo delle statistiche prestazionali (Z score, zeta, ecc.). Come si svolgono le campagne Le campagne sono rivolte ai Laboratori accreditati e non. Per evi-

denti ragioni di riservatezza, i partecipanti restano anonimi e sono identificati da un numero. La responsabilità dell’organizzazione è di Delta Mu, che nomina un coordinatore per ciascun circuito: egli ha il compito di garantire il rispetto dei tempi accordati a ciascun partecipante per eseguire le misure sui dispositivi e, se necessario, offrire le opportune istruzioni (i partecipanti sono tenuti al corrente con regolarità, via posta elettronica, dello stato di avanzamento della campagna). Risultati I risultati sono elaborati e resi disponibili da Delta Mu secondo le prescrizioni della norma ISO 5725. Questo trattamento costituisce l’oggetto di un dettagliato rapporto di sintesi inviato a ciascun partecipante. La capacità dei Laboratori viene successivamente valutata sulla base delle norme ISO Guida 43-1 e 2 e ISO 13528 (Metodi statistici utilizzati nelle prove valutative mediante confronti interlaboratorio). In questo rapporto i risultati sono presentati in forma anonima. I valori contrassegnati come statisticamente ambigui (test di Mandel, di Cochran, di Grubbs) sono oggetto di successiva analisi tra Delta Mu e il partecipante coinvolto. L’obbiettivo è quello di determinare le cause che hanno condotto a valori ambigui e aiutare a correggerli per garantire la tenuta sotto controllo del processo. Per ulteriori informazioni: ufficio-commerciale@deltamu.com

NUOVI ACCELEROMETRI LOW-COST IMI-Sensors, produttore di sensori per monitoraggio delle vibrazioni in ambiente industriale, ha annunciato il rilascio di tre nuovi accelerometri a basso costo ICP® con un connettore M12, progettati per il monitoraggio delle vibrazioni in manutenzione predittiva. – Mod. 601A92, con sensibilità di 500 mV/g (tecnologia ICP®), campo di misura di ± 10 g e gamma di frequenza (± 3 dB) da 0,17 a 10.000 Hz. Il sensore è costruito in acciaio inossidabile 316L con filettatura di fissaggio

¼-28 femmina (versione metrica disponibile) e con connettore in testa. – Mod. 602D91, con sensibilità di 100 mV/g (tecnologia ICP®), campo di misura di ± 50 g e gamma di frequenza (± 3 dB) da 0,5 a 8.000 Hz. Il sensore è costruito in acciaio inossidabile 316L con filettatura di fissaggio ¼-28 maschio attraverso vite passante e connettore uscita elettrica laterale. – Mod. 603C91 è un accelerometro con sensibilità di 100 mV/g (tecnologia ICP®), campo di misura di ± 50 g e gamma di frequenza (± 3 dB) da 0,5 a 10.000 Hz. Il sensore è alloggiato in una custodia in acciaio inossidabile 316L con fissaggio ¼-28 femmina (versione metrica disponibile) come filettatura di montaggio e connettore in testa. Per ulteriori informazioni: www.pcbpiezotronics.it

ETICHETTE SPECIALI PER LA METROLOGIA Laser Lab, azienda specializzata nelle marcature e incisioni con raggio laser, presenta le proprie etichette destinate al campo della metrologia, delle verifiche periodiche e di tutti i settori in cui è necessaria un’identificazione permanente. – etichette di verifica periodica e sigilli di garanzia adesivi tagliati e incisi con raggio laser, destinate a essere applicati sui distributori di carburante o altri misuratori posti all’esterno e soggetti a elevate sollecitazioni chimico/fisiche. Queste etichette presentano caratteristiche tecniche di alto livello e sono realizzate su un materiale di ultima generazione, resistente a temperature comprese tra –40 °C e +200° C. I dati che compongono l’etichetta sono incisi nel materiale e risultano completamente inalterabili, indelebili e resistenti. Il lay-out è totalmente personalizzabile e sono distruttibili quando si rimuovono, pertanto anticontraffazione (D.M. n. 182 del 28/03/2000 e successive modifiche). – etichette di verifica periodica e sigilli di garanzia stampati su materiale ultradistruttibile, che garantiscono semplicità di utilizzo, versatilità e rispondono a tutti i parametri previsti dal D.M. n. 182.

T_M ƒ 150

Sono particolarmente idonee per gli operatori che effettuano le verifiche periodiche su strumenti di misurazione (bilance, registratori di cassa e misuratori del gas) generalmente ubicati in ambienti interni e pertanto protetti da situazioni stressanti. – etichette metrologiche, tecniche e datari, totalmente personalizzabili e in grado di adattarsi a molteplici usi. Realizzate su materiali di alta qualità e in diversi colori, con formati, testi e loghi su misura, permettono un'identificazione permanente e possono contenere anche barcode alfanumerici. Tutte le etichette Laser Lab sono economicamente competitive, di facile e veloce utilizzo, in grado di semplificare il lavoro degli utilizzatori. Consegne in 24-48 ore e fornitura anche di piccole serie. Per maggiori informazioni su tutti i servizi: www.laser-lab.it


SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI

s

Rubrica a cura di Franco Docchio, Dario Petri e Alfredo Cigada

Dalle Associazioni Universitarie di Misuristi Notizie da GMEE e GMMT

THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the significant information from the main University Associations in Measurement Science and Technology. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure.

GMEE: GRUPPO MISURE ELETTRICHE ED ELETTRONICHE

Consiglio Direttivo dell’Associazione GMEE Il Consiglio Direttivo del GMEE si è riunito il giorno 6 maggio 2016, presso la Sala riunioni del Dipartimento di Elettrotecnica del Politecnico di Milano, Piazza Leonardo da Vinci 32, Milano. Di seguito riportiamo un riassunto dei lavori. Il Presidente Dario Petri, in apertura, ha comunicato al Consiglio che ha invitato a partecipare al Consiglio l’Ing. Annarita Lazzari, Direttore TecnicoCommerciale della neonata Società DeltaMu Italia srl. Dopo aver passato in rassegna gli eventi d’importanza per i misuristi, ha informato che, in ambito IMS dell’IEEE, si sta cercando d’identificare un periodo ottimale per l’organizzazione dell’evento I2MTC e che, su sollecitazione di Bernardo Tellini, il CD è chiamato a esprimere il proprio parere in merito. I presenti concordano nell’indicare la terza settimana di maggio. Per quanto riguarda il convegno Nazionale Sensori, tenutosi a Roma a febbraio, gli iscritti sono stati 92, con un utile di 6.500 €. Successivamente il Presidente ha illustrato il nuovo Decreto del MIUR del 30 settembre 2015 sulla “Determinazione delle classi dei corsi di laurea e di laurea magistrale in Scienze della difesa e

È pervenuta anche la richiesta di DeltaMu Italia srl di essere socio sostenitore a partire dal mese di maggio, con rappresentante in CD l’Ing. Annarita Lazzari. Essendo questa richiesta pervenuta già a 2016 inoltrato, qualora fosse accettata, il Presidente ha proposto di fissare il versamento di metà della quota d’iscrizione annuale, pari a 200 €. Il Consiglio unanime ha approvato. Petri ha poi illustrato il rendiconto consuntivo del 2015, assieme alla nota esplicativa e alla relazione dei revisori. Dopo breve discussione il Consiglio lo ha approvato all’unanimità. Massimo Lazzaroni ha riportato le iniziative pubblicate sul sito dell’Associazione. Petri ha riferito che sono pervenute 5 domande per il Premio di Dottorato Carlo Offelli. La Commissione ha già iniziato le operazioni di valutazione. È invece pervenuta una sola domanda per la borsa di ricerca all’estero. La Commissione è stata formata dai Soci Gregorio Andria, Marcantonio Catelani e Marco Parvis. Franco Docchio ha riferito sull’andamento della Rivista Tutto_Misure dichiarando che il no. 1/2016 della Rivista ha ottenuto un successo oltre le attese, sia nella versione sfogliabile, sia nella versione cartacea distribuita ai partecipanti ad A&T 2016. Dal punto di vista del bilancio, la rivista ha chiuso con un attivo di circa 7.600 €. Dopo breve discussione il Consiglio ha approvato il piano editoriale e ringraziato Docchio per l’impegno profuso e i risultati ottenuti. Petri ha illustrato il rendiconto previsionale per il 2016. Dopo breve discussione il Consiglio ha approvato all’unanimità. Daponte ha illustrato l’organizzazione della riunione annuale dell’Associazione che si terrà a Benevento nei

della sicurezza”, dove il SSD INGINF/07 è tra i settori caratterizzanti. Con riferimento al DM sul reclutamento dei ricercatori di tipo B, ha informato il Consiglio che gli Atenei stanno procedendo velocemente con i bandi in quanto le procedure dovranno essere chiuse entro novembre. Pasquale Daponte ha poi relazionato sulla riunione del 28 aprile tra i presidenti dei SSD del macrosettore per discutere sulla situazione nazionale in merito alle abilitazioni nazionali e sulle iniziative da intraprendere. Al termine, Petri ha aggiornato il Consiglio della situazione dei soci alla data odierna. Risultano 171 soci, di cui 60 soci juniores e 97 soci ordinari di diritto, 6 soci ordinari e 8 soci onorari. Dunque il numero dei soci si mantiene relativamente costante, anche se mancano ancora le quote d’iscrizione di un buon numero di soci ordinari di diritto. È pervenuta, ha affermato poi il Presidente, la richiesta, a firma del socio Nicola Donato, Professore Associato ING-INF/01, di costituire un’Unità GMEE presso l’Università di Messina. Salvatore Graziani ha preso la parola ricordando come il Prof. Donato sia già componente dell’Unità GMEE di Catania, e abbia svolto in questi anni, in autonomia e con ottimi risultati, attività di ricerca pienamente incardinate nell’ambito della linea di ricerca GMEE “Sensori e Sistemi di trasduzione”. Dopo breve discussione il Consiglio ha apfranco.docchio@unibs.it provato la richiesta all’unanimità.

T_M

N.

2/16 ƒ 151


giorni 18-21 settembre. La sessione congiunta con i misuristi meccanici, al fine di favorire la collaborazione tra i due Gruppi, prevederà la trattazione di tematiche d’interesse comune. Per quanto riguarda la Giornata della Misurazione, Petri ha ricordato che non ci sarà un’edizione 2016 della GdM, e che si discuterà sull’impostazione dell’edizione 2017 all’interno della riunione annuale. Docchio ha riferito che nel 2016 la Tavola Rotonda “Fundamentals of Metrology“ a Benevento sostituirà la GdM 2016, e vedrà la partecipazione di Nicola Giaquinto e Docchio sui risultati del questionario che verrà distribuito nei prossimi giorni, di Giovan Battista Rossi che tratterà l’opportunità di superare il dualismo tra frequentismo e Bayesianesimo, e di Walter Bich e Luca Mari che riferiranno sulle ultime notizie riguardanti VIM e GUM. Per il 2017, Docchio ha riferito che A&T 2016 è, di fatto, riuscita nell’intento di ricreare, con i propri convegni e sessioni specialistiche, lo spirito di “Metrologia e Qualità” voluto a suo tempo da Sergio Sartori. Propone dunque che l’evento ospiti anche un Convegno sulla Metrologia fondamentale, che abbia il patrocinio di DeltaMu/GMEE, INRIM e ACCREDIA, e in cui si discutano le ultime notizie sulla metrologia di base per la scienza e l’industria. Il Consiglio ha preso atto e ringraziato i colleghi per l’impegno profuso. Carlo Muscas ha illustrato il programma dell’edizione 2016 della Scuola Gorini, che si terrà a Cagliari. Il Consiglio ha preso atto e ringraziato i colleghi dell’unità di Cagliari per l’impegno profuso. Daponte ha poi illustrato lo stato di avanzamento delle attività del progetto RIDITT, che è stato concluso e di cui è in fase di rendicontazione il secondo SAL. Il Consiglio ha preso atto. Sul tema della collaborazione con Delta Mu, Alessandro Ferrero ha ricordato che il giorno 8/02/16 è stata costituita Delta Mu Italia srl, con la partecipazione del GMEE al 40% del capitale sociale (e di Delta Mu Francia al 60%). Il 01.03.2016 Delta Mu Italia ha assunto l’Ing. Annarita Lazzari con funzioni di Direttore Tecnico-Commerciale, e sono iniziati ufficialmente i lavori, finanziati al 100%

T_M ƒ 152

N. 02ƒ ; 2016

n

SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI

da Delta Mu, come da accordi presi. Delta Mu Italia srl si è ufficialmente presentata partecipando con un proprio stand ad A&T 2016. Ha poi preso la parola l’Ing. Lazzari che ha illustrato brevemente al CD l’organizzazione dell’azienda e le sue interazioni con Delta Mu Francia, l’attività promozionale e di marketing svolta finora, i con-

tatti avuti con potenziali clienti e le prospettive future. Infine, Gianluca Callegaro ha illustrato le opportunità di un nuovo bando, nell’ambito dell’European Metrology Programme for Innovation and Research, che sarà pubblicato nel 2017 e include sia Istituti metrologici sia Università.

Michele Vadursi all’Ufficio Brevetti Europei a Monaco di Baviera Il socio GMEE Michele Vadursi, già prima Ricercatore e poi Professore Associato in Misure Elettriche ed Elettroniche presso l’Università Parthenope di Napoli, e autore di articoli sulla nostra Rivista, ha iniziato la sua nuova attività di Patent Examiner presso l’European Patent Office di Monaco di Baviera. A nome della Rivista auguriamo a Michele il successo in questa nuova prestigiosa posizione professionale, e ci auguriamo che farà di tutto per assistere chi, tra i lettori della Rivista, avrà bisogno d’informazioni di carattere brevettuale! Lorenzo Ciani riceve l’“Outstanding young Engineer Award” della IEEE Instrumentation & Measurement Society Il socio GMEE Lorenzo Ciani, dell’Università di Firenze, collaboratore della Rivista sui temi dell’Affidabilità, è stato insignito dell’importante riconoscimento “Outstanding young Engineer Award” della IEEE Instrumentation & Measurement Society (I&M). Lorenzo si occupa attualmente di affidabilità, disponibilità, mantenibilità, sicurezza, di test di affidabilità per i sistemi e i componenti elettronici, e di strumentazione elettronica. È stato Guest Editor della Rivista “Measurement” ed Editore di Sezione di Acta IMEKO. È revisore della Rivista IEEE Transactions in Instrumentation and Measurement (TIM) e membro del Comitato di Programma di Convegni Internazionali di prestigio nel campo delle misure e dell’Affidabilità. A Lorenzo i migliori complimenti da parte della Redazione della Rivista e degli amici misuristi italiani! GMMT: GRUPPO MISURE MECCANICHE E TERMICHE

Importante riconoscimento a Paolo Cappa: Il premio Sapio Il Prof. Paolo Cappa, Ordinario di Misure Meccaniche e Termiche all’Università di Roma “La Sapienza”, ha ricevuto recentemente il “Premio SAPIO”, giunto quest’anno alla sua XIV edizione. Il premio è stato conferito il 16 marzo u.s. nel corso di una cerimonia che si è tenuta a Montecitorio, e che ha visto partecipare centonovantatré ricercatori. Paolo Cappa ha vinto il premio nella sezione “Innovazione”, con il suo lavoro su un esoscheletro indossabile per aiutare a camminare bambini con disturbi motori. Congratulazioni a Paolo per questo importante riconoscimento all’attività scientifica svolta nel campo delle misure e della strumentazione biomedicale!


METROLOGIA... PER TUTTI

s

Rubrica a cura di Michele Lanna (info@studiolanna.it)

Il budget dell’incertezza di misura Cos’è e a cosa serve

METROLOGY FOR EVERYONE In this permanent section of the Journal our colleague and friend Michele Lanna, leading expert in metrology, calibration, accreditation of companies, discusses topics of interest for the majority of industrial measurement users, in simple and immediate terms, with reference to the most recent Norms. Write to Michele to comment his articles and to propose other subjects! RIASSUNTO In questa Rubrica il collega e amico Michele Lanna, esperto di metrologia, taratura, accreditamento industriale discute aspetti d’interesse per la maggior parte degli utenti industriali delle misure, con terminologia semplice e immediata, e facendo riferimento alle più importanti e recenti Norme. Scrivete per commentare gli articoli e per proporre ulteriori temi di discussione! Il dubbio cresce con la conoscenza nire un budget dell’incertezza. (Goethe) Alcune delle finalità della stima dell’incertezza di misura e del suo calcolo sono: PREMESSA – Mantenere il controllo qualità e l’assicurazione qualità in produzione; Che cos’è il budget dell’incertezza? È – Assicurare la conformità a leggi e una dichiarazione dell’incertezza di regolamenti; misura, dei suoi componenti, dei cal- – Condurre ricerche (di base e applicoli ed espressione di essa. Un budget cate); dell’incertezza dovrebbe includere: – Tarare gli strumenti, assicurando la Il modello di misura – Le stime delle riferibilità delle misure effettuate a incertezze di misura associate a quel- standard nazionali e internazionali; le quantità nel modello di misura – I – Effettuare confronti con standard gradi di libertà, il tipo di valutazione nazionali e internazionali, inclusi i dell’incertezza di misura e il suo fat- materiali di riferimento; tore di copertura. – Rilevare l’accuratezza delle misure Per poter definire un budget dell’in- effettuate. certezza, bisogna identificare tutte le I passi nell’elaborazione di un budget componenti che contribuiscono al pro- dell’incertezza sono: cesso di misura, classificandole in 1. “Far parlare” al meglio le misure quelle di tipo A e quelle di tipo B. effettuate; 2. Identificare i calcoli da effettuare per produrre il risultato finale; IL BUDGET 3. Effettuare le misure necessarie; 4. Stimare ciascun contributo d’incerDELL’INCERTEZZA DI MISURA tezza che porta al risultato finale; La ISO/IEC 98/3 del 2008 “Guide to 5. Valutare i contributi, distinguendo the expression of uncertainty in mea- quelli di Tipo A e di Tipo B; surement” definisce le regole generali 6. Esprimere tutte le componenti delper valutare ed esprimere l’incertezza l’incertezza allo stesso modo; di misura, che può essere seguita a 7. Verificare che tutte le grandezze in vari livelli di accuratezza, utile a defi- gioco non siano correlate. In caso

T_M

contrario tener conto dei fattori di correlazione esistenti; 8. Calcolare il risultato della misura, inclusa ogni correzione nota; 9. Calcolare le incertezze composte; 10. Individuare il livello di confidenza statistica; 11. Calcolare l’incertezza estesa. Il budget dell’incertezza riporta tutte le componenti d’influenza su una specifica misura, nonché tutte le informazioni necessarie a caratterizzarla. Nel seguito è riportato un format esemplificativo per poter riportare il budget dell’incertezza. Il budget dell’incertezza, sia nelle misure relative alle prove, sia in quelle finalizzate alla taratura delle apparecchiature di misura, risponde ai più moderni concetti di metrologia, che intendono sempre più caratterizzare bene una misura, corredandola d’informazioni utili all’uso. Innanzitutto ricordiamo che una misura si caratterizza per: a) Una dimensione quantitativa (il valore che esprime la misura), accompagnata da un’unità di misura; b) Una dimensione qualitativa, espressione della natura probabilistica dei risultati. La UNI CEI ENV 13005 (“Guida alla stima dell’incertezza di misura”) e il GUM (“Guide on Uncertainty of Measurement”) trattano diffusamente questo aspetto, riportando tutta la sequenza da: MISURA → ERRORE → INCERTEZZA L’iter di stima dell’incertezza inizia con l’individuazione delle tipologie di errori e delle loro possibili categorie (almeno nelle linee generali) di componenti dell’incertezza da considerare, il tutto partendo dall’equazione generale della misura, che, nella forma più semplice si esprime come: M = Vvero + E; M è l’espressione in termini numerici della misura;

N.

2/16 ƒ 153


NEWS

t

Vvero è il valore vero del risultato della misura – un valore mai completamente noto (da qui la parola “Stima” riportata nel titolo della norma UNI CEI ENV 13005), che si avrebbe se non ci fossero errori; E è l’errore di misura, somma di una componente casuale e di una componente sistematica. Questa equazione introduce molto bene il fatto che se in una misura (per assurdo) non ci fossero errori, il valore della misura corrisponderebbe al suo valore vero. Ciò non si verifica e non può mai verificarsi nella realtà, per quanti sforzi e accorgimenti si possano mettere in atto per ottenere una misura “perfetta”. Per brevità di trattazione non possiamo qui trattare la vasta tematica relativa all’incertezza di misura, ormai codificata in norme (GUM, UNI CEI ENV 13005), riportata in modo chiaro da ACCREDIA, declinata sia per la stima di essa nelle prove sia nelle tarature. Inoltre numerosi autorevoli testi (v. bibliografia) trattano molto bene la tematica. Il nostro scopo è

SERVIZI DI TARATURA COMPETITIVI

Avete acquistato i Vostri strumenti T&M Rohde & Schwarz, per la loro affidabilità e precisione. Nel tempo, anche gli strumenti migliori necessitano di manutenzione e la taratura garantisce che il Vostro strumento sia sempre come quando vi è stato consegnato la prima volta. Abbiamo sviluppato un’enorme capacità multivendor: sono migliaia gli strumenti che siamo in grado di tarare come da specifica del costruttore, e la lista si allunga di giorno in giorno. Vi garantiamo che gli strumenti che ci affiderete saranno sempre tarati in maniera corretta.

T_M ƒ 154

N. 02ƒ ; 2016

s

METROLOGIA... PER TUTTI

quello di mettere a fuoco la tematica relativa al budget dell’incertezza. Per far ciò la tratteremo secondo la sequenza: (i) Cosa, (ii) Chi, (iii) Come, (iv) Dove, (v) Quando, (vi) Perché. Innanzitutto cos’è il budget dell’incertezza di misura Un budget dell’incertezza di misura è una dichiarazione, da inserire all’interno di una procedura (p. es. quella relativa alla stima dell’incertezza), che metta a fuoco tutte le componenti dell’incertezza, o fattori d’influenza, considerati, per consentire una gestione pianificata e controllata di essi, inserendo in essa tutte le possibili informazioni necessarie alla gestione. La quantità d’informazione da inserire nel budget dipende dall’utilizzo del risultato della misura. Il GUM (Guide on Uncertainty of Measurement) raccomanda di considerare tutte le componenti dell’incertezza, elencate in modo completo, con riferimento al metodo e alle specificità del Laboratorio. Da dove cominciare? Bisogna iniziare a identificare tutte le Per saperne di più: www.rohde-schwarz.it/it/ service_and_support Tarature di qualità Sistemi automatici di calibrazione garantiscono tarature di Alta Qualità. Misure completamente automatizzate in base alle specifiche del prodotto, adjustments inclusi. Tarature accreditate DAkkS, ENAC e NAB (ON-SITE of DC and low frequency, high-frequency and time and frequency electric measurements) e non solo su strumentazione R&S. Richiedete i nostri accreditamenti. Con il nostro servizio On-Site tutta la nostra Qualità ed esperienza

sorgenti di errore che rappresentano altrettanti contributi all’incertezza. Come fare questo primo passo? Si può procedere in vari modi: 1. Lasciarsi guidare dal metodo, di solito normato, che riporta un elenco esaustivo di tutte le possibili componenti da tenere presenti; 2. Valorizzare l’esperienza del Laboratorio; 3. Tenere presenti le esigenze del Cliente, espresse spesso in specifiche tecniche. Il secondo passo è quello di stimare l’incertezza standard per tutte le componenti considerate. La presentazione del budget è di tipo tabulare, secondo i criteri di seguito riportati. Esso permette di dare un rapido colpo d’occhio a tutte le componenti, al loro peso, espresso in termini quantitativi. Inoltre fornisce un’altra informazione importante, quella relativa alle categorie A e B dell’incertezza. Può anche contenere informazioni relative ai coefficienti di sensibilità associati alle categorie A e B, nonché ai loro gradi direttamente a casa Vostra e su tutta la Vostra strumentazione. – Taratura sul posto: riduzione del tempo d’inattività della strumentazione, massimizzando la disponibilità della strumentazione di qualsiasi marca; – Riduzione dei costi delle apparecchiature: minori necessità di noleggiare strumenti o di richiedere strumenti di back up; – Riduzione dei rischi: taratura completa e precisa eseguita da Rohde & Schwarz che, per più di 80 anni, è sinonimo di qualità, precisione e innovazione; – Riduzione degli oneri amministrativi rivolgendosi a un solo fornitore; – Nessun danno o perita da trasporto. Abbiamo esteso la nostra promozione fino al 31 dicembre 2017: i Clienti che usufruiranno dei nostri Servizi On-Site, come da Regolamento, riceveranno un Oscilloscopio Rohde & Schwarz incluso nella fornitura senza costi aggiuntivi! Non perdete l’occasione di richiederci un preventivo o maggiori informazioni, contattandoci oppure scrivendo a luca.foglia@rohde-schwarz.com.


N. 02ƒ ;2016 di libertà. Innanzitutto non c’è un format specifico indicato in norme, al quale attenersi per la corretta definizione di un budget dell’incertezza. Il format può essere scelto in base alle esigenze specifiche del Laboratorio, o dettate dal metodo, o ancora per rispondere alle esigenze del Cliente. Nel seguito si riporta un budget dell’incertezza: esso è un esempio, quindi non l’unico al quale attenersi. La maggior parte degli standard (non solo quelli citati, ma anche quelli specifici relativi a specifiche prove o tarature) trattano questo argomento. Il “mettere a budget” l’incertezza parte dall’inserire nella prima colonna (vedi Tab. 1) i fattori d’influenza significativi per una specifica misura. Nella seconda colonna si indica il valore della grandezza del singolo fattore considerato, nella terza colonna si indica il tipo d’incertezza (di tipo A o di tipo B), nella quarta colonna il tipo di distribuzione statistica utile per rappresentare il fattore d’influenza; nella colonna successiva è identificato il divisore, cioè la costante necessaria per calcolare la deviazione standard dai dati della distribuzione dichiarata. Nella colonna successiva l’incertezza standard, ottenuta dividendo il valore di ogni grandezza d’influenza per il divisore. Infine si calcola la varianza, come quadrato dell’incertezza standard.

A che serve il budget dell’incertezza? Innanzitutto a pianificare e gestire in maniera controllata tutte le componenti dell’incertezza che incidono sulla misura. Ma rappresenta anche l’acquisizione di una dimestichezza con alcuni termini significativi, un approfondimento di come i metodi di prova o taratura operano, nonché una disamina delle componenti delle apparecchiature (ivi incluso il software) e dell’ambiente che possono influenzare il sistema di misura. Come operare? Innanzitutto tutte le componenti devono essere espresse come deviazione standard σ o varianza σ2. L’equazione generale della misura, prima riportata, deve essere espressa come somma degli errori dovuti a: σ2M = σ2Ambiente + σ2Attrezzature + + σ2Taratura + σ2Campione + ξ dove ξ esprime la variazione di tutte le altre componenti non esplicate. L’esercizio di definizione del budget dell’incertezza richiede: una procedura; l’esistenza di valori aggiornati per le componenti considerate; le competenze statistiche adeguate a processare i dati e a interpretare il budget; la conoscenza dei termini utilizzati, quali: incertezza standard, incertezza composta, fattore di copertura, incer-

Tabella 1 – Esempio di budget dell’incertezza

FATTORI DI INFLUENZA Strumento Risoluzione Attrezzatura Temperatura e/o altri parametri ambientali Standard di riferimento (es. stabilità) Taratura Campione Incertezza ottenuta in misure ripetute Altri fattori specifici

GRANDEZZA

TIPO DISTRIBUZIONE

DIVISORE USTANDARD

VARIANZA NOTE

s

METROLOGIA... PER TUTTI

tezza estesa, conoscenza delle distribuzioni statistiche (normale, rettangolare, triangolare, distribuzione a u). In Tab. 1 si riporta un possibile schema per il budget dell’incertezza. Eventuali note (desumibili dal metodo considerato), quali ad esempio: Target di temperatura; Umidità; Parametri desumibili da eventuali correlazioni esistenti. Va successivamente definito “Chi” gestisce il budget dell’incertezza. La risposta che si può dare non è univoca, e dipende dalla struttura organizzativa e dai compiti e responsabilità assegnati all’interno del Laboratorio. Il “Come” implica il possibile utilizzo delle informazioni riportate nel budget dell’incertezza. Va detto innanzitutto che le informazioni riportate in Tab. 1 sono spesso sintesi di dati, ai quali si può arrivare solo se il Laboratorio dispone di un sistema informativo strutturato, relativo alle prove o tarature effettuate. Il DT 02 DT di ACCREDIA fornisce un’utile guida per strutturare le informazioni da utilizzare anche per la messa a punto del budget dell’incertezza. Il “Dove” sta a significare il luogo nel quale elaborare e utilizzare il budget dell’incertezza. Innanzitutto esso va utilizzato all’interno del Laboratorio e ha una valenza prescrittiva e procedurale significativa, in quanto fornisce agli operatori, sotto la supervisione del Responsabile Tecnico, l’indicazione relativa ai parametri e ai target, consentendo d’individuare l’iter ottimale per la loro gestione. Per quanto riguarda il rapporto con il Cliente, il budget dell’incertezza può essere utilizzato in sede di Riesame delle richieste, delle offerte e dei contratti. Esso è un riferimento sintetico, insieme ad altre valutazioni, per definire con il Cliente che cosa il Laboratorio può offrire e se le sue specifiche soddisfano o meno il Cliente. Infine il “Perché”: certamente ci possono essere altri strumenti per poter mettere a fuoco i parametri significativi da tenere sotto controllo e i relativi target. Il budget rappresenta tuttavia uno strumento snello, che si tiene facilmente sotto controllo, aggiornabile ogni volta che fosse necessario, per gestire le variabili significative di un metodo.

T_M ƒ 155


t

Il budget dell’incertezza è un documento “attivo”, da mantenere aggiornato in funzione delle mutate condizioni operative del Laboratorio. Esso dev’essere gestito quale futuro riferimento quando si eseguono misure che utilizzano lo stesso processo di misura (apparecchiatura, ambiente, operatore, ecc.) Esso segue la stessa vita del metodo, delle condizioni organizzative e operative del Laboratorio, di eventuali requisiti cogenti applicabili. Alcune delle ragioni (l’elenco non è esaustivo, ma solo esemplificativo) per una sua modifica o cambiamento possono essere; – Taratura dell’apparecchiatura; – Sostituzione di un’apparecchiatura con un’altra; – Mutate condizioni ambientali; – Modifica nell’interazione tra l’operatore e il processo (es. acquisto e utilizzo di un software); – Modifiche nel processo di misura.

NEWS

NUOVE STRUMENTAZIONI VIDEOENDOSCOPICHE PER MISURARE LUNGHEZZE, DIAMETRI E PROFILI Il controllo visivo è da sempre il controllo non distruttivo più applicato, non solo nel settore industriale ma anche nei settori automotive e aeronautico. In molti casi, infatti, una osservazione visiva del particolare oggetto di studio rivela uno spaccato della sua storia, consentendo un’analisi successiva più mirata, in base ai risultati delle osservazioni preliminari. In questo senso, il controllo visivo remoto acquista ancora più importanza, in quanto consente un’ispezione di cavità o porzioni del campione difficilmente raggiungibili. Da sempre, però, il controllo visivo remoto presenta problematiche legate principalmente alla possibilità di misura di una discontinuità rilevata all’interno. L’evoluzione tecnologica ha permesso di sviluppare nuove strumentazioni video endoscopiche, in grado di effettuare, oltre all’esame visivo remoto, misure di lunghezze, diametri e profili, con accuratezza e ripetibilità. Inoltre i SW di gestione dati forniscono la possibilità di ricostruire la superficie e il profilo del componente, fornendo svariate informazioni aggiuntive.

T_M ƒ 156

N. 02ƒ ; 2016

n

METROLOGIA... PER TUTTI

CONCLUSIONI

Il metrologo deve imparare sempre più a ragionare utilizzando i dati esistenti all’interno del Laboratorio. Man mano che evolve il progresso normativo, vengono offerte agli operatori di un Laboratorio strumenti sempre più efficaci che supportano le decisioni, attraverso una sempre più intelligente applicazione della sequenza: DATI → INFORMAZIONI → DECISIONI RIFERIMENTI BIBLIOGRAFICI 1. UNI CEI ENV 13005:2000, “Guida all’espressione dell’incertezza di misura”. 2. JCGM 100:2008, “Evaluation of measurement data – Guide to the Expression of uncertainty in Measurement”. 3. ISO/IEC 98/3:2008, “Guide to the expression of uncertainty in measurement”. 4. UNI ISO 5725-1-2-3-4-5-6:2004, CASE STUDY: SALDATURE A seguito di una richiesta specifica per la misurazione della profondità di penetrazione su una giunzione Testa-Testa di un tubo accessibile dal lato interno, è stato effettuato un esame videoendoscopico utilizzando una sonda a fibra ottica da 4 m con sonda penetrante di Ø 4 mm, inserita da un lato accessibile tramite apertura di una valvola. Tramite l’acquisizione di una nuvola di punti, sono stati effettuati calcoli di profondità e lunghezze, senza la necessità di avere sull’immagine un oggetto di dimensioni note. Oltre alla misura oggettiva dell’indicazione, è stato possibile avere accesso alla ricostruzione 3D della superficie, come si vede nella porzione destra dell’immagine.

CASE STUDY: CORROSION MAPPING Durante una verifica sperimentale, su un componente è emerso un esteso fenomeno corrosivo, causato dall’utilizzo di sostanze non adeguate. L’acquisizione di una nuvola di punti, con cui è stato possibile ricostruire il profilo della superficie, ha permesso di ottenere svariate possibilità per valutare lo stato corrosionale presente nella parte interna del componente. La selezione di una porzione di superficie perpendicolare all’angolo di visione della sonda ha consentito di determinare l’area di materiale soggetta a fenomeni corrosivi e valutare lo stato super-

“Accuratezza (esattezza e precisione) dei risultati e dei metodi di misurazione”. 5. DT 02 DT:2012 – ACCREDIA, “Guida alla gestione e controllo del sistema informativo dei Laboratori”. 6. DT 05 DT:2014 – ACCREDIA, “Introduzione ai criteri di valutazione dell’incertezza di misura nelle tarature”. 7. DT 0002/1-2-3-4 – ACCREDIA, “Esempi applicativi dell’incertezza nelle misurazioni elettriche, meccaniche, analisi chimica, misurazioni chimiche”. 8. CCT, “The Certified Calibration Technician Primer”: 2010 – Quality Council of Indiana. 9. S.K. Kimothi, “The Uncertainty of Measurements”: 2002 – ASQ Quality Press. 10. D. Shah, “Measure for Measure” – Quality Progress – Marzo 2009. 11. J. Muelaner, “Quality in Mechanical Engineering”: 2015 – dr. Jody Muelaner. 12. S. Bell, “A Beginner’s Guide to Uncertainty of Measurement” – NPL National Physical Laboratory. ficiale, in termini di materiale asportato o formazione di prodotti di corrosione. CASE STUDY: MISURE DIMENSIONALI A seguito di una richiesta di analisi, è stato necessario effettuare alcune misure dimensionali su un prodotto appartenente al campo automotive, con geometria conosciuta, ma presente in zone non accessibili con le consuete strumentazioni di misura. La misura dimensionale di questo componente, per valutare eventuali stati di usura in seguito a esercizio, fino a ora era stata giudicata non attuabile a causa dell’impossibilità di accesso per i tradizionali sistemi di rilevazione quote. La dimensione ridotta della sonda, unita alla capacità del software di calcolo, ha permesso di ovviare a tale problematica. IL FUTURO La possibilità di acquisire, mediante nuvola di punti, il profilo di una superficie, anche in formato .slt, apre la possibilità di interpolazioni tra varie immagini acquisite da posizioni e angolazioni differenti, consentendo la ricostruzione in CAD della superficie. Tali applicazioni, al momento in fase di sviluppo, devono ancora essere validate per verificare la consistenza dei dati acquisiti; se tali ipotesi venissero però confermate, questo rappresenterebbe il futuro del controllo visivo, non solo come ricerca di discontinuità ma anche come sistema di acquisizione “in sito” di profili superficiali, e successiva ricostruzione in 3D, rispondendo a una nuova serie di quesiti tecnologici ancora senza soluzione. Per ulteriori informazioni: www.tec-eurolab.com


COMMENTI ALLE NORME

s

Rubrica a cura di Nicola Dell’Arena (ndellarena@hotmail.it)

Riesame della Direzione Parte seconda Registrazioni e Obiettivi

COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025 A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025. RIASSUNTO Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La struttura della documentazione (n. 4/2000); Controllo dei documenti e delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e Laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 4/2006, n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010), parte 2.a (n. 1/2011), parte 3.a (n. 2/2011); Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012), parte 5.a (n. 4/2012), parte 6.a (n. 1/2013), parte 7.a (n. 2/2013), parte 8.a (n. 3/2013), parte 9.a (n. 4/2013), parte 10.a (n. 1/2014); Audit interno parte 1.a (n. 2/2014), parte 2.a (n. 3/2014), parte 3.a (n. 4/2014), parte 4.a (n. 1/2015), parte 5.a (n. 2/2015), parte 6.a (n. 3/2015), parte 7.a (n. 4/2015); Riesame parte 1.a (n. 1/2016). REGISTRAZIONI

Nel secondo comma del paragrafo 4.14.1 la norma prescrive che “il riesame deve tenere conto di: idoneità delle politiche e delle procedure; rapporti dalla direzione e dal personale addetto alla supervisione; gli esiti delle verifiche ispettive recenti; azioni correttive e preventive; valutazioni da parte di organismi esterni; risultati di prove comparative fra Laboratori o prove valutative; ogni variazione nel volume e tipo di lavoro; informazioni di ritorno dal cliente; reclami; ogni altro fattore di rilievo, come le attività di controllo qualità, le risorse e l’addestramento del personale”.

La 9001 sul riesame prescrive che bisogna trattare gli elementi in entrata e gli elementi in uscita. Gli elementi in entrata, al di là del linguaggio, sono uguali a quelli prescritti dalla 17025 sopra riportati. Per gli elementi in uscita la 9001 prescrive di prendere decisioni con le relative azioni sui seguenti punti: “a) miglioramento dell’efficacia del sistema di gestione per la qualità e dei suoi processi, b) miglioramento dei prodotti in relazione ai requisiti del cliente, c) bisogni di risorse”. Come si ottiene tutto ciò e come si procede? Il responsabile della qualità prepara il Rapporto da presentare alla Direzione dove riporta tutto ciò che è successo nell’anno precedente su tutti i punti sopraelencati della norma. Per gli elementi in uscita, il Responsabile della Qualità, che è preparato meglio degli altri sulla materia, nel Rapporto può fare proposte; la Direzione, durante la

riunione, o approva o propone altre soluzioni. A questa registrazione in entrata non ho dato nessun titolo, chiamatelo come vi pare anche se il nome più comune è “Rapporto sullo stato del sistema qualità”. La stessa cosa vale per la registrazione in uscita. Se si sceglie il metodo della riunione questa registrazione può essere chiamata “Verbale del Riesame della Direzione” e di esso si riporta un esempio. La norma, con la nota 3 del paragrafo 4.14.1, introduce un altro elemento, e precisamente: ”il riesame da parte della direzione comprende l’esame di argomenti trattati nel corso di riunioni regolari della direzione”. Con questa nota la norma ci dice che nel riesame si può trattare argomenti delle regolari riunioni, ma questi argomenti sono sempre i requisiti della norma. In base a questa nota, molte Società effettuano il riesame nelle regolari riunioni mettendo all’Ordine del Giorno i requisiti da trattare. Con questo metodo bisogna avere l’accortezza, nel corso dell’anno, di trattare tutti i requisiti, e ha il pregio di apportare i miglioramenti immediatamente senza aspettare la fine dell’anno. In questo caso la Registrazione in uscita è il Verbale della riunione. OBIETTIVI

Negli obiettivi per il miglioramento, riportati nell’esempio, bisogna prima approvare e poi effettuare i miglioramenti richiamati dalla ISO 9001, e cioè: i) efficacia del sistema di gestione della qualità; ii) miglioramento dei processi; iii) miglioramento dei prodotti; iv) necessità delle risorse umane, dei materiali ed economiche. La ISO 9001 parla del miglioramento dei prodotti in relazione ai requisiti del cliente. Con questa frase ritorna la magia e la paura del cliente. Nella prova o taratura c’è poco da rispettare per i requisiti del

T_M

N.

2/1 T_M 6 ƒ 1 157 57


Logo

s

COMMENTI ALLE NORME

Tipologia Mod. AAA01 VERBALE – RIESAME DELLA DIREZIONE

Identificazione:

cliente, infatti quasi sempre è il Laboratorio che impone il suo modo di operare, e le prove o tarature hanno metodi validi e riconosciuti in tutto il mondo. La nota 2, che riporto integralmente, dice: “è opportuno che i risultati contribuiscano al sistema di pianificazione del Laboratorio e comprendano gli scopi previsti, gli obiettivi e i piani di azioni dell’anno successivo”. Sinceramente non ho mai capito cosa voglia dire, e quindi cosa bisogna fare per applicarla. Ricordo solamente che non è obbligatorio applicare le note.

Data:

n

NUOVA TERMOCAMERA A SPOT OTTIMIZZATA

2. Azioni Correttive 3. Azioni Preventive 4. Obiettivi per il miglioramento 5. Partecipanti Ufficio Tecnico

Responsabile Qualità

Cantiere

Amministrazione e personale

DIREZIONE

Caratteristiche principali: – Rapida risoluzione dei problemi elettrici: vedi immediatamente l'elemento caldo e dove puntare; – Semplice e pronta all'uso: intuitiva nell'utilizzo, non richiede una preparazione specifica; – Robusta e affidabile: compatta e resistente, si ripone facilmente anche nella borsa degli attrezzi più stipata. La TG167 ha un campo visivo più ristretto (25° in orizzontale) rispetto al modello TG165 (50 gradi in orizzontale) e risulta quindi più utile nelle ispezioni elettriche indoor, per la qualità del dettaglio nelle immagini. La nuova termocamera esprime tutto il proprio potenziale nella ricerca di punti caldi in armadi elettrici, scatole di derivazione e altri elementi elettrici. Entrambe le versioni consentono di memorizzare immagini e scaricare i dati per documentare i risultati dell'ispezione in un rapporto.

FLIR ha annunciato recentemente un nuovo ingresso nella Serie TG. La termocamera a spot TG167 colma il divario tra i termometri IR a singolo spot e le leggendarie termocamere FLIR. Come il suo predecessore TG165, anche la TG167 è dotata dell'esclusiva micro termocamera Lepton®, che consente di vedere il calore per localizzare Per ulteriori informazioni: www.flir.com/TG167 con facilità i problemi.

T_M ƒ 158

di

1. Sintesi Discussione

che le azioni che seguono devono essere registrate (ricordo che le azioni posRISULTATI sono essere azioni correttive o preventive). Del secondo comma c’è poco da Il paragrafo 4.14.2 della norma pre- dire, bisogna far sì che le azioni siano scrive che “i risultati dei riesami da eseguite nei tempi giusti. parte della direzione e le azioni che ne derivano devono essere registrati. La direzione deve garantire che quelle POSIZIONE DI ACCREDIA azioni siano eseguite con una tempisti- SUL PUNTO 4.14.1 ca appropriata e concordata”. Del primo comma sulle registrazioni ho già Al di là di alcune sfumature, la posiziodetto tutto, ed è pleonastico dire anche ne di ACCREDIA per i Laboratori di

NEWS

Pag.

prova e di taratura è identica. Per entrambi indica cosa fare e per quelli di prova è più preciso riportando la registrazione da preparare. Per quelli di prova, oltre alla frase “si applica il requisito di norma” aggiunge “con l’ulteriore obbligo per il Responsabile del Sistema di Gestione per la Qualità di presentare al riesame dalla direzione (con adeguato anticipo rispetto alla riunione pianificata) un rapporto sullo stato della qualità comprendente gli elementi d’ingresso indicati dalla norma”. Per quelli di taratura, oltre alla frase “si applica il requisito di norma”, afferma che “il Responsabile della qualità deve riferire periodicamente per iscritto alla Direzione, almeno annualmente, sull’andamento della qualità del Laboratorio” e ancora “il riesame dev’essere effettuato almeno una volta all’anno”. Per i Laboratori di prova introduce la seguente nota: “in relazione alla dimensione del Laboratorio e dell’eventuale organizzazione di cui è parte, si possono prevedere riesami a livelli diversi, ad esempio: uno a livello locale in cui sono discusse le problematiche del Laboratorio e uno a carattere più generale, aziendale, a cui giungono come input i risultati locali”. Essa risulta essere significativa e importante per i Laboratori con ramificazioni in diversi Paesi o con Laboratori che si trovano all’interno di Società complesse, e che sono pure certificate in accordo alla ISO 9001. Qualora il Laboratorio dovesse optare per questa strada, la deve riportare nel Manuale della Qualità. Per i Laboratori di taratura riporta un ulteriore requisito: “il Laboratorio deve effettuare un riesame anche dopo le verifiche di parte seconda e terza (es.


N. 02ƒ ;2016 POSIZIONE DI ACCREDIA SUL PUNTO 4.14.2

Per entrambi i Laboratori ACCREDIA riporta la frase “si applica il requisito di norma”, ed è giusto che sia così poiché il requisito è semplice e facile da applicare. Nel punto 4.15 la 17025 prescrive che bisogna effettuare i riesami della direzione (reviews in inglese). Rispetto alle prime norme, questo è un requisito nuovo: per me la sua introduzione non sarebbe stata strettamente necessaria. La ISO 9001, punto 3.8.7, definisce il riesame come “attività effettuata per riscontrare l’idoneità, l’adeguatezza e l’efficacia di qualcosa a conseguire gli obbiettivi stabiliti”, e inoltre con la nota aggiunge “il riesame può anche attenere alla determinazione dell’efficienza”. Secondo la definizione della ISO bisogna effettuare attività per verificare l’idoneità, l’adeguatezza, l’efficacia e l’efficienza per raggiungere determinati obiettivi. La ISO 9001 non porta le definizioni d’idoneità e adeguatezza (per cui bisogna ricorrere allo Zingarelli), mentre porta le definizioni di efficacia ed efficienza. L’idoneità (suitability) è “qualità di chi, di ciò che è idoneo a o per qualcosa”. L’adeguatezza è “qualità di ciò che è adeguato (giusto e proporzionato)”. La ISO 9001 definisce efficienza (effectiveness) nel punto 3.2.14 come “grado di realizzazione delle attività pianificate e di conseguimento dei risultati pianificati” e nel punto 3.2.15 “rapporto tra i risultati ottenuti e le risorse utilizzate per ottenerli”. I due termini idoneità e adeguatezza sono simili e dicono la stessa cosa, per cui ha fatto bene la 17025 a parlare

n

verifiche ACCREDIA), se da queste sono emersi rilievi e il Laboratorio deve pianificare azioni correttive, azioni preventive e di miglioramento, investimenti, ecc.”. L’aggiunta di questo requisito non era necessaria per due motivi: 1) non si può costringere un Laboratorio a effettuare il riesame anche per rilievi semplici; 2) la norma già dice chiaramente di riportare i risultati delle verifiche degli organismi nel Rapporto sullo stato della qualità.

COMMENTI ALLE NORME

dicamente un riesame”. Questa prescrizione va legata insieme alla nota 1 che afferma “la periodicità tipica del riesame da parte della direzione è una volta ogni dodici mesi”. Con la nota 1, la prima cosa che si capisce è che il riesame deve per forza essere effettuato anche se non c’è nulla da portare all’attenzione della Direzione. La seconda cosa è che esso deve essere fatto una volta all’anno. Legando insieme la periodicità con la richiesta del piano si vede che, se deve essere PIANO E PROCEDURA fatto una volta all’anno, il documento di pianificazione non è strettamente necesVediamo cosa chiede la 17025. Al pa- sario. ragrafo 4.14.1 prescrive che “la direzione al vertice del Laboratorio, secondo un piano e una procedura prefissa- METODI ti, deve condurre periodicamente un riesame del sistema qualità del Laborato- Il riesame può essere effettuato in due rio e delle attività di prova e/o taratura modi. Il primo modo è che, all’inizio per garantire il mantenimento in modo dell’anno, il responsabile della qualicontinuo, della loro idoneità e efficacia tà prepari un Rapporto sullo stato e per introdurre i necessari cambia- della qualità che viene esaminato e menti o miglioramenti”. approvato dalla Direzione. La DireLa prima cosa da capire è: chi è la Dire- zione può decidere da sola oppure zione? La risposta è semplice, anche se far decidere da un’apposita riunione nelle organizzazioni vaste e multidisci- alla quale partecipano tutti i settori plinari la risposta diventa complicata. del Laboratorio (naturalmente questa Una volta che l’organizzazione ha soluzione va bene per i grandi Laboeffettuato la scelta, per questo argo- ratori). Il secondo modo è di decidere mento la Direzione è colui che ha fir- volta per volta a seconda del problemato il Manuale della qualità. ma, dalla Direzione o con una riunioIl secondo aspetto riguarda la prescri- ne, con l’avvertenza però che entro zione: si chiedono un piano e una pro- l’anno bisogna trattare tutti i requisiti. cedura prefissati. La ISO 9001, tra le In questo secondo metodo nasce la sue prescrizioni, richiede poche proce- necessità di un documento di pianifidure, e quella del riesame è compresa cazione (per non dimenticare qualche tra quelle richieste. Essa è una proce- requisito). Questo secondo metodo va dura gestionale nella quale bisogna bene anche quando la necessità si riportare le solite cose: responsabilità di presenta all’improvviso e non può ogni singolo atto, modalità di attuazio- essere pianificata. Devo ricordare che ne, tempi e registrazioni da utilizzare. l’ultima decisione spetta sempre alla Per quanto attiene al piano, a seconda Direzione. di come si organizza il riesame, non è La norma richiede che sia riesaminato strettamente necessario prepararlo. Se “il sistema qualità del Laboratorio e si effettua la scelta di preparare il piano delle attività di prova e/o taratura”. a inizio anno, bisogna preparare un Ci risiamo: il normatore si dimentica documento in cui si riporta cosa riesa- che le attività di prova e taratura sono minare, chi deve compiere l’azione, i tutte comprese nel Capitolo 5 della 17025, per cui è pleonastico ripetertempi e eventualmente i costi. si. A questo punto preciso che il Laboratorio deve praticamente verificare PERIODICITÀ solo che il sistema qualità organizzato secondo la 17025 sia idoneo ed La norma prescrive di “condurre perio- efficace.

solo d’idoneità anche se, nelle norme precedenti, veniva usato il termine adeguatezza. I due termini efficacia ed efficienza sono molto simili, ma hanno una leggera differenza. Il primo dice che l’attività effettuata raggiunge lo scopo mentre il secondo dice che lo scopo si può raggiungere con differenti attività ma quello che lo fa raggiungere con minori risorse (soprattutto quelle economiche) è efficiente.

T_M ƒ 159


T U T T O _ M I S U r E Anno XVIII - n. 2 - Giugno 2016 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttori: Dario Petri, Nicola Paone Comitato di redazione: Nicola Giaquinto, Claudio Narduzzi, Loredana Cristaldi, Pasquale Arpaia, Bernardo Tellini,  Bruno Andò, Lorenzo Scalise, Gaetano Vacca, Rosalba Mugno, Carmelo Pollio, Michele Lanna, Luciano Malgaroli, Massimo Mortarino

redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke, Aldo Romanelli Le pagine delle Associazioni Universitarie di Misuristi: Franco Docchio, Dario Petri, Alfredo Cigada Le pagine degli IMP: Maria Pimpinella Comitato Scientifico: ACCREDIA (Filippo Trifiletti, Rosalba Mugno, Emanuele Riva, Silvia Tramontin); ACISM-ANIMA (Roberto Cattaneo); AEIT-ASTRI (Roberto Buccianti); AIPT (Paolo Coppa); AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina); ALPI (Lorenzo Thione); ANIE (Marco Vecchio); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Gabriele Bitelli), CNR (Ruggero Jappelli); GISI (Sebastian Fabio Agnello, Renato Uggeri); GMEE (Dario Petri); GMMT (Nicola Paone); Gruppo Misuristi Nucleari (Stefano Agosteo); GUFPI-ISMA (Luigi Buglione); IMEKO (Paolo Carbone); INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Massimo Inguscio, Paolo Vigo, Franco Pavese); ISPRA (Maria Belli) Videoimpaginazione e Stampa: la fotocomposizione - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/3/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli, Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EUrO (4 numeri cartacei + 4 sfogliabili + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EUrO (8 numeri cartacei + 8 sfogliabili + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPOrTO DELL’ABBONAMENTO ALLA PrESENTE PUBBLICAZIONE È INTErAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.

NEL PROSSIMO NUMERO • Misurare l'innovazione • Misure per l'industria • Metrologia legale e forense E molto altro ancora...

ABBIAMO LETTO PER VOI

n

La Redazione di Tutto_Misure (franco.docchio@unibs.it)

We have read for you

IL MESTIERE DELLA SCIENZA

Carlo Enrico Bottani 138 pp. – Franco Angeli Editore (2015) ISBN: 978-88-891733-32-0 Prezzo: € 11,99 (e-book)

Malgrado l’origine quasi religiosa della vocazione scientifica, lo scienziato non appartiene a una razza speciale e il suo è, almeno in parte, un lavoro come un altro, anche se può implicare responsabilità eccezionali. Potrà più facilmente sostenerle se si renderà conto che i sacri metodi delle scienze “esatte” non sono poi così diversi da quelli delle scienze umane. Al tradizionale tema di discussione sul rapporto tra scienza e conoscenza dovrà allora affiancare un’approfondita riflessione su scienza e comunicazione, scienza e tecnologia, e soprattutto scienza e democrazia. Argomenti cruciali in un periodo di crisi, non solo economica, che l’autore, ricercatore di Fisica della Materia, affronta in queste pagine. Il libro non intende “divulgare” le teorie di uno specifico ambito della scienza o un particolare problema scientifico, bensì provare a spiegare che cos’è la scienza e, soprattutto, in che cosa consiste il lavoro dello scienziato e la sua rilevanza sociale effettiva, non quella percepita sull’onda di emozioni suscitate dal sensazionalismo mediatico. Le parole chiave non sono dunque “mistero”, “fascino”, “stupore”, “neutrini” e “bosone di Higgs”, che pure il lettore troverà di frequente, bensì “conoscenza”, “mondo”, “metodo”, “storia”, “prassi”, “professione”, “rapporti umani”, “responsabilità”. La riflessione condotta dall’autore non si colloca sull’orlo della scienza, ma al suo interno e anche oltre. La sua speranza è che, alla fine, l’idea di scienza resa così accessibile ai non addetti ai lavori sia un po’ più vicina alla realtà di quanto non sia, mediamente, oggi. Senza per questo essere meno affascinante, anzi.

L’autore Carlo E. Bottani è Professore Ordinario di Fisica sperimentale della Materia al Politecnico di Milano. Ha svolto tutta la sua attività di ricerca nell’ambito della fisica dello stato solido. È autore di 255 pubblicazioni e coordinatore di un Dottorato di Ricerca. È inoltre membro effettivo dell’Istituto Lombardo – Accademia di Scienze e Lettere.

LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AR Europe 3a di cop. Aviatronik 4a di cop. Cibe p. 120 Crase p. 124 Delta Mu pp. 140-150 Delta Ohm pp. 98-122 DSPM Industria p. 146 FLIR pp. 92-158 HBM Italia pp. 88-122-146-149 Hexagon Metrology p. 86 IC&M p. 122 Instrumentation Devices pp. 89-126 Keyence pp. 81-137

T T_M _M ƒN.160 2/16 ƒ 160

Kistler Italia Labcert Laser Lab LTF LTTS Luchsinger PCB Piezotronics Physik Instrumente Renishaw Rohde & Schwarz Rupac Tec Eurolab

pp. 108-112 p. 90 p. 150 p. 136 p. 104 pp. 100-102-144 pp. 130-150 pp. 132-135 pp. 82-112 pp. 110-154 2a di cop. pp. 118-156



TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

ANNO XVIII N. 02 ƒ 2 016 AFFIDABILITÀ & TECNOLOGIA

ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 2 - Anno 18- Giugno 2016 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi

TUTTO_MISURE - ANNO 18, N. 02 - 2016

EDITORIALE Elezioni, Presidenze, A&T

IL TEMA I contributi degli IMP

GLI ALTRI TEMI Misure di umidità Misure per l’ambiente e il costruito Incertezza di definizione Misura del colore

ALTRI ARGOMENTI Visione artificiale La 17025 - Riesame della Direzione - parte II Tecnologie in campo Metrologia... per tutti!

WWW.TUTTOMISURE.IT


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.