Tutto_Misure 04/2012

Page 1

16:30

Pagina 1

TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

ANNO XIV N. 04 ƒ 2 012

GRUPPO MISURE ELETTRICHE ED ELETTRONICHE

EDITORIALE Navigando tra i siti degli IMP

IL TEMA: TUTTO_SERGIO SARTORI ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 4 - Anno 14 - Dicembre 2012 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi

23-11-2012

TUTTO_MISURE - ANNO 14, N. 04 - 2012

COPER TM 4-2012

Una raccolta di scritti di Sergio su T_M

ALTRI TEMI Misure per il fotovoltaico

METROLOGIA LEGALE TRV: MI 006 – Strumenti per pesare a funzionamento automatico

ARGOMENTI Metrologia legale e forense: gli etilometri Conformità ed efficacia – parte II IMP: Campioni Josephson – parte II Commenti alla 17025: la non conformità – parte V

AFFIDABILITÀ & TECNOLOGIA




241-272

23-11-2012

17:27

Pagina 243

TUTTO_MISURE

ANNO XIV N. 04 ƒ 2012

IN QUESTO NUMERO La stima dell’incertezza nelle misurazioni Uncertainty estimation in measurements S. Sartori

257

Editoriale: Navigando tra i siti degli Istituti Metrologici... (F. Docchio)

245

Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 248 Il tema: Tutto_Sergio Sartori Introduzione alla raccolta (F. Docchio, A. Cigada, M. Mortarino) Metrologia incompiuta (S. Sartori) Metrologia e sua (rinnegata) globalizzazione (S. Sartori) La stima dell’incertezza nelle misurazioni (S. Sartori) I costi della riferibilità: si possono ridurre? (S. Sartori) Applicazione della GUM a una misura biologica (A. Maiello, D. Spolaor, S. Sartori) Cambiare tutto affinché niente cambi (S. Sartori)

251 253 255 257 261 265 271

Collaudo d’impianti fotovoltaici di media e grande taglia

Gli altri temi: Misure per il Fotovoltaico Collaudo d’impianti fotovoltaici di media e grande taglia: un caso specifico (E. Fiorucci, G. Bucci, F. Ciancetta)

Testing of medium and large-sized photovoltaic plants: application to a case study E. Fiorucci, G. Bucci, F. Ciancetta

Campi e Compatibilità Elettromagnetica Strumentazione di base nelle misure di Compatibilità Elettromagnetica: la rete artificiale per la misura dei disturbi condotti (C. Carobbi, M. Cati, C. Panconi) 277

273

Le Rubriche di T_M: Visione Artificiale Smart Cameras distribuite (G. Sansoni)

281

273

I Seriali di T_M: Misure e Fidatezza L’approccio previsionale all’affidabilità: modelli e banche dati (M. Catelani, L. Cristaldi, M. Lazzaroni)

285

Dalla conformità all’efficacia Parte 2: le informazioni

I Seriali di T_M: Conformità e Affidabilità Dalla conformità all’efficacia: Parte 2 – le informazioni (T. Miccoli)

289

From compliance to effectiveness Part 2: the information T. Miccoli

289 Metrologia legale e forense: gli etilometri Legal and forensic metrology: the breathalyzers V. Scotti

293

Le Rubriche di T_M: Metrologia legale Etilometro: prime aperture alla valutazione dei dati numerici (V. Scotti) Tavola Rotonda Virtuale: MI 006 – Strumenti per pesare a funzionamento automatico. L’evoluzione normativa della metrologia legale in Italia (a cura di M. Mortarino)

295

Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi

303

Spazio delle altre Associazioni Notizie dalle altre Associazioni

307

293

Lo spazio degli IMP Prospettive dei campioni Josephson per la Metrologia Quantistica (V. Lacquaniti, N. De Leo, M. Fretto, A. Sosso) 309 Manifestazioni, Eventi e Formazione 2012-2013: eventi in breve

313

Commenti alle norme: la 17025 Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte quinta (N. Dell’Arena)

315

Storia e curiosità Antonio Pacinotti, cent’anni dalla morte (C. Luperini, A. Tellini)

317

Abbiamo letto per voi

320

News

282-284-288-298-300-306-312-314-319

T_M

N.

4/12 ƒ 243



Franco Docchio

EDITORIALE

Navigando tra i siti degli Istituti Metrologici...

Navigating among the Metrological Institutes websites... Cari lettori! Nella cornice della prolungata estate che tutt’a un tratto diventa un inverno anticipato (dove sono le mezze stagioni?), degli eventi atmosferici che scuotono New York e degli eventi politici che scuotono il nostro povero Paese, sono a scrivere questo editoriale che fa da preambolo a un numero della Rivista dedicato per buona parte al contributo del suo fondatore, Sergio Sartori. Ho “oziato” (sto finalmente concludendo la convalescenza per un “rimpiazzo” di anca) navigando, tra l’altro, tra i siti degli istituti metrologici e ho trovato un paio di suggestive notizie che meritano attenzione. La prima è tratta dal sito del National Physical Laboratory (NPL) inglese, e parla di una collaborazione tra l’Istituto stesso e un’Università inglese, per lo “sfruttamento” della radiazione X da stelle “decedute” (le cosiddette Pulsar, stelle di neutroni in rapida rotazione attorno al nucleo, residui di stelle che hanno terminato il loro ciclo di vita e sono collassate) come “guida” per la navigazione di astronavi nello spazio interstellare ai confini del sistema solare e oltre. Questa sorta di “GPS” stellare ridurrebbe i costi e i tempi delle attuali trasmissioni da e verso la terra, entrambi elevati a causa delle notevoli distanze. Questa ricerca fa parte, per l’NPL, della ricerca sul tempo e la frequenza dell’Istituto e dimostra la lungimiranza e la proiezione verso il futuro della metrologia avanzata, che investe tempo e risorse in ambiti applicativi con ricadute a medio, se non a lungo, termine. La seconda notizia deriva da una visita al sito del nostro Istituto Metrologico e si riferisce a un convegno svoltosi nei giorni scorsi in compartecipazione tra l’I.N.Ri.M. e il Politecnico di Torino, dal titolo “The time machine Factory”. A metà tra convegno scientifico e occasione per un’opera di divulgazione anche verso i non esperti di meccanica quantistica o relatività generale, l’evento mette a fuoco la non escludibile fattibilità di un ritorno al passato o un salto nel futuro, da coniugare con la necessità di salvaguardare la casualità e non perturbare lo scorrere naturale degli eventi. Il viaggio nel tempo ha esercitato su di me un grande fascino fin da bambino, e continua a esercitarlo anche ora; la sua fattibilità deriva anche da quei nuclei di distorsione spazio-temporale costituiti dai buchi neri, importanti per un approccio più realistico alla rivalutazione del tempo come coordinata “bidirezionale”. A proposito di viaggi nel tempo e di possibilità di “correggere” storture del passato per un mondo migliore, sono convinto che la sentenza che ha condannato i sei esperti della Commissione Grandi Rischi della Protezione Civile sia uno degli eventi a cui sia necessario porre rimedio. Per un ricercatore come me, membro di quella categoria che fa della ricerca della verità un obiettivo incondizionabile dal potere, la sentenza stupisce e allarma. Stupisce per il fatto che i giudici non hanno tenuto conto della “manipolazione dell’incertezza” (in questo caso, l’ovvia incertezza nella stima della probabilità di un

evento sismico delle proporzioni di quello dell’Aquila) da parte del potere, solo per i suoi scopi mediatici. Allarma per l’inevitabile perdita di credibilità, da un lato, del corpo degli scienziati e dei tecnici nei confronti dell’opinione pubblica, e della tentazione, da parte di questi, di evitare di assumersi responsabilità specie in settori ad alta incertezza e nei quali il rapporto con il potere e con i media è più stretto. Fa piacere che da tutto il mondo si siano levate voci di dissenso e di condanna nei confronti di questa sentenza. Fa piacere, anche in assenza di viaggi nel tempo che possano correggere l’evento, che esista un secondo grado di giudizio per raddrizzare questa stortura. Il feedback dei lettori all’ultimo numero della Newsletter Tutto_Misure News è stato lusinghiero, e soprattutto ha dimostrato il notevole interesse dei laboratori di taratura per la costituzione dell’associazione A.L.A.T.I., che li dovrebbe raggruppare e dovrebbe proporsi come interfaccia diretta nonché membro di ACCREDIA. Spero proprio che l’associazione possa raccogliere tra i soci un cospicuo numero di laboratori prove e tarature, per contare di più a livello nazionale. Alcuni lettori avranno notato, nell’ultimo numero di Tutto_Misure News, e noteranno anche in questo numero cartaceo, nella Rubrica “Notizie dal Mondo delle Misure…”, una notizia che riguarda offerte di posizioni accademiche all’Università Tecnica di Abu Dhabi. La notizia, oltre che un riconoscimento per un prestigioso posto di Full Professor affidato a un membro del GMEE (l’Ing. Marco Mugnaini, Unità di Siena), è la dimostrazione che giovani ricercatori nostrani possono a pieno diritto ambire a posizioni accademiche di alto livello presso importanti Università straniere. Non me ne vogliano i fautori del cosiddetto “rientro di cervelli”: credo che uno dei compiti dello staff della Rivista sia favorire quanto più possibile l’inserimento di giovani preparati e di valore in posizioni di prestigio di Università e imprese in tutto il mondo, in un’ottica di sana competizione a livello globale. Buona fortuna a Marco e a tutti coloro che tenteranno un’avventura all’estero, in attesa di tempi migliori per il loro inserimento nelle nostre Università e imprese! Infine, avviso alle aziende che hanno, o vogliono attivare, collaborazioni con Università. Oggi (31 ottobre, n.d.r.), come già anticipato in altro numero della rivista, le Università “perdono” le Facoltà. Responsabili della ricerca e della didattica saranno, in futuro, unicamente i Dipartimenti, che potranno all’uopo proporre un organismo di coordinamento con poteri molto limitati rispetto alle vecchie Facoltà. Dunque, per la maggior parte delle imprese, i nuovi interlocutori saranno i Dipartimenti. E, a proposito di Dipartimenti, segnalo che con oggi cessa la mia afferenza al Dipartimento di Ingegneria dell’Informazione e da domani inizia la mia afferenza al Dipartimento di Ingegneria Meccanica e Industriale (stessa Università di Brescia). Dopo anni di militanza nel precedente Dipartimento, questo cambiamento mi emoziona, ma spero di poter dare, anche nella nuova struttura, un contributo fattivo per la promozione del trasferimento tecnologico universitàimpresa e per una ricerca e una didattica di qualità per il nostro Ateneo. Buona lettura! Franco Docchio

T_M

N.

4/12 ƒ 245




COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)

Notizie nel campo delle misure e della strumentazione

NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of the most significant news from Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. PASQUALE DAPONTE PROSSIMO PRESIDENTE IMEKO

Il Prof. Pasquale Daponte, dell’Università degli Studi del Sannio a Benevento, nonché membro GMEE e del Comitato Editoriale della Rivista Tutto_ Misure, è stato nominato Presidente dell’IMEKO per il triennio 201215 durante la riunione del General Council dell’organizzazione, tenutasi a Busan (Korea) lo scorso 9 settembre. IMEKO (Confederazione Internazionale delle Misure, www.imeko. org), è una federazione non governativa di 38 Organizzazioni focalizzate nel progresso delle tecnologie di misura. I suoi obiettivi fondamentali sono la promozione di scambi internazionali d’informazioni scientifiche e tecniche nel campo delle misure e della strumentazione, e la promozione della collaborazione internazionale tra scienziati e tecnici dalla ricerca e dall’industria. All’amico e collega Pasquale le più vive felicitazioni per questo prestigioso traguardo, i migliori auguri di buon lavoro e la speranza che l’incremento

T_M

N.

di lavoro che gli deriverà dal nuovo ruolo non faccia venir meno la sua preziosa attività per la Rivista! UNISALENTO E IL PROGETTO SIMPLE: NUOVI OBIETTIVI RAGGIUNTI

“S.I.M.P.Le. – System for Identifying and Monitoring Pipe LEaks” è un progetto di ricerca svolto in collaborazione tra l’Università del Salento (responsabile: Prof. Ing. Andrea Cataldo) e l’Acquedotto Pugliese spa (referente: Ing. Marcello Miraglia), con la collaborazione del Politecnico di Bari, con lo scopo di sviluppare un nuovo sistema ricerca-perdite, basato sulla riflettometria a microonde, per la localizzazione puntuale di perdite lungo condotte idriche e fognarie interrate. Il

4/12 ƒ 248

funzionamento del sistema SIMPLe è stato illustrato nel n. 2/2012 di Tutto Misure (pp. 121-125). Dal punto di vista d’implementazione pratica, sono state individuate due configurazioni del sistema adatte a due scenari applicativi: 1. ricerca perdite in condotte idriche metalliche già installate; 2. ricerca perdite in condotte idriche o fognarie di nuova posa in opera, realizzate in qualunque materiale. Per ciascuna di queste configurazioni, è stata condotta un’intensa campagna di sperimentazione sul campo (con test sia su impianti pilota sia su impianti idrici di diversi comuni delle province di Lecce, Brindisi e Taranto). I risultati ottenuti, in termini sia di accuratezza nell’individuazione della posizione della perdita sia di riduzione dei tempi d’ispezione, sono estremamente soddisfacenti. Solo a titolo esemplificativo, si è riscontrato che nella configurazione 1 il sistema permette d’individuare il punto di perdita con un’incertezza dell’ordine di 2-3 m (su tratti di condotta di qualche centinaio di metri) con tempi medi d’ispezione dell’ordine di 2 km di rete al giorno. Queste prestazioni migliorano ulteriormente nel caso in cui (configurazione 2), in fase d’installazione, l’elemento sensibile sia direttamente predisposto lungo le condotte (sia idriche sia fognarie e di qualsiasi materiale esse siano). In questo caso, oltre a permettere un’attività sistematica di monitoraggio estremamente agevole, l’incertezza nella valutazione della posizione della perdita risulta dell’ordine di 1 m, con tempi d’ispezione dell’ordine di pochi minuti. Attualmente, si sta lavorando all’ottimizzazione del software di misura e gestione e all’integrazione del sistema (già portatile), in modo da renderlo ancora più pratico, comodo e user friendly. andrea.cataldo@unisalento.it


N. 04ƒ ;2012 Pubblicati i nuovi documenti per i Laboratori di taratura RG-13-01 e RT-25 Sono stati pubblicati nel sito web (www.accredia.it) nell’area Laboratori di taratura: 1. RG-13-01 rev. 00 Regolamento per Accreditamento di tarature esterne e di Laboratori di Taratura multisito (entrata in vigore 1 Novembre 2012). 2. RT-25 rev. 02 Prescrizioni per l’accreditamento dei Laboratori di Taratura (entrata in vigore 1 Novembre 2012). NPL – NATIONAL PHYSICAL LABORATORY

Nuove pubblicazioni online sul sito del NPL Pubblicate sul sito www.npl.co.uk alcune interessanti presentazioni tecniche. Di particolare interesse quella sulle innovazioni riguardo alla metrologia delle Fuel Cells, scaricabile da questo indirizzo: www.npl.co.uk/ science-lectures/innovationsin-fuel-cell-metrology BIPM – BUREAU INTERNATIONAL DES POIDS ET DES MESURES

FAQ sul nuovo SI del BIPM Per chi fosse interessato ad approfondire il dibattito, alimentato sulle pagine di Tutto_Misure, versione cartacea, da Sergio Sartori sul “Nuovo SI” e continuato con la lettera di Walter

Bich di I.N.Ri.M., ecco un utile set di FAQ sul Nuovo SI, accessibile sul sito del BIPM – Bureau International des Poids et des Mesures, all’indirizzo: www.bipm.org/en/si/new_si/ faqs.html MINISTERO DELLO SVILUPPO ECONOMICO

Restart, Italia! Presentato dal Ministero per lo Sviluppo Economico, alla presenza del Ministro Corrado Passera, il rapporto “Restart, Italia” della task Force sulle Start-up, considerate elemento vitale per la ripresa tecnologica del Paese. Il volume, in formato PDF, è scaricabile all’indirizzo: www.sviluppoeconomico.gov.it/ images/stories/documenti/ startup_low_small.pdf CAMERA DI COMMERCIO DI FIRENZE: LE RETI D’IMPRESA PER LA RISCOSSA DEL MADE IN ITALY DELLE PMI

Da Milano al mattino in teleconferenza, le esperienze di coloro che stanno già facendo rete. Firenze, 22 ottobre 2012 – Si sono mossi in molti, dall’associazionismo, dagli ordini professionali, ma, quel che più conta, dalle imprese, per rispondere alla convocazione di Metropoli, azienda speciale della Camera di Commercio per l’internazionalizzazione, che ha voluto questo Convegno in teleconferenza con Milano, dove le reti d’impresa hanno già attecchito con successo e con soddisfazione per gli imprenditori coinvolti. Circa duecento le adesioni alla proposta di Metropoli di presentare la propria impresa alle altre convenute, in vista di possibili sinergie assistite.

NOTIZIE ACCREDIA

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

Ai primi di ottobre di quest’anno, in tutta Italia sono 458 i contratti di rete già operativi, che coinvolgono 2.469 imprese, di cui più della metà sono società di capitali. Molte le fattispecie: ne possiamo trovare di tipo orizzontale, verticale, territoriali e non territoriali, specialistiche, di professionisti, di subfornitura, orientate alla difesa dei brand o finalizzate ad affrontare mercati importanti ed esigenti come quello russo o cinese. Esistono anche reti d’impresa transnazionali, anche se, al momento, non possono usufruire dei benefici di legge riservati a quelle totalmente italiane. Questi ultimi, in tempi di vacche magre, sono tutt’altro che trascurabili e invitano all’abbandono di resistenze, più che altro culturali e tradizionali, alla condivisione di scopi precisi tra imprenditori teoricamente anche in concorrenza tra di loro. La giornata – intensa e articolata – si è aperta al mattino con i saluti in teleconferenza di Carlo Sangalli, presidente della Camera di Commercio di Milano e di Vasco Galgani, presidente di Unioncamere Toscana e della Camera di Commercio di Firenze. Entrambi hanno ribadito che priorità per il sistema camerale diventa la promozione dell’internazionalizzazione delle piccole e medie imprese, attraverso l’aggregazione in reti finalizzate all’export. Tali azioni saranno tanto più rilevanti quanto più punteranno ad aumentare il numero delle imprese esportatrici non in grado (da sole) di accedere ai mercati esteri. In questo ambito, non si considera secondario il sostegno a tutte quelle reti “orizzontali” di servizi per l’internazionalizzazione (ad es. reti di produttori per la creazione di marchi comuni per prodotti destinati a mercati esteri; reti di consulenti in servizi per l’export; reti per l’offerta integrata di servizi per l’accesso ai mercati esteri di una o più filiere; reti di supporto per la tutela della proprietà intellettuale e la difesa dalla contraffazione e pirateria in ambito internazionale). È seguita la relazione di Renato

T_M ƒ 249


N. 04ƒ ; 2012

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

Mannheimer, che ha dato conto dell’immagine che hanno di sé gli imprenditori milanesi, evidenziando i pro e i contro della piccola dimensione aziendale e le aspettative proprie e del sistema Italia per l’anno venturo. La percezione è chiara: gli imprenditori sono consapevoli che il principale vantaggio è dato dai risparmi che si ottengono con le sinergie tra imprese diverse e che il principale punto di dubbio è il rischio di limitazioni nella strategia consolidata della propria realtà aziendale. I casi aziendali che sono seguiti, nelle due tavole rotonde parallele a Milano e a Firenze, hanno cercato di aumentare la percezione delle positività e di sgombrare il campo tra i dubbi. Fabrizio Vanni

ored to have Dr. Marco Mugnaini join our faculty in the area of electrical power and machines with a focus on control systems. The United Arab Emirates (UAE) is well known for its oil and gas industry and a many of our graduates are employed by these industries. Furthermore, the UAE has a documented population growth of about 5% which implies ever increasing numbers of students to be trained to work in these industries and other heavy industries such as aluminum, steel, and frigate production. We also have a number of graduates in the national communications, aerospace, and military-related companies. Our faculty members hold masters and PhD qualifications and over three years of industrial experience. Dr. Mugnaini suggested that I con-

tact you in relation to recruiting quality faculty members. To that end, it would greatly honor me if you referred possible academics to our recruitment website: http:// recruit.hct.ac.ae/WebForms/ ViewJobList.aspx?p=Faculty If you or anyone whom you have recommended has any questions concerning the position or the UAE, please contact me at this email address or information below. Warm regards, Dr. Michael Jacobson Chair Electrical & Electronic Engineering Technology ADMC – Higher Colleges of Technology PO Box 25035, Abu Dhabi, United Arab Emirates mjacobson@hct.ac.ae +971 (2) 404-8474

Museo della bilancia di Campogalliano (MO): un Museo per mille idee!

AVVISO DI DISPONIBILITÀ DI POSIZIONI ACCADEMICHE PRESSO GLI HIGHER COLLEGES OF TECHNOLOGY, UNIVERSITÀ DI ABU DHABI

Riceviamo dal Direttore del Dipartimento di Ingegneria Elettrica ed Elettronica degli Higher Colleges of Technology, Università di Abu Dhabi, il presente invito a presentare candidature per posti di Faculty in varie discipline. Requisiti generali sono il possesso di Master e PhD, oltre ad almeno tre anni di ricerca nell’industria. Tra lo staff dell’HCT annoveriamo anche il nostro Marco Mugnaini (GMEE, Unità di Siena), cui è stata offerta una posizione di Full Professor, come da testo che segue. Greetings, Recently, our department was hon-

T_M ƒ 250

Il Museo della Bilancia di Campogalliano, nel centro del sisma dell’Emilia, si fa in tre, anzi in quattro, con proposte per tutti i gusti. Infatti, gli istituti scolastici dei comuni colpiti dal terremoto del maggio scorso saranno i benvenuti al Museo e potranno usufruire per tutto l’anno scolastico in corso delle visite guidate gratuitamente.

Torna poi il Concorso a premi IL PESO DELLE IDEE, un modo simpatico e divertente per fare scienza tra i banchi di scuola. Continuano le collaborazioni volte a valorizzare le nostre collezioni e a contribuire alla divulgazione scientifica e tecnologica. Anche il

Museo di Campogalliano contribuisce all’offerta didattica del MEF di Modena portando... un po’ di bilance e di misure! Il percorso rappresenta una modalità profondamente innovativa di fruizione del museo e delle esposizioni che ospita, incentrandosi sui due edifici del nuovissimo Museo modenese: la casa di Enzo Ferrari e il famoso “cofano giallo”. Dopo il successo di mostra e laboratori PESI CORRETTI E GIUSTE MISURE al Centro La Rotonda, una nuova sfida a fianco del Museo casa Enzo Ferrari di Modena! Sempre fruibile al Museo di Campogalliano, oltre al percorso classico sugli strumenti per pesare, la mostra LA LIBELLULA E LA BILANCIA. Una mostra adatta a scuole e famiglie, che parlando di insetti consente di affrontare temi scientifici: fisica del volo, della luce e del suono. Informazioni: 059/527133 oppure www.museodellabilancia.it.


TUTTO_SERGIO SARTORI

IL TEMA

Franco Docchio, Alfredo Cigada, Massimo Mortarino

Introduzione alla raccolta a cura della redazione

Come i lettori di Tutto_ Misure e i cultori delle misure ormai sanno, è recentemente mancato il fondatore della Rivista, il Prof. Sergio Sartori, dopo breve ma inesorabile malattia. Il Prof. Sartori ha dedicato a questo progetto dieci anni della sua vita, dal 1999 al 2009, convinto com’era che una rivista che parlava con serietà ma anche con spirito divulgativo di misure (che fossero meccaniche, elettriche, chimiche, biologiche, ambientali o altro) avesse un’importanza capitale per educare alla cultura delle misure i suoi operatori e per innalzare il livello qualitativo delle misure in Italia, dove spesso rivestivano un ruolo ancillare e spesso poco considerato a livello sia accademico sia industriale. Il n. 3 di Tutto_Misure, finito d’impaginare a pochi giorni dalla sua scomparsa, ha potuto dedicare a Sergio solamente la copertina e l’editoriale, riservandosi di poter contribuire in modo più dettagliato a tenere vivo il suo ricordo con una dedica speciale: eleggere a tema principale del numero successivo (questo che state leggendo) una raccolta degli scritti dell’illustre metrologo sulla rivista negli anni della sua direzione. Ecco dunque questa breve ma intensa raccolta di editoriali e

articoli, che spaziano dal primo anno di vita della rivista a qualche anno fa. Il primo contributo è un editoriale del n. 1/2005, dal titolo “Metrologia incompiuta”. In esso il Direttore, dopo aver tracciato (da par suo) un excursus della storia della Metrologia dai tempi della Rivoluzione Francese (1791), data che viene riconosciuta universalmente come origine della moderna Metrologia, denuncia i ritardi con cui la Metrologia “ortodossa” ha riconosciuto settori tecnologici come degni di attenzione (p. es. la chimica), o addirittura ne tiene fuori altri. Soprattutto denuncia i “soliti” ritardi all’italiana (da qui il titolo), di governi che ritardano vistosamente passaggi organizzativi importanti come l’unificazione degli Istituti Metrologici (peraltro incompleta, perché ha lasciato fuori dal processo quello che ora è l’INMRI). Il secondo Editoriale (n. 1/2008) ha come titolo “Metrologia e sua (rinnegata) globalizzazione”. Qui il Prof. Sartori mette in evidenza con vigore il prevalere d’interessi nazionali, di carattere puramente commerciale, rispetto a quello che dovrebbe essere un coordinamento globale della ricerca metrologica internazionale, senza sottacere il ruolo a tratti campanilistico di comitati, quali il CIPM, nell’ostacolare una vera e propria globalizzazione della Metrologia (citando l’esempio delle grandezza d’interesse ambientale). Il fondatore della Rivista aveva, fin dall’inizio, la dichiarata intenzione di rendere la stessa un utile strumento formativo oltreché divulgativo. Ed ecco che già dai primi numeri (a partire dal n. 1/1999) firma un’interessante serie di articoli sull’uso appropriato dell’incertezza di misura come indispensabile corredo di qualsiasi risultato di misura, avvalendosi della GUM (allora neonata) e dei documenti a essa correlati. Com’era profetica questa visione, stante il fatto che ancor oggi l’incertezza di misura, in molti settori, è

T_M

ancora sconosciuta o negletta! Dal contributo congiunto del Prof. Sartori e del Prof Luca Mari di Castellanza, nasce il secondo degli articoli qui raccolti, dal titolo “Si possono ridurre i costi della Riferibilità?” (n. 1/2006) in cui gli autori disquisiscono sull’importanza, ma anche sui costi sociali, degli Accordi di Mutuo Riconoscimento (MRA) e dei confronti intercampioni tra nazioni. Il terzo degli articoli (“Applicazione della GUM a una ricerca in biologia”, n. 2/2007) intende introdurre con vigore e rigore il concetto d’incertezza di misura in un settore applicativo che proprio l’incompiutezza della metrologia del primo editoriale aveva escluso, vale a dire, appunto, quello della biologia e microbiologia. Anche questo, che getta le basi teoriche del calcolo dell’incertezza, ha come compendio due articoli seguenti che trattano esempi concreti. Non poteva mancare, nella raccolta, un articolo dell’ultimo triennio, in cui Sergio, ormai scarico delle fatiche della Direzione di Tutto_Misure, si dedicò al tema della formazione in Metrologia, e alla stesura del suo libro sulla storia della metrologia, ahimè interrotto. Di questo periodo è il contributo dal titolo “Cambiare tutto perché niente cambi”, in cui l’autore si chiede (e si risponde, in modo non troppo positivo) chi siano i beneficiari del cambiamento del sistema Internazionale (SI) in cui sette unità di base verranno definite utilizzando le costanti fondamentali. Nell’augurare a tutti una buona lettura, siamo convinti che questa breve raccolta metta bene in evidenza le intenzioni, da un lato, divulgatrici e, dall’altro, moralizzatrici del compianto Prof. Sartori, sempre spinto dal desiderio di una maggiore “neutralità” della Metrologia rispetto a interessi nazionalistici e politici e di una maggiore e più capillare divulgazione delle buone pratiche della metrologia nella vita di tutti i giorni, a beneficio del singolo e della collettività.

N.

4/12 T_M ƒ 251


N. 04ƒ ; 2012

IL TEMA

CURRICULUM SCIENTIFICO E ACCADEMICO DEL PROF. SERGIO SARTORI

Il Prof. Sergio Sartori si è laureato nel 1961 al Politecnico di Torino in ingegneria elettronica. Nel 1963 iniziò l’attività di ricerca nel Consiglio Nazionale delle Ricerche (CNR). Nel 1975, vinto sia il concorso a cattedra di Misure Elettriche sia il concorso a Dirigente di Ricerca nel CNR, ha preferito rimanere nel CNR, conservando fino al 1986 l’incarico d’insegnamento di Misure Elettriche al Politecnico di Torino. Dal 1995 al dicembre 1998 è stato Direttore dell’Istituto di Metrologia “Gustavo Colonnetti” del CNR e dal 1994 al 1997 rappresentante del MURST nel Consiglio di Amministrazione dell’Istituto Elettrotecnico Nazionale “Galileo Ferraris”. Fondatore del Gruppo Italiano di Studio sulle Macchine di Misura a Coordinate (denominato CMM_Club), ne è stato Presidente dal 1994 al 1996. Dal 1997 era membro del Comitato Fondatore di Euspen (European Society for Precision Engineering and Nanotechnology), del quale è stato vicepresidente dal 1997 al 1999. Dal 1991 al 1998 ha rappresentato il CNR nel Consiglio Generale dell’IMEKO. Dal 1980 al 1985 è stato consulente dell’UNESCO. Dal 1984 al 1988 è stato esperto consulente dell’Ufficio per la Metrologia Applicata nella CEE. Dal 1999 al 2007 è stato presidente del Comitato Organizzatore della Mostra Congresso Biennale “Metrologia & Qualità”, da lui fondato. Dal 1999 al 2009 è stato Direttore Responsabile della Rivista “Tutto_Misure”, da lui fondata. Dal 2004 era socio dell’Associazione Italiana “GMEE”. È stato autore di oltre 140 pubblicazioni e di due libri nei settori delle misure elettriche, termiche e meccaniche, della fisica dello stato solido, dell’interferometria con laser, della modellistica di sistemi meccanici, dell’optoelettronica, dell’informatica, dell’epistemologia, della qualità nei sistemi di produzione.

T_M ƒ 252


TUTTO_SERGIO SARTORI

IL TEMA

Sergio Sartori

Metrologia incompiuta Editoriale della Rivista Tutto_Misure n. 1/2005

Si può far risalire la metrologia moderna alla nascita del Sistema Metrico Decimale, con la Rivoluzione Francese e con le definizioni del 1791, superbo esempio di trionfo della ragione. Due anni dopo già avvengono le prime rotture: le necessità pratiche costringono al compromesso. È la metrologia del grande Newton, deterministica, della lunghezza, della massa e del tempo. La meccanica resta il solo oggetto della metrologia anche nel 1875, quando viene firmata la Convenzione del Metro (CM): l’opera di Gauss, Weber, Maxwell, Thompson e di molti altri viene ignorata. Solo nel 1921, dopo cinque Congressi Internazionali, dopo la proposta di Giorgi del 1901, la Conferenza Generale dei Pesi e delle Misure (CGPM) apre una porta agli (ingegneri) elettrotecnici ed estende la CM alle grandezze elettromagnetiche. Nel 1948 la IX CGPM accoglie l’ampere tra le unità fondamentali; la definizione dell’ampere, valida ancora oggi, aggancia l’elettromagnetismo alla meccanica, tramite una bilancia che confronta forze elettriche a forze meccaniche. Nel 1960 la XI CGPM sanziona la nascita del Sistema Internazionale di Unità (SI); in quello stesso anno il secondo è definito come frazione dell’anno tropico al giorno 0 gennaio 1900, modesto aggiustamento a una definizione dell’unità di tempo ancora vincolata a fenomeni astronomici (prima la rotazione della terra intorno al proprio asse; ora il moto della terra intorno al sole secondo le leggi di Keplero). Il secondo deve attendere altri sette anni perché i fisici sperimentali accettino di abbandonare i moti degli astri, governati dalle leggi di Newton e Keplero, agganciandolo al periodo di una radiazione elettromagnetica. Più fortunato è il metro che già nel 1960 viene agganciato alla lunghezza d’onda di una radia-

zione del cripto; ma anche più sfortunato, perché poco dopo viene scoperto il laser e le radiazioni candidate a una nuova definizione del metro sono tantissime, tutte con caratteristiche metrologiche migliori di quella scelta nel 1960. Si arriva al 1983: i fisici sperimentali sono messi da parte dai fisici dell’atomo e dai fisici teorici: il metro viene legato al secondo attraverso la veloci-

tà della luce nel vuoto, adottando, nella nuova definizione, il modello esposto da Einstein quasi 80 anni prima: la velocità della luce non varia al variare del moto dell’osservatore. Nel 1971 la CGPM fa una piccola concessione alla chimica e introduce la mole nel SI; ma i chimici devono aspettare fino al 1995 per avere un proprio Comitato Consultivo che si occupi di promuovere, coordinare, valutare l’enorme ambito delle misure per la chimica. Alla fine del millennio la metrologia ufficiale accetta anche di occuparsi di grandezze tecnologiche, accogliendo la durezza nell’Olimpo delle grandezze oggetto della CM.

T_M

Questo numero di Tutto_Misure è dedicato a tutti i settori che sono stati accolti con grande ritardo dalla metrologia ufficiale, o che addirittura ne sono ancora esclusi, come accade per esempio per la biologia (ecco la ragione di una guida alla qualità dei laboratori per i biologi, allegata a questo specifico numero di T_M). Mettendo a confronto gli articoli qui pubblicati emerge, a mio avviso, un importante insegnamento: ritardi e ostracismi non sono dovuti a colpe dei settori che ne sono stati colpiti ma all’incapacità d’incontro tra le culture che hanno dominato la metrologia, in modo esclusivo in passato e in modo prevalente oggi, e le culture “emergenti”. La cultura dei metrologi “tradizionali” è in parte ancora ferma ai dibattiti che hanno appassionato generazioni di fisici nel XIX e nel XX secolo. Le difficoltà del Vocabolario di Metrologia ne sono la dimostrazione più eclatante. Le culture “emergenti”, appena si ritrovano nella metrologia, lasciano subito ogni eventuale senso d’inferiorità. Si appropriano, con pragmatismo, dei metodi e dei sistemi organizzativi; rispondono con grande dinamismo alle raccomandazioni, espresse (finalmente) nel 1999 dalla XXI CGPM, di potenziare l’attività di metrologia per la chimica e per le biotecnologie. Essenziale risulta il loro ruolo culturale per portare a compimento il processo di estensione della metrologia a tutti i settori delle scienze della natura. In Italia intanto la metrologia resta incompiuta. Finalmente un Governo ha avuto il coraggio di procedere all’unificazione in un unico ente dei due istituti metrologici di Torino. Ma non ha avuto il coraggio di unire a essi l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti dell’ENEA. Follia tutta italiana. Tutto_Misure, per parte sua, cerca di compensare questa follia e continua a presentare uniti quelli che ieri erano tre e che oggi sono diventati due.

N.

4/12 ƒ 253



TUTTO_SERGIO SARTORI

IL TEMA

Sergio Sartori

Metrologia e sua (rinnegata) globalizzazione Editoriale della Rivista Tutto_Misure n. 1/2008

Come è complesso un mondo globalizzato! Prepotentemente vengono alla luce gli interessi particolari che si scontrano con l’interesse generale. Un esempio, piccolo ma emblematico, lo troviamo nella metrologia, che per sua natura e dalle sue origini moderne (la stipula della Convenzione del Metro, CM, nel 1875) è globalizzata. Si potrebbe pensare che la stessa CM, assegnando alla metrologia un governo globale nel quale tutte le nazioni aderenti sono rappresentate con pari dignità, sia riuscita a risolvere il contrasto tra interessi nazionali e globali. Invece, da quando il commercio è entrato con prepotenza a governare la metrologia, qualcosa si è rotto nel delicato equilibrio e gli interessi particolari hanno preso, giorno dopo giorno, il sopravvento sulle questioni universali e sul coordinamento della ricerca metrologica internazionale. Tutto nasce dal giorno (14 ottobre 1999) della firma del Mutual Recognition Arrangement (MRA) da parte di 67 istituti metrologici nazionali (NMI è l’acronimo in inglese), appartenenti a 45 stati aderenti alla CM, 20 stati associati e 2 organismi internazionali non governativi, oltre a 119 laboratori nominati dai firmatari. Il MRA, promosso dal Comitato Internazionale dei Pesi e delle Misure (CIPM), l’organo esecutivo del governo globale della CM, vorrebbe sancire l’importanza della metrologia negli scambi commerciali tra nazioni: ma nasce debole. Per volontà del governo USA è un Arrangement (intesa), non un Agreement

(accordo): impegna gli istituti firmatari, non i governi ai quali essi appartengono. Dunque i governi non sono tenuti a considerare equivalenti, entro l’opportuna incertezza, i campioni nazionali e i certificati di taratura di altri paesi in confronto ai propri; in altre parole, malgrado confronti internazionali, accreditamenti, sistemi di qualità e altro, possono in qualunque momento ripetere i controlli sulle caratteristiche dei prodotti, già fatti all’origine e riconosciuti validi dagli istituti, applicando eventualmente nuove specifiche protezionistiche. I contrasti più forti tra interessi diversi nascono quando si devono individuare i laboratori nominati dai firmatari del MRA. Chiariamo di cosa si tratta. Il MRA, dopo avere affermato la centralità dei confronti interlaboratorio nel processo di mutuo riconoscimento dei campioni e dei certificati, al paragrafo 6.1 precisa che “la partecipazione a tali confronti è aperta ai laboratori che hanno la più alta competenza tecnica ed esperienza, di norma membri dell’appropriato Comitato Consultivo (CC) del CIPM. Quei laboratori che non sono membri del CC e non sono NMI devono essere nominati dal NMI designato a firmare l’accordo dalla competente autorità dello stato al quale il NMI appartiene, in quanto responsabile dei rilevanti campioni nazionali di misura”. Questo complicato sistema d’intesa, firmato dagli NMI, da loro gestito ma che coinvolge anche istituti nominati dagli NMI (che sono ben più del doppio degli NMI), va incontro alle esigenze di molte nazioni; esse, nel costituire il loro sistema metrologico nazionale, non hanno creato gli NMI dal nulla ma utilizzato strutture esistenti, coordinandole e attribuendo a una o più di esse il ruolo di NMI. Secondo quali criteri? La rilevanza dei campioni da essi realizzati

T_M

e mantenuti, ovviamente. Ma l’altro ieri rilevanti erano i campioni di lunghezza, massa e tempo; oggi più rilevanti stanno diventando, per la stessa sopravvivenza dell’umanità con il tenore (non qualità!) di vita raggiunto nei paesi industrialmente più avanzati, i campioni necessari per le misure del tasso d’inquinamento. Domani potranno essere più rilevanti i campioni per le misure di carattere biologico. Così sulla rilevanza dei campioni, sulla competenza degli istituti nominati, sull’intreccio d’interessi e finanziamenti scatenato da queste scelte nascono i contrasti all’interno delle nazioni e tra nazioni. Così il CIPM, che dovrebbe operare per dare attuazione alle nobili delibere e raccomandazioni della Conferenza Generale dei Pesi e delle Misure (CGPM), relative ad esempio al miglioramento delle misure per l’ambiente e di quelle sui sistemi biologici, in realtà dedica la quasi totalità del tempo delle sue riunioni a dirimere questioni tra NMI e tra nazioni sulla rilevanza dei campioni, sulla competenza degli istituti nominati, sulle pressioni d’istituti competenti detentori di campioni rilevanti che il NMI, al quale devono far riferimento, rifiuta di nominare per i confronti interlaboratorio, per timore di perdere prestigio, contratti per certificati e finanziamenti. Il rapporto tra CIPM e CGPM potrebbe sembrare simile al rapporto tra G8 e Assemblea dell’ONU; ma così non è. La CGPM è organo di governo globale e decide; non è invece l’Assemblea dell’ONU, o i suoi organismi, a decidere ma il G8, che rappresenta gli interessi di una ristretta e ricca minoranza degli abitanti del nostro pianeta ma agisce da assurdo organo di governo globale. I no-global, che vorrebbero riportare le decisioni per l’umanità nella sede appropriata, sono forse i più corretti sostenitori della globalizzazione: per il bene di tutti e non di pochi.

N.

4/12 ƒ 255



TUTTO_SERGIO SARTORI

IL TEMA

Sergio Sartori

La stima dell’incertezza nelle misurazioni Parte 1 – Procedura e concetti fondamentali 1

INTRODUZIONE

Questo inserto inaugura il discorso sulla stima dell’incertezza, discorso che verrà proseguito nei numeri successivi della rivista, per formare una raccolta di testi che, si spera, saranno utili a chi debba affrontare problemi di valutazione dell’incertezza. La trattazione verrà svolta sulla base di due principi ispiratori: 1. S’intende fornire un ausilio pratico, di facile comprensione e uso, a chi, esperto della pratica delle misure, debba qualificare i risultati della sua attività attribuendo a essi la ineliminabile incertezza. Alla facilità d’uso si sacrificherà dunque il rigore matematico, limitando le formule all’indispensabile e sempre cercando di renderle immediatamente traducibili in numeri. 2. Si farà riferimento a due documenti, la Norma UNI CEI ISO 9, citata nel seguito con la sigla GUM, e il documento tecnico ISO\TR 14253-2 (1999) Geometrical product specification (GPS) – Inspection by measurement of workpieces and measuring instruments – Part 2: Guide to the estimation of uncertainty of measurement in calibration of measuring equipment and product verification. Quest’ultimo documento costituisce un passo significativo verso l’applicazione in campo industriale della GUM in quanto propone un metodo semplificato di grande efficacia per la stima dell’incertezza, denominato PUMA (Procedure for Uncertainty MAnagement).

Quanto viene proposto in questa serie d’inserti è applicabile nei casi seguenti: • Quando si debba attribuire l’incertezza a risultati di singole misurazioni; • Quando sia necessario stimare l’incertezza nel confronto dei risultati di due o più misure, incluso il caso di grande interesse pratico del confronto tra il risultato di una misura e la tolleranza (o l’errore massimo ammissibile) attribuita alla caratteristica misurata; • Quando si voglia definire il massimo errore ammissibile per uno strumento o un campione di misura usato in un processo produttivo, o i limiti di tolleranza delle caratteristiche di un prodotto. • Quando s’intenda verificare se il progetto di un sistema di misura e relative procedure d’impiego soddisfano i requisiti predefiniti. I PASSI PER LA VALUTAZIONE DELL’INCERTEZZA

modo di applicazione del carico e dall’entità del carico? – In quali condizioni di campo elettrico è fornita la rigidità dielettrica di un materiale e quanto esse differiscono dalle condizioni d’impiego del materiale? – Cosa si intende per temperatura dell’ambiente? – La misura della concentrazione di un contaminante nell’acqua quanti campioni richiede per dare un’informazione significativa? – A quale stato del misurando vengono riferiti i risultati? Dedicare qualche minuto a ragionare sul misurando può servire sia a individuare le componenti d’incertezza insite nel modello scelto per definire il misurando sia a comprendere il limite minimo all’incertezza conseguibile, dovuto all’incertezza insita nella natura e nella definizione del misurando stesso, ossia alla sua incertezza intrinseca. Riassumendo: definire il misurando significa sintetizzare la caratteristica o la proprietà che si intende misurare mediante un modello. Il modello scelto deve essere ben chiaro allo sperimentatore, il quale deve essere in grado di quantificare l’incertezza insita nel modello stesso. 2. Si deve stabilire qual è l’incertezza-obiettivo (target uncertainty nel documento PUMA), ossia l’incertezza massima che risulta indispensabile per poter utilizzare il risultato della misura e conseguire lo scopo che ha reso necessario eseguirla. In ogni momento si deve poter verificare se l’incertezza che si spera di ottenere è sufficiente per poter prendere le decisioni che conseguono al risultato della

Chiunque debba eseguire la stima dell’incertezza, sia in fase preventiva di programmazione di una misurazione sia a posteriori quando dispone dei risultati del lavoro sperimentale, preliminarmente deve avere definito in modo chiaro due punti di fondamentale importanza: 1. Il misurando. Si deve definire il misurando, cioè ciò che si intende misurare, cercando di chiarire quali limiti sono insiti nella definizione stessa. Ad esempio, si tratta di rispondere a domande del tipo seguente: – Cosa significa dire “il diametro del pezzo”? A quale altezza sulla generatrice, a quale orientamento? È un diametro medio o il minimo circoscritto, o il massimo inscritto? Con quale calcolo si è ottenuto o si pensa di otte1 Pubblicato su Tutto_Misure 1/1999. nere tale diametro? – La deformazione sotto carico del Le parti 2 e 3 sono state pubblicate provino costruito con il materiale che rispettivamente su si deve caratterizzare dipende dal T_M 2/1999 e T_M 3/1999

T_M

N.

4/12 ƒ 257


N. 04ƒ ; 2012

misurazione. Se l’incertezza stimata è superiore all’incertezza-obiettivo la misurazione non è utilizzabile per assumere una qualunque decisione; se è uguale o inferiore, non è necessario approfondire la stima perché l’obiettivo è ormai conseguito. Le conseguenze pratiche e semplificatrici di queste considerazioni sono enormi. Si può procedere a stime approssimate e semplificate dell’incertezza purché si sia sicuri di mantenersi sempre in sicurezza, cioè di effettuare sovrastime. Se la sovrastima dell’incertezza risulta minore o uguale all’incertezzaobiettivo, è inutile, e costoso, cercare di essere più accurati nella stima: lo scopo è raggiunto. Il procedimento di stima dell’incertezza non deve essere un procedimento accurato e costoso: deve badare all’essenziale, cioè a dimostrare che l’incertezza che si è conseguita o che si conseguirà è adeguata alle necessità che hanno determinato l’esecuzione della misurazione, cioè è uguale o minore dell’incertezza-obiettivo. In conclusione, si deve ottenere da una misurazione non l’incertezza migliore possibile ma l’incertezza che serve, né più né meno di tanto. I PASSI OPERATIVI PER LA STIMA DELL’INCERTEZZA

Passo 1 – Si esprima matematicamente la relazione tra il misurando e tutte le grandezze d’ingresso (comprese correzioni e fattori vari) dalle quali il misurando dipende. Questo passo richiede l’effettuazione di due operazioni distinte: A. L’individuazione di tutte le grandezze d’ingresso. È un’operazione che richiede una completa e approfondita conoscenza del processo o sistema sul quale si effettua la misurazione. Si ricordi che nella maggioranza dei casi una sottostima dell’incertezza è attribuibile al non aver preso in considerazione una grandezza d’ingresso. Per verificare se tutto ciò che conta è stato correttamente considerato con-

viene analizzare a tavolino il sistema passo per passo, ricostruendo il percorso di ciascuna informazione o segnale d’interesse. B. La scrittura della relazione matematica che lega le grandezze d’ingresso prima individuate con il misurando. Questa operazione è indispensabile anche per pervenire alla stima del misurando, soprattutto quando si ha a che fare con misurazioni cosiddette indirette, quando cioè si misurano le grandezze che abbiamo chiamato d’ingresso e si calcola con i risultati il valore della grandezza d’interesse. Non dobbiamo dimenticare che il ragionamento che sta alla base della stima del misurando e della sua incertezza nella GUM si può riassumere in un concetto: non esistono misure dirette. Tutte le misure sono in qualche modo indirette, cioè risultato di calcolo su informazioni all’ingresso di vario tipo, e quindi impongono di conoscere il modello che lega le informazioni d’ingresso alla uscita che vogliamo stimare. Esempio: si supponga di voler conoscere l’area A del pavimento di una stanza di forma rettangolare. Si misurano la base b e l’altezza h del rettangolo. Il modello assunto è quello di rappresentare la stanza con un rettangolo, ignorando ad esempio la presenza di piccole rientranze dovute alla finestra e alla porta. La relazione matematica che consente il calcolo del misurando A è la seguente: A=b⋅h Dove b e h sono misurati e A è calcolato. La stessa relazione servirà per stimare l’incertezza di A, supponendo note le incertezze con le quali si è ottenuto b e h. Si dovrà ancora tener conto, nel valutare l’incertezza di A, del contributo dovuto alla scelta del modello approssimante di rettangolo perfetto. Un’interessante alternativa di fronte a sistemi complessi difficilmente descrivibili con formule matematiche consiste nel far ricorso a un’equazione di modello di tipo generale semplificato. Questo è possibile quando si ha a che fare con misure dirette, fornite da un ben identificato strumento, di grandezze di tipo additivo. Si deve preliminarmente aver individuato tutte le cause


N. 04ƒ ;2012

Passo 2 – Si determini il valore stimato di ciascuna delle grandezze d’ingresso sulla base di: A) Analisi statistica di serie di osservazioni (anche una sola). B) Altri metodi. Tra tali metodi si citano: valori ottenuti da un manuale, da precedenti esperienze, da cataloghi; stime sulla base della storia pregressa del processo; casi simili. Questo è un passo operativo che comunque va fatto, indipendentemente dalla necessità o meno di stimare l’incertezza. Richiede l’esperienza “misuristica” del responsabile della misurazione. Si noti che uno o più dei valori stimati possono essere posti uguali a zero; ciò avviene, ad esempio, quando una correzione è stimata essere nulla. Ciò non significa che per tali variabili d’ingresso automaticamente si possa stimare nullo anche il contributo all’incertezza. Anzi spesso avviene il contrario, in particolare quando la grandezza d’ingresso considerata è una grandezza d’influenza. L’incertezza dell’ipotesi di uguaglianza a zero del valore stimato di una grandezza d’ingresso va sempre valutata tra le incertezze da considerare. Passo 3 – Si valuti l’incertezza tipo di ciascuna stima di grandezza d’ingresso. A) Se la stima della grandezza d’ingresso è stata ottenuta sulla base di analisi statistica di serie di osservazioni (Passo 2/A), l’incertezza tipo è valutata mediante lo scarto tipo sperimentale della distribuzione o mediante lo scarto tipo della media. B) Se la stima della grandezza d’ingresso è stata ottenuta con altri metodi (Passo 2/B), l’incertezza tipo è valutata per mezzo di un giudizio basato su tutte le informazioni disponibili sulla possibile variabilità della grandezza d’ingresso considerata; l’insieme delle informazioni può comprendere: • dati di misurazioni precedenti; • esperienza o conoscenza generale del comportamento e delle proprietà dei materiali e strumenti d’interesse;

possibili di errore e d’incertezza e averle eventualmente raggruppate in categorie trattabili separatamente. Il modello risulterà allora il seguente: M = P + C1+ C2+ C3+ C4+ C5+ …… M rappresenta la misura cercata; P rappresenta la proposta dello strumento; C1, C2, C3, ecc. rappresentano le correzioni da apportare alla proposta dello strumento conseguenti alle cause di errore identificate. Evidentemente molte, o anche tutte, le correzioni possono essere considerate nulle, ma non mai le loro incertezze, che andranno stimate. Si sposta il problema della modellizzazione a un livello più basso e più semplice da gestire. Le cause di errore e incertezza possono essere identificate in generale nei seguenti gruppi, ovviamente non tutti sempre di uguale importanza o addirittura presenti: 1. L’ambiente nel quale la misurazione è condotta (temperatura, vibrazioni, interferenze, eccetera, sul misurando, sui campioni e sulle apparecchiature). 2. I campioni di riferimento usati per effettuare la misurazione (stabilità, incertezza di taratura, risoluzione, incertezza intrinseca, sensibilità alle condizioni ambientali, ecc.). 3. L’apparato di misura (stabilità, isteresi, sensibilità alle condizioni ambientali, risposta ai transitori, risoluzione, ecc.). 4. L’organizzazione e la messa a punto della misurazione, in particolare quando ciò comporta azioni sul misurando (ad esempio, la campionatura, la conservazione). 5. Il software che contribuisce alla definizione del risultato della misura e ai calcoli (algoritmi, filtraggio, digits significativi, effetti di manipolazioni accidentali, ecc.). 6. L’operatore (aggiornamento, competenza specifica, esperienza, onestà, ecc.). 7. La natura del misurando e la sua incertezza intrinseca. 8. L’incertezza del modello usato per descrivere il misurando. 9. La procedura di misurazione (numero di ripetizioni, sequenza e cicli, durata, ecc.). 10. Le costanti e i fattori di conversione usati.

IL TEMA

• specifiche tecniche del costruttore; • dati forniti in certificati di taratura o altri; • incertezze assegnate a valori di riferimento presi da manuali. Questo passo richiede esperienza e conoscenza della fisica e della chimica che sta dietro in particolare all’eventuale misura o conoscenza delle grandezze d’ingresso. Passo 4 – Si valutino le covarianze associate alle stime d’ingresso eventualmente correlate. Ignorare le covarianze può in molti casi portare a errori gravi nella stima dell’incertezza. È la stessa organizzazione dei sistemi nazionali e internazionali di disseminazione che crea correlazioni significative tra le diverse variabili. Il caso più tipico è quello della misura della differenza tra due valori prossimi di uno stesso misurando che cambia nel tempo, misurati con la medesima strumentazione: ignorando l’esistenza di covarianze, con fattori di correlazione prossimi all’unità, si sbaglia anche di un ordine di grandezza la stima dell’incertezza. Passo 5 – Si calcoli il risultato della misurazione, vale a dire la stima del misurando, dalla relazione di cui al passo 1, usando, per le grandezze d’ingresso le corrispondenti stime ricavate al passo 2. Passo 6 – Si determini l’incertezza tipo composta del risultato della misurazione a partire dalle incertezze tipo e dalle covarianze associate alle stime delle grandezze d’ingresso. Questa operazione è quella che generalmente viene indicata con il termine “fare il bilancio delle incertezze”. La sua importanza non va trascurata: serve infatti anche a mettere in evidenza cosa conta molto (numeri grossi in colonna 6 della tabella seguente) e cosa conta poco (numeri piccoli in colonna 6 della tabella seguente) nel bilancio e quindi a concentrare gli sforzi futuri nella direzione giusta.

T_M ƒ 259


Conviene che questo bilancio sia impostato mediante tabelle di calcolo di tipo standard, come ad esempio la seguente: Nella tabella sono indicati i coefficienti di sensibilità: essi rappresentano il peso per il quale bisogna moltiplicare ciascuna componente prima di combinare tra loro le diverse componenti con la legge quadratica prevista per quelle non correlate. I coefficienti di sensibilità si possono calcolare analiticamente se si conosce la relazione matematica che lega le grandezze d’ingresso alla grandezza d’uscita. Quando il misurando è una caratteristica di un sistema molto complesso, può essere necessario non tentare di scrivere l’equazione di modello e determinare sperimentalmente i coefficienti di sensibilità. Il gestore del sistema, consapevole della necessità di stimare incertezze di misure, può con continuità registrare le variazioni dei misurandi d’interesse a seguito di variazioni significative di una sola delle grandezze d’ingresso, mentre le altre restano fisse, ottenendo così una collezione e una storia dei coefficienti di sensibilità. Importante è acquisire la mentalità e l’uso alla stima dell’incertezza e quindi mettersi in condizione di raccogliere le informazioni necessarie per poterlo correttamente fare. Ma attenzione: ignorare il modello significa ipotizzare che il misurando abbia una dipendenza trascurabile, in termini di correzioni Grandezza d’ingresso Xi

Stima del valore xi

1

2 x1 x2 x3 x4 x5 x6 x7

X1 X2 X3 X4 X5 X6 X7

N. 04ƒ ; 2012

IL TEMA

XN Covarianze Y

T_M ƒ 260

da apportare per esempio, dalle grandezze d’ingresso, le quali si propongono solo come fonte d’incertezza. Siamo in un caso proprio speciale. Può essere utile rammentare che per ciascuna riga i numeri in colonna 2 e 3 sono associati alla stessa unità di misura; che tutti i numeri in colonna 6 devono avere la stessa unità di misura; e che perciò per ogni riga il prodotto delle unità di misura in colonna 3 e in colonna 5 deve dare la stessa unità di misura, quella di colonna 6. Passo 7 – Se è necessario dare un’incertezza estesa, con l’intendimento di fornire un intervallo che ci si aspetti contenere una grande porzione della distribuzione di valori ragionevolmente attribuibili al misurando, si moltiplichi l’incertezza tipo composta per un fattore di copertura k, tipicamente compreso tra 2 e 3. Si scelga k sulla base sulla base del livello di fiducia richiesto per l’intervallo. Si rammenta che con k=2 e una distribuzione normale dei risultati (l’ipotesi di distribuzione normale è quasi sempre vicina alla realtà; per il teorema del limite centrale basta che la distribuzione della variabile d’uscita sia la convoluzione di almeno tre variabili d’ingresso per avvicinare molto la distribuzione normale) l’intervallo di fiducia risulta pari al 95%. Incertezza tipo u(xi) 3 u(x1)

Passo 8 – Si riporti il risultato della misurazione con la sua incertezza tipo composta o con la sua incertezza estesa, usando uno dei metodi raccomandati. Per tali metodi si vedano le note seguenti. 1. Se la frazione della distribuzione (livello di confidenza) è definita e ha valore p, si scriva: Up (y) = kp · uc (y) Per esempio, se p = 0,95, si scriverà esplicitamente U95 (y)=k95 ⋅ uc (y) 2. Espressioni quali: u(x) = ±10µV, U(y) = ±8ns dove u(x) è un’incertezza tipo e U(y) è un’incertezza estesa, sono sbagliate. Le corrispondenti espressioni corrette sono: u(x) = 10µV, U(y) = 8ns. In altre parole, non deve comparire il simbolo ± prima del valore dell’incertezza. 3. Se il risultato della misurazione si esprime mediante la stima del misurando y e la sua incertezza tipo composta uc(y), l’espressione Y = y±uc(y) è fuorviante e pertanto si consiglia di non usarla. L’espressione Y = y±U(y), in cui appare l’incertezza estesa (il fattore di copertura k usato deve essere specificato; meglio se è specificato anche un livello di probabilità), è invece appropriata. Nel prossimo numero saranno presentati alcuni semplici esempi.

Distribuzione di probabilità

Coefficiente di sensibilità ci

Contributo d’incertezza ui(y)

4

5

6=3x5


TUTTO_SERGIO SARTORI

IL TEMA

Luca Mari 1, Sergio Sartori 2

I costi della riferibilità Si possono ridurre? – Da Tutto_Misure n. 1/2006

RIFERIBILITÀ, CONFRONTI E COSTI confronti, pari a quasi 1.400 anni-

La struttura portante del sistema metrologico, finalizzato a garantire la riferibilità delle misure prodotte dai dispositivi per misurazione e/o regolazione, è costituita dagli accordi di mutuo riconoscimento (MRA) e dai confronti tra i campioni che tali accordi prevedono. Di tale struttura sono ben chiari i benefici, ma è opportuno prestare attenzione anche ai costi che il suo funzionamento comporta: si tratta, infatti, propriamente di “costi sociali”, per i quali è dunque necessario valutare l’appropriatezza del rapporto costi/benefici, in pratica se, come si dice, “il gioco vale la candela”. La partecipazione a un confronto interlaboratorio costa, a ciascun laboratorio partecipante, una media di almeno cinque giorni-uomo di personale altamente qualificato. Una stima prudente del numero complessivo di confronti interlaboratorio effettuati all’anno nel mondo porta a una cifra dell’ordine di 20.000; a essa si arriva stimando che ciascuna delle circa 50 nazioni che aderiscono alla Convenzione del Metro sia impegnata in media ogni anno in circa 400 confronti, a livello nazionale, regionale e internazionale, suddivisi tra istituti metrologici, laboratori di taratura e laboratori di prova. Ipotizzando una media di quattro partecipanti a ciascun confronto, si giunge a un totale di 500.000 giorni-uomo dedicati ai

uomo, in media circa 30 anni-uomo per ciascuna nazione. Nelle nazioni altamente industrializzate il costo della riferibilità è poi certamente molto superiore alla media indicata. C’è infine da considerare che il costo aumenta di alcuni ordini di grandezza se si tiene anche conto dei processi di taratura e prova utilizzati per disseminare la riferibilità. Anche se soltanto indicativi, questi dati mettono in evidenza quanto sia critico assicurare che il sistema metrologico per la riferibilità sia gestito in modo efficiente [1], con l’obiettivo pragmatico di ridurne i costi a parità di prestazioni, o almeno, a parità di costi, di ottenere la massima efficienza possibile in termini di reciproca fiducia nei risultati delle misurazioni. LE RETI CHE FANNO PICCOLO IL MONDO

Questa analisi di efficienza può venire condotta interpretando topologicamente il sistema metrologico che garantisce la riferibilità per ciascuna grandezza e formalizzandone perciò la struttura mediante un grafo o una rete, i cui nodi sono i campioni e i dispositivi per misurazione, e i cui archi, cioè le linee di collegamento tra i nodi, rappresentano la relazione, chiamata appunto di riferibilità, che si stabilisce allorché un dispositivo o un campione viene tarato mediante (o confrontato con) un campione ritenuto a sua volta riferibile (Fig. 1). Si noti che la differenza fra le linee nere e le linee arancioni nel grafo è duplice: • Le linee nere, oltre a visualizzare i processi di taratura e prova esclusivamente all’interno della nazione considerata, rappresentano i controlli passivi per il trasferimento della riferibili-

T_M

Figura 1 – Il grafo del sistema metrologico, per una grandezza. Le linee nere rappresentano i processi di taratura e prova che trasferiscono la riferibilità dal vertice (campioni dell’istituto metrologico) fino agli strumenti degli utenti finali. Le linee arancioni rappresentano i controlli della riferibilità effettuati mediante confronti

tà, ossia quei controlli che sono svolti a esclusivo carico del livello superiore, senza alcuna partecipazione attiva del laboratorio controllato. • Le linee arancioni, che visualizzano i controlli effettuati tramite i confronti interlaboratorio, rappresentano controlli attivi, in quanto i partecipanti al confronto sono tutti sullo stesso livello (anche se non necessariamente tutti in grado di effettuare le misure con incertezza dello stesso ordine di grandezza) e intervengono direttamente effettuando la taratura o la prova generalmente su un campione viaggiatore. Questo grafo consente d’individuare alcuni indici utili per la valutazione dell’efficienza del sistema e quindi può essere interessante prenderne in esame le principali caratteristiche. Esso è costituito da un numero n di

1 2

Università C. Cattaneo - Castellanza Direttore della Rivista Tutto_Misure

N.

4/12 ƒ 261


nodi, pari al numero di campioni e dispositivi per misurazione che sono inclusi nel sistema, e da un numero k di archi, pari al numero di relazioni di riferibilità stabilite fra tali campioni o dispositivi. Tale grafo è nello stesso tempo: – connesso, dato che ogni nodo è direttamente o indirettamente connesso con ogni altro nodo; – ampio, dato che include un numero n molto elevato di nodi; n può essere pragmaticamente inteso come un indice di rilevanza: all’aumentare del numero n di campioni o dispositivi aumenta la rilevanza dell’intero sistema; – sparso, dato che il suo numero k di archi è molto minore di n(n–1)/2, il numero di archi di un grafo di n nodi completo, tale cioè che ogni nodo è connesso con ogni altro; k può essere pragmaticamente inteso come un indice di costo: all’aumentare del numero k di relazioni da mantenere tra campioni o dispositivi aumenta il costo dell’intero sistema. Il valore 1/k (o il correlato n/2k, inverso del numero medio di connessioni per nodo) può essere inteso come un indice di efficienza del sistema: all’aumentare di 1/k si riduce il costo per il mantenimento del sistema. Il valore 1/k esprime, però, solo un aspetto di questa efficienza, come mostra la condizione estrema di un grafo costituito da un’unica catena (qual è la successione di tarature e prove nell’ambito di una nazione, descritta nel grafo in Fig. 1 dalle linee nere), in cui ogni nodo, eccettuati i due estremi, è connesso solo ai nodi dei due livelli contigui: a fronte di una massimizzazione del valore di 1/k = 1/(n – 1), cresce anche la distanza media d tra i nodi del grafo, valutabile come il numero medio di archi che è necessario attraversare per connettere due nodi qualsiasi. Un secondo indice di efficienza è dunque 1/d, inverso della distanza media tra i nodi: all’aumentare di 1/d si riduce la distanza tra nodi del sistema. D’altra parte, anche la combinazione di questi due indici non è sufficiente a

T_M ƒ 262

N. 04ƒ ; 2012

IL TEMA

formalizzare in modo completo l’efficienza del sistema. Nel caso della topologia a stella (Fig. 2), con un nodo “fulcro” (hub) al quale gli altri n – 1 nodi sono connessi, sia il numero di archi del grafo sia la distanza media tra nodi sono bassi, ma il numero massimo c di connessioni a un singolo nodo è assai elevato (appunto n – 1, per il nodo “centrale”), elemento che può essere giudicato critico in termini di affidabilità (nel senso sia di affidabilità ai guasti sia di reperibilità) del sistema.

temporaneamente un limitato grado di connessione (1/c alto) e nonostante ciò una ridotta distanza media tra nodi (1/d alto), anche senza ricorrere sistematicamente a nodi fulcro (1/c alto), e dunque possono essere intesi come globalmente efficienti. Si tratta delle cosiddette “small-world networks”, espressione che possiamo tradurre, in modo esplicativo e suggestivo, con “reti che fanno piccolo il mondo” (SWN) [2]. La rete di relazioni di conoscenza tra individui è stato l’esempio originario di SWN (a quanto pare, la distanza media “per conoscenza” tra coppie d’individui è molto inferiore a 10, nonostante una popolazione di 6 miliardi di individui e il numero mediamente ridotto di conoscenti che ognuno ha), ma sono state riconosciute SWN anche, per esempio, nella struttura di connessioni del cervello umano e di Internet [3]. Prima di avviare l’analisi del sistema metrologico come una SWN, è necessario individuare le peculiarità del sistema.

Figura 2 – Rete a stella: un nodo “fulcro” (hub) al quale tutti gli altri sono connessi. Numero degli archi della rete e distanza media tra i nodi sono molto bassi, ma massimo è il numero di connessioni a un singolo nodo. Critica è l’affidabilità del sistema

Un terzo indice di efficienza è dunque l’inverso 1/c del numero massimo di connessioni: all’aumentare di 1/c aumenta l’affidabilità del sistema. I tre indici 1/k, 1/d e 1/c hanno evidentemente una parziale dipendenza reciproca. Per esempio, si può ridurre la distanza media d tra nodi completando progressivamente il grafo, e quindi peggiorando l’indice 1/k, o anche creando dei nodi fulcro, e quindi plausibilmente peggiorando l’indice 1/c. Sembrerebbe dunque che il prezzo per aumentare il valore di un indice sia quello di accettare la riduzione di uno o entrambi gli altri due indici. È per questo che grande attenzione è stata rivolta recentemente a grafi che hanno la caratteristica di avere con-

PECULIARITÀ DEL SISTEMA METROLOGICO

Il problema strutturale della riferibilità Definita la riferibilità come “la proprietà del risultato di una misurazione consistente nel poterlo collegare a campioni appropriati, generalmente nazionali o internazionali, attraverso una catena ininterrotta di confronti” [4], dovrebbe essere chiaro che la condizione di non-interruzione della catena non è sufficiente a garantire la riferibilità nell’intero sistema. La riferibilità, in un’operazione di confronto tra campioni, è basata sulla verifica di compatibilità tra le misure prodotte dalle due entità confrontate, empiricamente corrispondente a una condizione di sostituibilità di tali entità. Ipotizzando che ogni misura sia espressa mediante un valore x, stimato per il misurando, e la sua incertezza estesa U(x), due misure sono compatibili se |x1 – x2| < U(x1 – x2) [5].


N. 04ƒ ;2012 Il problema dell’asimmetria operativa La riferibilità è tipicamente garantita secondo una procedura asimmetrica, nella quale un campione o dispositivo viene tarato mediante un campione di incertezza minore. Anche nei confronti si presume che la ripetibilità a medio termine (tempo necessario per il completamento del confronto) del campione viaggiatore sia almeno pari alla stabilità dei migliori campioni coinvolti nel confronto. Nei confronti tra istituti metrologici nazionali (key comparison, KC) si calcola un valore di riferimento (VR) del confronto, la cui incertezza stimata è generalmente prossima alla minima incertezza della misure coinvolte; a ciò si giunge anche scartando, nel calcolo del VR, i

Ogni misura può essere rappresentata mediante un intervallo centrato in x e di semi-ampiezza pari a U(x), così che due misure sono compatibili se i loro intervalli hanno intersezione non nulla [6] (NdR: si noti che ciò è corretto solo nel caso in cui la correlazione tra le misure sia trascurabile, una condizione che per semplicità qui assumeremo sia soddisfatta). D’altra parte, tale criterio di compatibilità non è automaticamente trasferibile: dal fatto che a interseca b e b interseca c non si può concludere, in generale, che anche a e c abbiano intersezione non nulla. Il problema strutturale della riferibilità deriva dunque dalla non transitività di tale relazione di compatibilità, un tema che abbiamo analizzato in termini di una formalizzazione “relazionale” della misurazione [7]. La non transitività della compatibilità è dovuta alla generale non trasferibilità della sostituibilità ottenuta nel confronto: anche quando A è sostituibile con B e B con C, non necessariamente A lo è con C (Fig. 3a). La peculiarità del sistema metrologico rispetto a una tipica SWN, in cui una distanza elevata tra due nodi è un indice di bassa efficienza ma non impedisce la loro connessione, sta dunque nel fatto che la riferibilità locale non garantisce la riferibilità globale del sistema, un problema che deve essere risolto contestualmente alla ricerca della massima efficienza del sistema stesso.

IL TEMA

elementi di una catena di riferibilità mantenuta su “compatibilità trasferibile” (al livello di nazione in Fig. 1) includerebbero tutte la misura del campione al quale sono riferite, con garanzia di transitività della riferibilità stessa. Come importante conseguenza, Figura 3 – Le misure sono qui rappresentate mediante quanto migliore è la qualità intervalli appartenenti alla scala dei risultati delle dell’intervallo superiore della misure. In a) sono indicate due misure, A e C, catena tanto più è facile gaentrambe sostituibili (in quanto compatibili) con B rantire questa “compatibilità ma non sostituibili l’una con l’altra: la condizione trasferibile” (rimuovendo la di catena ininterrotta di confronti non garantisce situazione paradossale per la riferibilità di C ad A. In b) sono rappresentate misure (ordinate gerarchicamente) risultato cui, basandosi sulla “compatidei confronti a cascata che assicurano la riferibilità: bilità generica”, tanto peggiosolo se, come in figura, ogni misura include l’intervallo re è la qualità degli intervalli della misura di riferimento, la relazione superiori tanto più è facile gadi compatibilità gode della proprietà transitiva ed è trasferibile (NdR: per documentare la conseguita rantire la riferibilità). compatibilità e riferibilità transitiva, in ogni certificato Una seconda soluzione al di taratura o prova, che documenta il passaggio problema della generale non da un nodo al successivo nella catena ininterrotta di transitività della relazione di confronti, dovrebbero essere indicati valore riferibilità ha una portata solo e incertezza del campione al quale l’intera catena risulta riferibile). La figura 3b può anche essere empirica, nel senso che, pur non interpretata come il risultato del confronto potendo garantire formalmente tra laboratori di pari livello: in tal caso la misura R la transitività, consente di aurappresenta il valore di riferimento del confronto mentarne la plausibilità. Si tratta e le altre misure, arbitrariamente ordinate dell’introduzione di confronti tra per incertezza crescente, i risultati dei laboratori pari, come quelli previsti tra gli istituti metrologici, ma condotti risultati che si discostano in modo anche a livelli intermedi della catena: anomalo e significativo dagli altri ciò garantisce la sostituibilità dei cam(outlier). Tale asimmetria operativa è pioni locali ma ancora richiede almeno in evidente contrasto con la simmetria un confronto “verticale”, allo scopo di della relazione d’intersezione non garantire l’assenza di effetti di polariznulla, impiegata per formalizzare la zazione dovuti a instabilità sistematiche da parte di tutti i campioni locali. Una compatibilità. soluzione di questo genere, consistente con la logica di “limitata randomizzazione” tipica delle SWN, produce tra POSSIBILI SOLUZIONI l’altro l’interessante beneficio per cui Una prima soluzione, general- dalla riferibilità alla pari, confermata a mente adottata operativamente, si un certo livello, si può inferire la riferibasa sull’adozione di una relazione bilità dei campioni dei livelli superiori di compatibilità asimmetrica (potreb- nella catena: in un certo senso un servibe essere chiamata “compatibilità tra- zio che viene fornito “dal basso all’alsferibile”) che, per esempio, richieda to” nella catena di riferibilità, e non non genericamente l’intersezione non viceversa come di solito. nulla ma l’inclusione dell’intervallo “superiore” nella catena in ciascuno degli intervalli “inferiori” (Fig. 3b; COSA SUGGERISCE L’ANALISI alternativamente si potrebbe richiede- IN TERMINI DI SWN? re che l’intervallo “inferiore” includa l’intervallo rappresentativo del valore Le proprietà che conducono, in una di riferimento scelto dal KC). In questo SWN, ad alta efficienza globale posmodo le misure corrispondenti agli sono essere reinterpretate al sistema

T_M ƒ 263


metrologico. Per garantire una ridotta distanza media tra i nodi di una rete molto ampia (quindi un buon valore dell’indice 1/d) è banalmente possibile scegliere di aumentare progressivamente il numero di connessioni, ma ciò evidentemente peggiora il valore dell’indice 1/k, che, come abbiamo visto, fornisce un indicatore del costo complessivo del sistema. Si potrebbe alternativamente enfatizzare la logica di aggregazione, al limite accentrando tutta la rete intorno a un singolo nodo fulcro a cui tutti gli altri siano connessi (NdR: è quanto si fa assumendo un campione prototipo materiale a rappresentare una unità di misura, caso del kilogrammo), ma ciò peggiorerebbe il valore dell’indice 1/c e quindi le criticità relative all’affidabilità e alla raggiungibilità di tale nodo. Il sistema metrologico ha evidentemente una struttura più orientata a questa seconda logica, realizzata mediante una gerarchia (dagli Istituti Metrologici Nazionali fino alle aziende, attraverso la catena di riferibilità) il cui numero di livelli stabilisce un trade-off tra minimizzazione della distanza media e massimizzazione dell’affidabilità e raggiungibilità. L’insegnamento che giunge dalle SWN può essere dunque adattato a questo contesto: anche un numero limitato di connessioni “alla pari”, magari scelte in modo sufficientemente random, tra nodi “in basso” nella gerarchia del sistema metrologico ridurrebbero in modo rilevante la distanza media tra nodi senza aumentare criticamente i costi del sistema, e quindi aumenterebbero significativamente l’efficienza complessiva del sistema stesso. La firma dell’Intesa di Mutuo Riconoscimento (MRA, Mutual Recognition Arrangement [8]) tra Istituti Metrologici Nazionali ha prodotto un significativo aumento delle connessioni al solo loro livello: non necessariamente ciò si traduce, in base alle considerazioni fatte, in un miglioramento dell’efficienza del sistema metrologico nel suo complesso. Due esempi, entrambi noti ai lettori di T_M, possono servire a chiarire in quale direzione l’analisi suggerisce invece di operare. Nel 2002 T_M pubblicò [9] i risultati del confronto, tra

T_M ƒ 264

N. 04ƒ ; 2012

IL TEMA

laboratori accreditati croati, italiani e sloveni, di campioni per la misura di proprietà geometriche dei prodotti (GPS). Il confronto fu organizzato, gestito e valutato in modo autonomo dai partecipanti, sulla falsariga di quanto avviene per i KC nell’ambito del MRA. Il secondo esempio riguarda la Mitutoyo, ancora nel settore GPS. In ogni nazione nella quale Mitutoyo è presente, è stato creato un laboratorio di taratura con campioni riferiti ai rispettivi campioni nazionali; molti di questi laboratori sono accreditati dai rispettivi sistemi di accreditamento nazionali. Tutti sono inoltre collegati al laboratorio metrologico della sede centrale della Mitutoyo. Periodicamente Mitutoyo organizza un confronto attivo tra i campioni detenuti dai sui laboratori nel mondo; T_M pubblicò nel 2000 i risultati di uno di tali confronti [10], sottolineando che la struttura di laboratori Mitutoyo costituiva un sistema mondiale per la riferibilità, nel settore GPS, unico nel suo genere. Questi due esempi si sono mossi nella direzione di applicare la seconda soluzione prima discussa. Essi hanno fornito risultati che però non sono stati utilizzati dagli istituti metrologici (i quali peraltro erano stati indirettamente coinvolti) per migliorare il sistema mondiale della riferibilità. Certamente numerosi altri esempi possono essere fatti in altri settori; di alcuni di essi si è occupata diffusamente T_M, in particolare dei sistematici confronti organizzati, a livello nazionale e internazionale, dai laboratori impegnati nelle prove ambientali (in Italia il circuito dei laboratori delle ARPA). IPOTESI DA APPROFONDIRE

Il MRA sta producendo due distinti database, uno dedicato ai risultati delle KC, l’altro dedicato alle CMC (calibration and measurement capabilities) dei soli istituti metrologici. Per migliorare il sistema metrologico finalizzato alla “compatibilità trasferibile” tra tutte le misure prodotte nel mondo, questi database potrebbero essere allargati a includere sia i risultati di confronti analoghi a quelli illustrati negli esempi espo-

sti sia le CMC dei laboratori che a tali confronti hanno partecipato. I risultati dei confronti a livello dei laboratori sarebbero un ottimo controllo indiretto della compatibilità delle CMC degli istituti; servirebbero inoltre a validare le CMC dei laboratori; consentirebbero infine di ridurre in modo significativo la distanza tra i nodi della rete metrologica, senza aggravio di costi per gli istituti e solo utilizzando in modo appropriato i risultati prodotti da confronti che comunque vengono organizzati. RIFERIMENTI BIBLIOGRAFICI

1. L. Mari, S. Sartori: Analisi dell’efficienza del sistema di riferibilità, Atti del XXII Congresso dell’Associazione GMEE, pp. 23-24, settembre 2005, Palermo. 2. D.J. Watts, S.H. Strogatz, Collective dynamics of “small-world” networks, Nature, 393, 440-442, 1998. 3. M. Buchanan, Nexus – La rivoluzionaria teoria delle reti: perché la natura, la società, l’economia, la comunicazione funzionano allo stesso modo, Mondadori, 2003.4. ISO et al., International Vocabulary of Basic and General Terms in Metrology, 2nd Ed., Geneva, 1993. 5. SIT, Doc-517, Termini e definizioni, rev. 22.6.2002. 6. UNI 4546, Misure e misurazioni. Termini e definizioni fondamentali, 1984. 7. L. Mari, S. Sartori, A relational modeling of measurement and its metrological implications, atti del Joint International IMEKO TC1+TC7 Symposium “Metrology and Measurement Education in the Internet Era”, Ilmenau, 21-24 September 2005, ISBN 3-932633-99-7. 8. CIPM, Mutual recognition of national measurement standards and of calibration and measurement certificates issued by national metrology institutes, Paris, 14 October 1999. 9. R. Bertozzi, L. Gamberi, V. Mudronja: Un confronto sperimentale tra laboratori accreditati, T_M n. 1/2002 p. 85, Augusta Edizioni. 10. G. Malagola, A. Ponterio: Confronti internazionali nel sistema mondiale di riferibilità Mitutoyo, T_M n. 2/2000 p. 141, Augusta Edizioni.


TUTTO_SERGIO SARTORI

IL TEMA

Angela Maiello 1, Sergio Sartori 2, Dino Spolaor 3

Applicazione della GUM a una misura biologica Parte I: definizione del misurando ed equazione di modello

PREMESSA METODOLOGICA

Questo studio intende mostrare l’applicazione rigorosa dell’approccio descritto nella Guide to the expression of uncertainty in measurement (GUM), norma corrispondente in italiano UNI CEI ENV 13005, a un caso concreto e molto diffuso di misurazione nel settore microbiologico. Gli Autori ritengono che quanto illustrano nel presente articolo possa essere d’interesse per due categorie di lettori: – I biologi e i microbiologi, ai quali ci si rivolge con l’obiettivo di fornire un metodo, per il calcolo dell’incertezza da associare alle misure che quotidianamente effettuano, che sia coerente con quello adottato in altri settori di misura: allo scopo si darà pertanto ampio spazio ai commenti sui diversi passi della procedura di calcolo suggerita dalla GUM. – I metrologi di settori diversi dalla biologia, ai quali ci si rivolge con l’obiettivo d’illustrare i particolari aspetti che caratterizzano le misure biologiche. Per tali lettori ci si sofferma su definizioni e spiegazioni ben note ai biologi, utili per aiutare a individuare un linguaggio comune tra i diversi settori nell’utilizzo della GUM e nella strutturazione metrologica dei processi di misurazione. Pertanto, mentre si darà spazio alla illustrazione di concetti e metodi idonei sia per il calcolo dell’incertezza sia per la garanzia della riferibilità,

ripetibilità e riproducibilità delle misure, si cercherà di creare un raccordo logico tra il linguaggio metrologico e i concetti a esso associati nella biologia e negli altri settori delle misure. Il metodo scelto è squisitamente operativo: selezionato un caso tipico di misurazione in una procedura di prova microbiologica, si eseguirà il calcolo dell’incertezza seguendo, passo per passo, quanto prescritto dalla GUM. Si costruirà così in modo rigoroso la tabella con il budget delle incertezze, organizzata secondo la procedura prevista dalla GUM. UNA PREMESSA SULLA GUM È in corso una sistematica integrazione della GUM (1a edizione ISO 1993, corretta e ristampata nel 1995), con la pubblicazione di una’introduzione e di 5 supplementi. Alcuni aspetti peculiari di quest’ultima revisione sono stati e saranno descritti e commentati sulla rivista Tutto_Misure, in altri articoli. In questo articolo si ritiene comunque importante sottolineare i seguenti tre aspetti fondamentali: 1. L’incertezza è da intendersi come grado di fiducia che si è disposti a dare all’informazione costituita dal risultato di una misura; è dunque dominante l’aspetto probabilistico. 2. La misura e la sua incertezza sono descritte ricorrendo a funzioni di distribuzione di probabilità. Lo schema proposto dalla GUM, che descrive tali funzioni mediante due soli parametri, media e scarto tipo, è valido solo se le distribuzioni di probabilità associate alle grandezze d’ingresso sono di tipo normale o se, in caso contrario, vale pienamente il teorema del limite centrale. 3. In presenza di distribuzioni fortemente asimmetriche o bimodali, non caratterizzabili solo mediante i due

T_M

parametri, nel Supplemento 1 alla GUM viene suggerito di affidarsi a metodi numerici (simulazione di Montecarlo) per la propagazione delle distribuzioni. Si ottiene così la distribuzione associabile al valore della grandezza d’uscita: da questa è possibile calcolare sia la media e lo scarto tipo sia gli intervalli di fiducia con i rispettivi coefficienti (o livelli) fiduciali. Per gli aspetti legati all’ambito microbiologico, oggetto di questo articolo, ci si atterrà esclusivamente alla scelta della GUM espressa ai punti 1 e 2. Si formulano in sintesi le seguenti ipotesi: A. Tutte le distribuzioni associate al valore delle grandezze d’ingresso sono distribuzioni note, rappresentabili mediante i due soli parametri, media e scarto tipo. Tali due parametri servono, rispettivamente, per il calcolo del valore della grandezza d’uscita (misurando) e della sua incertezza (mediante la legge di propagazione delle varianze), utilizzando in entrambi i calcoli il modello matematico che sarà esposto in seguito. B. La distribuzione associata al valore del misurando è la distribuzione normale, grazie all’ipotesi di validità del teorema del limite centrale e all’alto numero di grandezze d’ingresso, ciascuna caratterizzata da un adeguatamente elevato grado di libertà.

Da Tutto_Misure n. 2/2007 1 Libero professionista, Biologo Maiello&Maiello sas - Torino 2 Direttore della rivista Tutto_Misure 3 Responsabile Settore Biotecnologie Agroalimentari - Veneto Agricoltura Thiene

N.

4/12 ƒ 265


N. 04ƒ ; 2012

IL TEMA

DEFINIZIONE DEL MISURANDO Il Misurando è rappresentato dalle Unità Formanti Colonia (U.F.C.) il cui numero N approssima la concentrazione di microrganismi (m.o.) presenti in un campione. N, che in questo testo viene riferito come “conteggio”1, è ottenuto (secondo quanto descritto nella norma ISO 7218) mediante il calcolo della media ponderata delle conte2 C su una o più piastre Petri di una prova effettuata senza diluizione o con una o più diluizioni d del campione, in cui almeno una delle piastre considerate ai fini del calcolo del risultato deve contenere 15 colonie. La diluizione d è prevalentemente espressa in base dieci, ad esempio 10-1 ml--1.3 Ripetute analisi di un singolo campione derivato da matrici biologiche o analisi di repliche di campioni daranno sempre risultati che presentano una certa variabilità. Tale variabilità è dovuta a diverse cause e rispecchierà la distribuzione dei m.o. nel campione sottoposto a prova, la non adeguatezza della tecnica di campionamento e del metodo di prova applicato, oltre alla capacità dell’operatore di applicare adeguatamente tutte le fasi analitiche. Nei casi in cui si debba prendere una decisione relativamente alla qualità o accettabilità di una matrice alimentare da destinare all’uso umano o animale, è necessario che la valutazione sia fatta da campioni rappresentativi del lotto interessato poiché, se la valutazione è basata su analisi microbiologiche, la precisione del dato analitico dipende sia dalla procedura scelta sia dalla rappresentatività e numero di campioni analizzati. La decisione che ne potrà conseguire sarà pertanto più accurata e adeguata all’aumentare di questi, sebbene sia il numero sia la dimensione dei campioni dovranno essere necessariamente contenuti, per i costi e le implicazioni pratiche legate alla gestione delle prove in fase analitica. Un gran quantitativo di matrice relativamente uniforme, come ad esempio il latte, può essere valutato prelevando un campione rappresentativo dopo un’accurata miscelazione dell’intero volume, ma anche in questo caso bisogna riflettere sull’operatività, sulla valutazione del dato ottenuto e sull’utilizzo di questo per le decisioni conseguenti. Si supponga, ad esempio, di dover valutare un volume totale di campione di 1.000 L di latte, che si prelevino da tale campione 10 mL e poi, da questi, 1 mL che sarà successivamente diluito fino alla diluizione 10-2, per applicare la tecnica di conteggio in piastra. Al termine di tale operazione, la qualità dei 1.000 L di latte sarà valutata sulla base di soli 0,01 mL, che corrisponderà a un volume di 10-8 del lotto originario di 1.000 L. Per assicurare che la diluizione finale usata sia veramente rappresentativa dell’intero lotto, è chiaro che debba essere eseguito un efficiente mescolamento della matrice in ogni stadio del campionamento, sia a livello dell’Azienda di produzione sia da parte del laboratorio che effettua l’analisi. Di conseguenza: se si può ipotiz-



zare che un campionamento rappresentativo possa essere realizzato per una matrice liquida, seppure con tutte le criticità legate alla miscelazione, con maggiori difficoltà la stessa operazione potrà essere effettuata per matrici solide, seppure con i dovuti distinguo, relativi alla specifica tipologia (es. granaglie, vegetali, carni, ecc.). PASSO 1: SI ESPRIMA MATEMATICAMENTE LA RELAZIONE TRA IL MISURANDO E TUTTE LE GRANDEZZE DI INGRESSO (COMPRESE CORREZIONI E FATTORI VARI) DALLE QUALI IL MISURANDO DIPENDE

Questo passo richiede l’effettuazione di due operazioni distinte: a: Individuazione di tutte le grandezze d’ingresso L’individuazione di tutte le grandezze d’ingresso è un’operazione indispensabile e non evitabile che richiede una completa e approfondita conoscenza del processo o sistema sul quale si effettua la misurazione, ossia, in questo caso, della procedura di allestimento della prova dalla preparazione del campione alla valutazione di tutte le grandezze d’ingresso. Nella maggioranza dei casi una sottostima dell’incertezza è attribuibile al non aver preso in considerazione una grandezza d’ingresso. Per verificare se tutto ciò che conta sia stato correttamente considerato è opportuno fare un’analisi puntuale di tutte le fasi della misurazione, individuando tutti gli aspetti correlati alla misura d’interesse e valutandone, se possibile, il contributo al valore del misurando. Per stimare la concentrazione4 del m.o. d’interesse nel campione si procede a una successione di omogeneizzazioni5 e diluizioni. Dopo l’omogeneizzazione del campione, si preleva un primo inoculo6. Sia dj una generica diluizione (j=0, 1, 2, …., h dove h rappresenta l’indice della diluizione più spinta che è stata preparata): essa è definita come dj = V/(V+D) essendo V il volu-

T_M ƒ 268

N. 04ƒ ; 2012

IL TEMA

me dell’inoculo e D il volume del np+1 = numero di piastre alla seconda diluizione utile, consecutiva aldiluente la prima; al minimo vale 1; D=9·V da cui dj+1=0,1⋅dj (1) dp = prima diluizione utile; dp+1 = seconda diluizione utile; entro l’incertezza nelle misure di volu- V = volume d’inoculo per ciascuna delle piastre Petri; me. L’inverso della diluizione dj corrispon- T = temperatura alla quale è stata tenuta la coltura; tale temperatura è de al fattore di diluizione fj: definita dal metodo con una tollerandj =1/fj Per ciascuna diluizione sono prepara- za accettabile, in funzione del m.o. te nj piastre di Petri. Si procede in di cui si vuole misurare la concentragenerale alla conta solo su piastre zione; con due diluizioni consecutive, nell’i- t = tempo d’incubazione; il tempo potesi di aver eseguito una prova che è definito nel metodo con una propria porti alla disponibilità di piastre in tolleranza. questa situazione a partire da piastre Si riportano, nella tabella del budget con un numero di colonie comprese delle incertezze: tra 30 e 300 (o altre combinazioni in • in colonna 0, la descrizione sintetica dipendenza dalla tipologia delle colo- delle grandezze d’ingresso; nie, come richiesto dal metodo di rife- • in colonna 1, il simbolo usato per rimento); almeno una delle piastre che indicarle; verranno prese in considerazione • in colonna 2, l’unità di misura di ciascuna delle grandezze d’ingresso. deve contenere 15 o più colonie. La sequenza delle diluizioni è pertan- b. Scrittura della relazione matematica che lega le granto: ⇒ d0=1=100=campione tal quale dezze d’ingresso al misurando omogeneizzato, del quale vengono La scrittura della relazione matematiprelevati volumi V, ciascuno dei quali ca che lega le grandezze d’ingresso viene posto su una delle piastre del al misurando, è una operazione indigruppo zero, corrispondente al cam- spensabile per giungere alla stima del valore del misurando. pione tal quale; ⇒ d1 ≈ 0,1=10-1 = diluizione dell’i- Il ragionamento, che nella guida UNI noculo, di volume sempre V, che verrà CEI ENV 13005 sta alla base della posto nelle piastre del primo gruppo; stima del misurando e della sua incer⇒ d2 ≈ 0,01=10-2 = diluizione dell’i- tezza, si può riassumere nel concetto noculo, di volume sempre V, che verrà che non esistono misure dirette, ma posto nelle piastre del secondo grup- tutte sono in qualche modo indirette e sono pertanto il risultato di un calcolo po; ⇒ dp ≈ 10-p= diluizione dell’inoculo, fatto partendo da informazioni di vadi volume sempre V, che verrà posto rio tipo, in ingresso, il che implica la nelle piastre del primo gruppo preso conoscenza del modello che lega le informazioni d’ingresso alla misura in considerazione per la conta; ⇒ dp+1 ≈ 10-(p+1) = diluizione dell’i- che vogliamo stimare, in uscita. noculo, di volume sempre V, che verrà Sia Cp la generica conta su una delle posto sulle piastre del secondo grup- piastre prese in considerazione alla diluizione dp. La stima della concenpo preso in considerazione; ⇒ dj ≈ 10-j = diluizione dell’inoculo, trazione Rp del m.o. d’interesse su tale di volume sempre V, che verrà posto piastra vale: nelle piastre dell’ultimo gruppo. Le grandezze d’ingresso nel caso in Cp Rp = (2) esame sono: V Cip = conta delle colonie sulla piastra i (i=1, ….. , np) alla diluizione Se per la diluizione p sono state prese p, corrispondente alla prima utile; np = numero di piastre alla prima in considerazione np piastre, ottenendo su ciascuna la conta Cip, con i=1, diluizione utile; al minimo vale 1;


N. 04ƒ ;2012 2, …, np, la stima della concentrazione media Mp su tale primo gruppo di piastre risulta: np

C ip

M p = i =1 V np

(3)

Per ottenere la stima della concentrazione Np dei m.o. d’interesse nel campione è necessario dividere la (3) per la sua diluizione dp:

∑C ip

i =1

(4)

np ⋅V ⋅ d p

Ricordando la (1), è immediato calcolare la stima della concentrazione Np+1 dei m.o. d’interesse nel campione per la sua diluizione dp+1: n p +1

N p +1 =

∑C i (p +1)

i =1

np +1 ⋅V ⋅ d p +1

n p +1

∑C i (p +1)

i =1

(5)

np +1 ⋅V ⋅ 0,1 ⋅ d p

Nel caso di stima della concentrazione dei microrganismi d’interesse nel campione sulla base della somma delle conte ricavate da tutte le piastre prese in considerazione, anche su diluizioni diverse, si deve dividere tale somma per il totale dei volumi inoculati. Si ottiene pertanto la miglior stima del misurando N:

N=

np

n p +1

n p +q

i =1

i =1

i =1

∑Cip + ∑Ci (p +1) + ... + ∑Ci (p +q )

 d p +1 d p +q  V ⋅np + V ⋅np +1 ⋅ d + ... + V ⋅np +q ⋅ d  ⋅ d p  p  p

np

n p +1

n p +q

i =1

i =1

i =1

∑C ip + ∑C i (p +1) + ... + ∑C i (p +q )

(

La parte II, pubblicata sul no. 2/2008 (pp. 143-149) della rivista, tratta del calcolo dei valori e delle incertezze delle grandezze d’ingresso e del misurando (grandezza d’uscita). La parte III, pubblicata sul no. 3/2008 (pp. 217-223) della rivista, tratta il calcolo dell’incertezza estesa e del suo livello di fiducia, dell’espressione del risultato finale della misurazione. Contiene inoltre alcune appendici utili per effettuare il calcolo dell’incertezza. NOTE

np

Np =

IL TEMA

)

V ⋅ np + 0,1 ⋅np +1 + ... + 10 − q ⋅np +q ⋅ d p

+ CT + Ct =

+ CT + Ct

(6)

La prima parte dell’equazione (6), senza approssimazioni, sarà utilizzata per effettuare il calcolo dell’incertezza, mentre la seconda parte, approssimata, è usata per calcolare la miglior stima del misurando. I termini CT e Ct rappresentano eventuali correzioni da apportare al risultato per la possibile presenza, rispettivamente, di errori nella misura della temperatura T alla quale è stata tenuta la cultura e del tempo t d’incubazione. Si deve inoltre conto della seguente considerazione: anche se si può ragionevolmente supporre che le due correzioni CT e Ct siano uguali a zero, tale ipotesi non può essere ritenuta esente da incertezza: le correzioni, anche se nulle, giocano, in ogni caso, un ruolo che deve essere tenuto in considerazione durante la successiva fase di calcolo dell’incertezza della misura.

1

Si definisce “conteggio” l’operazione di calcolo della media ponderata delle conte C su una o più piastre Petri tenendo conto matematicamente della diluizione d a cui è stato sottoposto il campione di prova. 2 Si definisce come “conta” C l’operazione di enumerazione delle UFC su ciascuna piastra Petri presa in considerazione dopo l’adeguato periodo d’incubazione. 3 Per i non esperti in microbiologia. Le U.F.C. si ottengono mettendo in coltura, in condizioni controllate e definite per ciascun microorganismo target (temperatura, tempo d’incubazione, umidità relativa, terreno colturale) un campione contenente batteri, se del caso opportunamente diluito. Il campione può essere rappresentato da una matrice sia liquida sia solida, di origine biologica (sangue, urina, feci), ambientale (acqua, fanghi di depurazione, aerosol, superfici) o alimentare (latte, carni mangimi animali). La procedura di preparazione del campione da sottoporre a prova prevede, di solito, una fase preliminare di omogeneizzazione manuale o meccanica effettuata con l’ausilio di apparecchiature, con il duplice scopo di rendere omogeneo il campione, che può essere esaminato direttamente, o la sospensione madre ottenuta dopo l’aggiunta di specifico diluente alle matrici solide, e portare a uno stato di non aggregazione i batteri presenti. Idealmente, da ciascuna cellula batterica sarà generata un’unica colonia, che per questo prenderà la denominazione di Unità Formante Colonia (UFC), visibile su terreno solido, pertanto agevolmente contabile a occhio nudo. Alcune fonti d’incertezza sono pertanto individuabili in quelle di seguito descritte: rappresentatività del campione rispetto all’intero sistema da analizzare (incertezza di campionamento); presenza di batteri aggregati che generano un’unica colonia invece di colonie separate (sottostima del conteggio); presenza di colonie atipiche, generate da microorganismi diversi dai batteri d’interesse, ma a volte ascritte come generate da questi (falsi positivi; sovrastima del conteggio); non stabilità e uniformità della temperatura durante la fase d’incubazione, con conseguente insufficiente e/o anomalo sviluppo di alcune colonie; incertezza legata al tempo d’incubazione delle colture. 4 La concentrazione di un m.o. in un campione della matrice è espressa con riferimento all’unità di massa se la matrice è solida (ad esempio, nella ricerca di m.o. in alimenti, carne o formaggio), all’unità di volume se la matrice è liquida (ad esempio, latte o succo di frutta). L’esempio numerico nel testo fa riferimento a una matrice liquida, ad esempio latte: la concentrazione è da intendersi pertanto come numero di m.o., al millilitro. 5 Il processo di omogeneizzazione consiste in: macinazione (più o meno grossolana) e successivo mescolamento del campione, prima di prelevare il primo e i successivi inoculi dopo diluizione, se la matrice è solida; agitazione del campione e dei successivi inoculi, prima di prelevare ciascuno di questi, se la matrice è liquida. 6 Con inoculo si intende il volume di sospensione microbica costituita da campione tal quale o da diluente e campione in un rapporto tra i due, legato al fattore di diluizione raggiunto. Nell’esempio numerico nel testo il volume d’inoculo per piastra è posto uguale a 1mL.

T_M ƒ 269



IL TEMA

Sergio Sartori

Cambiare tutto affinché niente cambi nel Sistema Internazionale di Unità come nella Sicilia del Gattopardo

THOROUGH CHANGE – NO CHANGE? THE INTERNATIONAL SYSTEM OF UNITS LIKE SICILY AT THE TIME OF “GATTOPARDO” From a practical viewpoint (uncertainty of measurement, primary and work standards) almost nothing will change when switching from the seven present base unit definitions to the seven fixed and zero – uncertainty values attributed to seven fundamental constants. The paper tries to identify who will actually benefit from this switch, and concludes that its only benefit will be the justification of the high expenses made by some National Metrology Institutes, and to bring fame to few figures in metrology. The assumption is demonstrated through the example of the metre definition switch actuated in 1983. RIASSUNTO Poiché dal punto di vista degli effetti pratici (incertezza delle misure, campioni usati) quasi nulla cambierà con l’attribuzione a sette costanti fondamentali di valori fissi e privi d’incertezza in luogo delle attuali sette definizioni delle unità di base, si tenta di spiegare a chi serve il complesso cambiamento proposto in sede internazionale. Si conclude che servirà soltanto a giustificare le spese sostenute da alcuni Istituti Metrologici Nazionali e a dar lustro ad alcuni personaggi della metrologia. Si dimostra quanto ciò sia vero attraverso l’esempio del cambiamento, attuato nel 1983, della definizione del metro. I NUOVI MAGNIFICI SETTE

Nell’autunno del 2011 la XXIV Conferenza Generale dei Pesi e delle Misure discuterà una proposta di drastico cambiamento del Sistema Internazionale di Unità: in luogo delle sette definizioni convenzionali delle unità di misura delle sette grandezze di base (metro – lunghezza, kilogrammo – massa, secondo – tempo, ampere – corrente elettrica, kelvin – temperatura, mole – quantità di sostanza, candela – intensità luminosa) viene proposto di assegnare valori concordati ed esatti a sette costanti fisiche e chimiche1: a. la frequenza di transizione del cesio 133 tra due livelli energetici; b. la velocità della luce nel vuoto; c. la costante di Planck; d. la carica dell’elettrone; e. la costante di Boltzmann;

f. la costante di Avogadro; g. l’efficienza luminosa di una radiazione monocromatica. La proposta è ampiamente illustrata nell’articolo di Walter Bich. Mi limiterò pertanto ad alcuni commenti. Le tre costanti a, b, g sono già attualmente usate per la definizione, rispettivamente, del secondo, del metro e della candela. CHI CI GUADAGNA, CHI CI PERDE

l’ampere. Ne guadagnerà l’intera metrologia elettrica, anche industriale, almeno nei paesi scientificamente e tecnologicamente avanzati. Altri settori non risolveranno i loro problemi: tipicamente quelli che hanno bisogno di accurate misure di massa e che, per ottenerle, dovranno continuare a usare il prototipo e le sue copie, restando dipendenti dal detergente usato per pulire i campioni. Per di più se lo vedranno ogni tanto cambiare, anche se di molto poco. Comunque vengano definite le sette attuali unità di base (tre o quattro tipologie di definizioni sono in discussione), la messa in pratica di tali definizioni, ossia la realizzazione dei campioni essenziali per produrre le misure, non muterà rispetto al passato. Le istruzioni per la messa in pratica, e non le definizioni, sono l’aspetto importante per le applicazioni e sono compito non semplice per il Comitato Internazionale dei Pesi e delle Misure (CIPM). Pertanto si sta per creare un sistema che provocherà gravi difficoltà a chiunque debba illustrarlo a studenti di ogni ordine e grado e ben pochi vantaggi per la scienza e per la tecnica. Inoltre l’eventuale nuovo sistema comporterà costi: norme da rifare, libri di testo da riscrivere, documentazione per la qualità delle aziende da revisionare, corsi di aggiornamento da organizzare, leggi da aggiornare. Sorge spontanea una domanda: perché dunque questo complesso cambiamento? Per dimostrare come nulla cambi nella sostanza e spiegare chi siano i personaggi e gli organismi che dal cambiamento di forma trarranno fama e benefici, ripercorriamo la storia della definizione attuale del metro, ratificata nel 1983 e simile, nella struttura, alle future definizioni delle altre unità di base.

Poiché i valori delle sette costanti sono stati determinati usando le attuali realizzazioni delle sette definizioni delle unità di base, non si avrà alcun guadagno generalizzato in precisione delle misurazioni: alcuni settori, in particolare le misure elettriche, vedranno ufficializzato un percorso di conservazione e disseminazione delle unità già in uso da anni (effetto Josephson per il volt; effetto Hall quantico per l’ohm) come percorso parallelo rispetto alla realizzazione dei campioni collegata alla forma dell’attuale definizione del- Da Tutto_Misure n. 3/2010

T_M

N.

4/12 T_M ƒ 271


N. 04ƒ ; 2012

IL TEMA

UN CASO SEMPLICE CHE AVREBBE definizione c0 = 299 792 458 m/s l’in- ste solo da quei pochi ricchi Istituti. È una DOVUTO FAR SCUOLA certezza che si aveva sul valore di c0 sorta di neocolonialismo metrologico,

Esaminiamo le scelte possibili nel sistema a due unità di base, metro e secondo, la cinematica. Supponiamo di definire l’unità secondo di tempo e l’unità metro di lunghezza come oggi sono. La definizione del metro in realtà fissa c0 = 299 792 458 m/s la velocità della luce in vuoto, valore esatto (privo d’incertezza) e immutabile. Dalla definizione della velocità c0 il metro si ricava ricordando che una lunghezza percorsa da un ente (punto, oggetto, onda luminosa, ecc.) è uguale alla velocità (uniforme) dell’ente moltiplicata per il tempo in secondi impiegato a percorrere detta lunghezza. Dalla definizione c0 = 299 792 458 m/s otteniamo che la luce in 1 s percorre 299 792 458 m; quindi il metro è la frazione 1/299 792 458 della distanza percorsa dalla luce in vuoto in 1 s, come afferma, con altre parole, la definizione. Analizziamo il processo storico mediante il quale si giunge alla definizione della velocità c0 esatta e immutabile. Prima il metro era definito come multiplo, esatto e immutabile, di ordine 1 650 763,73 della lunghezza d’onda in vuoto della radiazione corrispondente alla transizione tra i livelli 2p10 e 5d5 dell’atomo di krypton 86. Mediante quel secondo (definito come è ora) e quel metro venne misurata, tramite sofisticati esperimenti, la velocità della luce2, trovandola uguale a 299 792 458 m/s, con un’incertezza inferiore a 0,1 m/s. Fu allora deciso (XVII CGPM, 1983) di assumere tale valore come esatto per definizione, immutabile nel tempo, e di dedurre da esso il metro. L’incertezza che c’era nel valore sperimentale della velocità della luce non venne persa: si trasferì tale e quale sulla realizzazione dell’unità metro. Si preferì pertanto lasciar cambiare il metro al migliorare delle tecniche sperimentali e mantenere immutabile la velocità della luce3. Conclusione: definire il metro come multiplo (esatto) di ordine 1 650 763,73 della lunghezza d’onda in vuoto della radiazione corrispondente alla transizione tra i livelli 2p10 e 5d5 dell’atomo di krypton 86 o definire la velocità della luce c0 = 299 792 458 m/s conduce a situazioni perfettamente equivalenti. Al momento in cui si decide di preferire la

T_M ƒ 272

viene annullata, l’esperimento “misura della velocità della luce in vuoto” diviene privo di significato: eseguendolo, in realtà si procede alla realizzazione del metro sulla base della definizione c0 = 299 792 458 m/s. Il cambio della definizione del metro del 1983 ebbe una serie di conseguenze, positive e negative. Fece felici gli astronomi e i fisici, perché mise fine al mutare del valore della velocità della luce a ogni miglioramento dei metodi per la sua misura. Diede ad alcuni grandi Istituti Nazionali di Metrologia (in particolare di USA e Regno Unito) l’opportunità di giustificare davanti all’opinione pubblica e ai finanziatori le ingenti somme spese per effettuare le misure della velocità della luce. Vedete, dissero, abbiamo speso bene i soldi ricevuti perché abbiamo contribuito in maniera sostanziale a un cambiamento epocale della struttura della definizione del metro, giovando alla scienza come fisici e astronomi possono testimoniare. Rese celebri, nella ristrettissima comunità degli specialisti degli Istituti di Metrologia, quei personaggi che sostennero il cambiamento. Ma ebbe anche un costo non trascurabile: si dovettero adeguare le norme, i manuali della qualità delle aziende, i libri scolastici. Chi si trovò maggiormente in difficoltà furono gli insegnanti, in particolare quelli delle scuole inferiori, costretti a trovare parole semplici per spiegare una definizione complessa. Per le aziende non cambiò alcunché nella sostanza delle loro misure; rimasero gli stessi campioni che prima usavano, con gli stessi valori e con le stesse incertezze. Oggi nessun Istituto di Metrologia realizza il metro secondo la nuova definizione, ossia partendo dalla velocità della luce. Tutti si rifanno al metro come multiplo di una lunghezza d’onda, scelta tra le tante raccomandate dal CIPM. Per alcuni, pochi, grandi istituti è una scelta di comodità: nel laboratorio accanto sono pronti, anche se coperti di polvere, i banchi di sorgenti elettromagnetiche necessari per realizzare la scala di frequenza indispensabile per passare dalla velocità della luce al metro. Altri istituti di Nazioni meno ricche e meno scientificamente avanzate dipendono dalle raccomandazioni del CIPM sulle lunghezze d’onda, le quali possono essere propo-

conseguenza del neocolonialismo scientifico e tecnologico.

CONCLUSIONI

Il giochetto proposto delle sette definizioni di valori delle costanti naturali è l’estensione del giochetto eseguito nel 1983 con il metro e il secondo. È solo molto più complesso, più difficile da spiegare e da comprendere. A conclusione dell’analisi azzardo una previsione: la decisione verrà rimandata di quattro anni, per dar tempo ad altri personaggi e istituti metrologici di salire sul carro della fama e dei benefici. NOTE 1

Una proposta del tutto simile fu avanzata, durante un congresso nel lontano 1900, da Max Planck. 2 Chi desidera saperne di più sulla storia degli esperimenti per la misura della velocità della luce e sui risultati ottenuti può leggere la breve e chiara sintesi di Giovanni Battista Gualdi, Misurare la velocità della luce: http://ulisse.sissa.it/ chiediAUlisse/domanda/2004/Ucau04 1206d001. Utile per approfondire ulteriormente la nota di Carlotta Forni: La storia della velocità della luce. Scritta nel 2005, la nota contiene però un errore che i lettori di questo libro dovrebbero essere in grado d’individuare: http://ulisse.sissa.it/chiediAUlisse/ domanda/2005/Ucau050127d002. 3 Si pone il problema di come fare a verificare se la velocità della luce cambia, ad esempio al cambiare della lunghezza d’onda della radiazione elettromagnetica, visto che le unità di misura sono generate supponendola costante. Ma questo è un problema complesso e forse di scarso interesse pratico.

Sergio Sartori si è laureato nel 1961 in Ingegneria Elettronica al Politecnico di Torino. Dal 1963 è stato dipendente e dirigente del CNR. Dal 1989 a oggi è membro del CIRP (International Academy for Production Engineering). Dal 1994 al 1996 fondatore e Presidente del Gruppo Italiano di Studio sulle Macchine di Misura a Coordinate (denominato CMM_Club). Dall’ottobre del 1995 al dicembre 1998 Direttore dell’Istituto di Metrologia “G. Colonnetti” del CNR. Dal 1999 al 2009 è stato Direttore Responsabile della Rivista “Tutto_Misure”. È autore di oltre 140 pubblicazioni e di due libri in molteplici settori della scienza e della tecnologia.


GLI ALTRI TEMI

MISURE PER IL FOTOVOLTAICO Edoardo Fiorucci, Giovanni Bucci, Fabrizio Ciancetta

Collaudo d’impianti fotovoltaici di media e grande taglia: un caso specifico

TESTING OF MEDIUM AND LARGE-SIZED PHOTOVOLTAIC PLANTS: APPLICATION TO A CASE STUDY Acceptance testing of medium and large-sized photovoltaic (PV) plants requires functional tests to verify the proper functionality and energy efficiency. A final certificate ensures the compliance with the technical requirements, as required by the Italian “Conto Energia” program. Tests must be conducted according to several technical norms. The paper describes a measurement system, implemented for testing medium-sized PV plants. A case-study related to the test of an 842 kW plant is reported. RIASSUNTO Il collaudo d’impianti fotovoltaici di media e grande taglia prevede verifiche inerenti al corretto funzionamento e l’efficienza energetica; termina con il rilascio di una dichiarazione, obbligatoria per accedere alle tariffe del “Conto Energia”. Le norme specificano in modo puntuale le prestazioni della strumentazione da utilizzare. Nell’articolo è descritta la strumentazione realizzata per il collaudo d’impianti di media taglia, riportando alcuni risultati inerenti a un impianto da 842 kW.

IL COLLAUDO DEGLI IMPIANTI FOTOVOLTAICI

La prima fase del collaudo prevede la verifica che l’impianto presenti (i) la continuità elettrica e la corretta connessione tra i moduli fotovoltaici; (ii) la corretta messa a terra di masse e scaricatori; (iii) l’isolamento dei circuiti elettrici dalle masse (resistenza d’isolamento dell’impianto adeguata ai valori prescritti dalla CEI 64-8/6); (iv) il corretto funzionamento dell’impianto con diversi valori di potenza generata e modalità operative (accensione, spegnimento, mancanza della rete del distributore, ecc.), in ottemperanza a quanto previsto dalla normativa vigente e, in particolare, da quella specificata dal DM 19 febbraio 2007 e successive modifiche e integrazioni. Le norme riguardanti gli impianti fotovoltaici sono numerose e affrontano differenti aspetti [1-5]. Quella di maggior rilevanza è la CEI 82-25: “Guida alla realizzazione di sistemi di generazione fotovoltaica collegati alle reti elettriche di media e bassa tensione” [1]. Essa

poraneità delle misure, ossia il rilievo simultaneo di tutte le grandezze in esame. Questo requisito è vincolante nella scelta dell’architettura e delle caratteristiche del SAD. La presenza della distorsione armonica di tensioni e correnti richiede opportune bande passanti per i trasduttori e frequenze di campionamento del SAD. Per redigere il certificato di collaudo dell’impianto è necessario misurarne l’efficienza, in quanto esso dev’essere realizzato con componenti che garantiscano valori minimi delle efficienze dei moduli fotovoltaici a) e dei convertitori di potenza b): (1) a) Pcc > 0,85 * Pnom * I/Istc, dove Pcc è la potenza in corrente continua misurata all’uscita del generatore fotovoltaico, Pnom è la potenza nominale del generatore fotovoltaico; I è l’irraggiamento in [W/m2] misurato sul piano dei moduli, Istc è l’irraggiamento in condizioni di prova standard, pari a 1.000 W/m2. b) Pca > 0,9 * Pcc (2) dove Pca è la potenza attiva in corrente alternata misurata all’uscita del gruppo di conversione DC/AC. La misura della potenza Pcc e della potenza Pca dev’essere eseguita in condizioni d’irraggiamento sul piano dei moduli I superiore a 600 W/m2. Qualora nel corso di detta misura sia rilevata una temperatura di lavoro dei moduli, misurata sulla superficie posteriore, superiore a 40 °C, è ammessa la correzione in temperatura della potenza stessa. In questo caso la condizione a) precedente diventa:

prescrive che, per la verifica dell’efficienza dell’intero sistema, siano misurati: (i) l’irraggiamento solare sul piano dei pannelli; (ii) la temperatura dell’ambiente (all’ombra); (iii) la temperatura dei moduli; (iv) le tensioni DC all’uscita dai moduli; (v) la corrente totale DC all’uscita dei moduli; (vi) la tensione AC lato inverter; (vii) la corrente AC all’uscita dell’inverter; (viii) la potenza attiva generata; (ix) l’energia elettrica immessa nella rete. La precisione delle misurazioni, riferita alla catena di misura completa (trasduttori inclusi), è previsto che debba essere migliore o uguale al 5% per l’irraggiamento solare, all’1% per la temperatura ambiente e del modulo e al 2% per i segnali di tensione, corrente e potenza. Ulteriori importanti requisiti sono dettati dalla CEI EN 61724: “Rilievo delle prestazioni dei sistemi fotovoltaici – Linee guida per la misura, lo scambio e l’a- edoardo.fiorucci@univaq/it Lavoro presentato al XXV Convegno annuale nalisi dei dati” [2], nella quale sono del Gruppo Misure Elettriche ed Elettroniche – specificate le caratteristiche dei sistemi Monopoli (BA), 3-5 settembre 2012. di acquisizione dati (SAD) utilizzabili Gli autori afferiscono al Dipartimento nel processo di misura. Un importante di Ingegneria Industriale, dell’Informazione e di Economia dell’Università dell’Aquila parametro richiesto riguarda la contem-

T_M

N.

4/12 ƒ 273


N. 04ƒ ; 2012 a’) Pcc > (1 -Ptpv - 0,08) * Pnom * I/Istc (3) dove Ptpv indica le perdite termiche del generatore fotovoltaico (desunte dalle specifiche dei moduli), mentre tutte le altre perdite del generatore stesso sono tipicamente assunte pari all’8%. Nel collaudo d’impianti di media e grande taglia entrano in gioco problematiche inerenti l’estensione dell’impianto, con la difficoltà di garantire l’uniformità del valore di I per tutto l’impianto, e l’intensità delle grandezze, quali le correnti lato DC e AC, che possono essere dell’ordine del kA, rendendo difficile la loro trasduzione. LE CARATTERISTICHE DELL’IMPIANTO OGGETTO DEL COLLAUDO

ENERGETICA Italia, in collaborazione con GREEN ENGINEERING di Vasto (CH), ha realizzato un impianto fotovoltaico di potenza 842 kWp nel Comune di Cupello (CH). I docenti e i ricercatori dell’Unità GMEE dell’Università dell’Aquila sono stati incaricati di sviluppare un sistema automatico di misura di elevate prestazioni in grado di eseguire la caratterizzazione dell’impianto, con particolare attenzione alla misurazione della distorsione armonica e alla verifica dell’efficienza energetica, in accordo con la normativa vigente. L’impianto (Fig. 1) ha una potenza complessiva è di 842 kWp ed è connesso alla rete di distribuzione dell’energia elettrica locale secondo il regime di cessione pura dell’energia. Una linea a 20 kV trasmette l’energia prodotta e immessa dalla cabina di consegna, realizzata nei pressi dell’impianto. Dal punto di vista visivo gli elementi principali dell’impianto sono: il campo di moduli fotovoltaici, diviso in due sottocampi; la cabina di conversione DC/AC e di trasformazione BT/MT, posta nella zona centrale dell’impianto,

Figura 1 – Layout dell’impianto fotovoltaico “Cupello 1”


N. 04ƒ ;2012 IL SISTEMA AUTOMATICO DI MISURA SVILUPPATO

Come accennato, la normativa pone precise prescrizioni soprattutto per quanto concerne la simultaneità delle misure e l’incertezza complessiva. In commercio sono disponibili diversi strumenti, ma le loro prestazioni non sempre sono in linea con quanto atteso. Da verifiche sperimentali eseguite in laboratorio appare spesso disatteso quanto prescritto per la simultaneità delle misure e la frequenza di campionamento. L’uso di multiplexer, o di trasduttori e convertitori AD/DC con tempi di risposta elevati, può ridurre la banda passante del sistema e introdurre uno sfasamento tra il segnale di tensione e quello di corrente, con conseguenti errori nella misura dell’efficienza dell’impianto. Per questi motivi si è deciso di realizzare uno strumento in grado di eseguire le misure garantendo la piena corrispondenza con la normativa. Altro vantaggio di questa scelta è quello di

avere un sistema aperto, con la possibilità di eseguire la misura di altri parametri, oltre a quelli richiesti. Il sistema di misura sviluppato si basa su un’unità d’acquisizione dati multicanale Agilent, costituita da: (i) 1 chassis Agilent U2781A, (ii) 5 schede U2542A DAQ e (iii) 5 “terminal block and SCSI-II 68-pin connector“ U2902A. Il sistema consente il campionamento simultaneo di 20 canali analogici, con una risoluzione di 16 bit, e frequenza di campionamento fino a 500 kSample/s. Con la frequenza di campionamento scelta, pari a 20.480 Sample/s, sono stati acquisiti intervalli di 200 ms, in accordo con la norma IEC 61000-4-7 [6]. I segnali d’interesse sono stati trasdotti con: 1. tensione DC: 1 LEM CV 3-1.000; 2. corrente DC: 1 LEM LF 2005-S; 3. tensioni AC: 3 LEM CV 3-500; 4. correnti AC: 6 LEM LF 2005-S; 5. irraggiamento: solarimetro digitale Sunmeter, 0-1.250 W/m2, compensato in temperatura; 6. temperatura dell’aria e dei pannelli: 4 termocoppie di tipo J con moduli di condizionamento. Si è scelto di utilizzare coppie di trasduttori di corrente in parallelo sulle sbarre AC, a causa delle loro dimensioni. Le prestazioni del sistema sono state verificate con il Fluke 6100A Power Standard. Le incertezze delle singole misurazioni sono le seguenti: (i) misurazione della tensione in DC: ±0,2%, (ii) misurazione della tensione in AC: ±0,2%; (iii) misurazione della corrente in DC: ± 0,3%; (iv) misurazione della corrente in AC: ±0,3%; (v) misurazione della potenza in DC: ±0,5%; (vi) misurazione della potenza in AC: ±0,5%; (vii) misurazione dell’irraggia-

e la cabina di consegna ENEL, posta nella parte superiore dell’impianto. Dal punto di vista elettrico gli elementi principali sono: i due sottocampi di moduli fotovoltaici, due convertitori statici da corrente continua a corrente alternata (inverter) e infine un trasformatore d’innalzamento della tensione BT/MT. Fanno parte dell’impianto anche (i) i cavi elettrici (interrati) d’interconnessione per la trasmissione della potenza elettrica dal campo alla cabina di conversione e da questa a quella di consegna, (ii) i dispositivi di protezione e sezionamento, (iii) il sistema di messa a terra, e (iv) un sistema per i servizi ausiliari. I moduli fotovoltaici in silicio policristallino, prodotti da ENERGETICA, sono del tipo E2000/220, con Pmax = 220 W a 1000 W/m2. L’impianto ha, nel suo complesso, 3.828 moduli. Ognuno dei due sottocampi è costituito da 87 stringhe in parallelo, ognuna costituita da 22 moduli fotovoltaici. Ogni sottocampo è connesso a un inverter distinto, un ABB PVS 800 da 500 kW, che include anche un insieme di altri componenti, quali filtri e dispositivi di sezionamento e controllo.

GLI ALTRI TEMI

mento: ±3%; (viii) misurazione della temperatura dell’aria: ±1%; (ix) misurazione dell’umidità relativa dell’aria: ±2%; (x) misurazione della temperatura dei moduli fotovoltaici: ±1%. In Fig. 2 è riportato lo schema del sistema automatico di misura collegato a uno dei due inverter. Il software di gestione, misura ed elaborazione è stato realizzato in ambiente National Instruments LabVIEW™, ed è stato installato su un PC portatile connesso via USB con l’unità di acquisizione Agilent. Il sistema è in grado di definire e configurare i parametri di esecuzione delle prove, acquisire le grandezze, elaborare le forme d’onda di potenza istantanea, determinare i parametri di potenza e di efficienza, fornire il risultato della verifica di efficienza in accordo con [1], determinare il contenuto armonico di tensioni e correnti, memorizzare i dati. Nelle Figg. 3-5 sono riportati alcuni risultati ottenuti, che permettono di valutare le prestazioni dell’impianto. I dati si riferiscono alla verifica di efficienza dell’Inverter 1, con i seguenti valori di grandezze ambientali: irraggiamento 933 W/m2, tensione lato DC 545,4 V, corrente lato DC 683,1 A, potenza lato DC 372,58 kW, temperatura dell’aria 30,2 °C, temperatura media dei pannelli 38,4 °C, umidità relativa dell’aria 46%.

RIFERIMENTI BIBLIOGRAFICI 1. Guida CEI 82-25: “Guida alla realizzazione di sistemi di generazione fotovoltaica collegati alle reti elettriche di Media e Bassa Tensione”, 2011. 2. CEI EN 61724: “Rilievo delle prestazioni dei sistemi fotovoltaici – Linee guida per la misura, lo scambio e l’analisi dei dati”, 1999.

Figura 2 – Connessione del sistema di misura all’impianto


N. 04 01ƒ ; 2012

Figura 3 – Andamento delle potenze istantanee acquisite all’uscita dall’Inverter 1

3. CEI EN 60904-1(CEI 82-1): “Dispositivi fotovoltaici – Parte 1: misura delle caratteristiche fotovoltaiche tensione-corrente”, 2008. 4. CEI EN 60904-2 (CEI 82-2): “Dispositivi fotovoltaici – Parte 2: prescrizione per le celle fotovoltaiche di riferimento”, 2009. 5. CEI EN 60904-3 (CEI 82-3): “Dispositivi fotovoltaici – Parte 3: principi di misura per sistemi solari fotovoltaici per uso terrestre e irraggiamento spettrale di riferimento”, 2009. 6. IEC 61000-4-7 (CEI 210-70): “Tecniche di prova e misura – Guida generale per le misure di armoniche e interarmoniche e relativa strumentazione, applicabile alle reti di alimentazione e agli apparecchi a esse connessi”, 2010.

Edoardo Fiorucci è professore aggregato di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Industriale, dell’Informazione e di Economia dell’Università dell’Aquila. Si occupa di strumentazione basata su PC, sistemi di misura per la valutazione della qualità dell’alimentazione elettrica, sistemi per il test e il collaudo automatico di macchine elettriche, sensori smart per applicazioni di misura distribuita.

Figura 4 – Andamento delle correnti di linea acquisite all’uscita dall’Inverter 1

Figura 5 – Tensioni di fase acquisite all’uscita dall’Inverter 1

T_M ƒ 276

Giovanni Bucci è professore ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Industriale, dell’Informazione e di Economia dell’Università dell’Aquila. Si occupa di strumentazione basata su PC, misure di potenza in regime deformato, sistemi di misura per la valutazione della qualità dell’alimentazione elettrica, sistemi di misura multiprocessore, algoritmi digitali per strumentazione di misura in Real-Time. Fabrizio Ciancetta è assegnista di ricerca presso il Dipartimento di Ingegneria Industriale, dell’Informazione e di Economia dell’Università dell’Aquila. Si occupa di strumentazione basata su PC, sensori smart per applicazioni di misura distribuita, sistemi di misura per la valutazione della qualità dell’alimentazione elettrica, algoritmi digitali per strumentazione di misura in Real-Time.


CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

LA COMPATIBILITÀ ELETTROMAGNETICA Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3

Strumentazione di base nelle misure di CE La rete artificiale per la misura dei disturbi condotti

laboratorio-prove si realizza una linea dedicata, di lunghezza e tipo di cavo concordati, priva di carichi dal secondario del trasformatore che lo alimenta alla presa dedicata alle prove, oppure s’impiega una rete a costanti concentrate normalizzata da interporre fra la presa e RIASSUNTO l’EUT. La seconda scelta è quella, ovviaLa rete artificiale è una delle apparecchiature ausiliarie fondamentali nelle mente, più conveniente e si chiama rete misure di compatibilità elettromagnetica. S’illustrano qui le ragioni dell’imdi alimentazione artificiale (“artificial portanza dell’impiego delle reti artificiali, si descrive la loro struttura e si mains network”, AMN) oppure rete di accenna all’incertezza di misura. stabilizzazione dell’impedenza di linea (“line impedance stabilization network”, LE MISURE Se si misurano i disturbi generati da LISN). Nel prossimo paragrafo analizzeDI DISTURBI CONDOTTI uno stesso apparato in laboratori di- remo questo dispositivo. versi, si devono ottenere risultati di miLa misura dei disturbi condotti (tensio- sura ragionevolmente simili. Il punto è ne e corrente) generati da un appa- che la tensione e la corrente di disturbo COME FUNZIONA E COME È FATTA recchio in prova (EUT) è generalmen- che l’EUT inietta nella rete di alimenta- UNA RETE ARTIFICIALE te eseguita misurando la tensione zione dipendono dall’impedenza a oppure la corrente di disturbo che radiofrequenza della rete di alimenta- Una rete artificiale deve svolgere le l’EUT inietta nella rete di alimentazio- zione stessa, e questa impedenza è seguenti funzioni (vedi Fig. 1): ne, attraverso l’impiego di un filtro molto diversa da laboratorio a labora- 1. Mostrare all’EUT un’impedenza passa-alto che elimina il segnale di torio (e da presa a presa all’interno di normalizzata. L’impedenza normalizalimentazione. Ad esempio, una son- uno stesso laboratorio!). L’impedenza zata sarà un valore rappresentativo da di corrente a trasformatore (vedi a radiofrequenza della rete di alimen- della realtà. Abbiamo accennato soT_M n. 3/2006 e n. 1/2007) con fre- tazione dipende, infatti, da una serie pra allo studio [3] che fornisce indiquenza d’angolo inferiore pari a di fattori fra cui, particolarmente impor- cazioni circa l’andamento e il valore 9 kHz (il limite inferiore convenziona- tante, l’impedenza e la posizione degli dell’impedenza media al variare della le per la misura dei disturbi condotti) utilizzatori rispetto alla presa osserva- frequenza. Altre indicazioni sono otteconsente di misurare le correnti di di- ta. Uno studio condotto da IBM oltre nute da considerazioni elementari sulsturbo a radiofrequenza prodotte dal- 30 anni fa [3] mostrò che l’impedenza l’impedenza a radiofrequenza di un l’EUT attenuando di circa 45 dB la media ha un andamento crescente cavo per energia. Essa sarà dominata corrente di alimentazione a 50 Hz. dalla decina di kilohertz a qualche dall’induttanza, perlomeno per le freUna sonda di tensione passa-alto per Megahertz, per poi divenire quasi indi- quenze per cui vale una descrizione a la misura dei disturbi condotti è defi- pendente dalla frequenza (e assumere costanti concentrate. Un valore di nita nel §5.2 di [1]. Per la misura dei un valore attorno a 90 Ω) fino a 1 µH/m è plausibile, così come una disturbi impulsivi con oscilloscopio 30 MHz. La variabilità dell’impedenza lunghezza di cavo di alcune decine di (cioè nel dominio del tempo) è utile di- attorno alla media è risultata essere metri. In alta frequenza (costanti disporre di una sonda che combina, ol- notevole: circa 20 dB (un fattore dieci stribuite) si può assumere un valore tre a un filtro passa-alto, anche un fil- in termini di rapporto fra massimo e costante e pari all’impedenza carattetro a tacca (“notch”) che produce una minimo) in tutto l’intervallo di frequenforte reiezione della componente a za considerato. 1 Dip. Elettronica e Telecomunicazioni, 50 Hz. Una realizzazione di tale Ecco allora che per garantire una buona sonda con reiezione migliore di 90 dB riproducibilità delle misure occorre far sì 2 Università di Firenze Ricerca e Sviluppo, Esaote spa, è descritta in [2]. che l’EUT veda un’impedenza a radioFirenze Nelle precedenti considerazioni si è frequenza normalizzata guardando 3 Elettroingegneria, Pistoia trascurato un aspetto fondamentale verso l’alimentazione. Ciò può essere delle prove, cioè la loro riproducibilità. realizzato in due modi: o in ciascun marco.cati@esaote.com THE ARTIFICIAL MAINS NETWORK The artificial mains network is one of the fundamental ancillary equipment used in electromagnetic compatibility measurements. Here we recall why the artificial mains network is so important, we analyze its structure and operation and we approach the issue of measurement uncertainty.

T_M

N.

4/12 ƒ 277


ristica (alcune decine di Ohm). Non ci stupiremo quindi che l’impedenza normalizzata della rete artificiale sia 50 Ω in parallelo a 50 µH (vedi [1]). Come non ci stupiremo che l’impedenza normalizzata sia 50 Ω in parallelo a 5 µH per le reti artificiali destinate all’impiego per prove nel settore automobilistico (vedi ad esempio il §5.1 di [4]), poiché la lunghezza di cavo dalla batteria alle apparecchiature elettroniche a bordo di un veicolo sarà certamente inferiore rispetto a quella di un impianto elettrico;

Figura 1 – Schema di principio di una rete artificiale

2. Accoppiare l’EUT a un ricevitore (o analizzatore di spettro) per la misura della tensione di disturbo a radiofrequenza; 3. Accoppiare l’EUT alla rete di alimentazione alla frequenza di rete. L’EUT deve, infatti, funzionare e quindi essere alimentato! 4. Disaccoppiare l’EUT dalla rete di alimentazione a radiofrequenza. In altre parole i disturbi che l’EUT genera non devono raggiungere la rete di alimentazione; 5. Disaccoppiare la rete di alimentazione dal ricevitore a radiofrequenza. Il ricevitore, infatti, deve misurare i disturbi a radiofrequenza generati

Figura 2 – Schema circuitale di una rete artificiale per impiego da 9 kHz a 30 MHz

T_M ƒ 278

N. 04ƒ ; 2012

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

dall’EUT, ma non quelli (inevitabilmente) presenti nella rete di alimentazione; 6. Proteggere l’ingresso del ricevitore dalla tensione di alimentazione. Lo schema circuitale di una rete artificiale per impiego da 9 kHz a 30 MHz è in Fig. 2 [vedi 1]. G è il terminale di massa. Alla frequenza di rete le induttanze sono cortocircuiti, mentre le capacità sono circuiti aperti: quindi l’EUT è direttamente connesso all’alimentazione. I disturbi a radiofrequenza che si originano dalla rete di alimentazione sono attenuati prima di raggiungere l’ingresso del ricevitore grazie all’azione del filtro passabasso formato da C2 = 4 µF, R2 = 10 Ω, L1 = 250 µH, C1 = 8 µF, R1 = 5 Ω e L = 50 µH. Lo stesso filtro passa-basso impedisce ai disturbi generati dall’EUT di raggiungere la rete di alimentazione. Il filtro passaalto formato dalla capacità C = 250 nF e dalla resistenza d’ingresso del ricevitore, R = 50 Ω, limita l’ampiezza della tensione di rete all’ingresso del ricevitore a un valore non dannoso1 e tale da limitare il rischio di sovraccarico del ricevitore. Allo stesso tempo la capacità C connette l’EUT al ricevitore a radiofrequenza2. Infine l’impedenza a radiofrequenza vista dall’EUT guardando nei terminali della rete artificiale è dominata dal parallelo fra la resistenza d’ingresso del ricevitore, R, e la serie di R1 e L, cioè 50 Ω in parallelo a 50 µH in serie a 5 Ω3, che è il valore normalizzato dell’impedenza della rete artificiale. A titolo esemplificativo nelle Figg. 3 e 4 sono mostrati rispettivamente gli andamenti del modulo e della fase dell’impedenza vista dall’EUT quando i terminali L-E (vedi Fig. 2) sono cortocircuitati (linea magenta) e quando i terminali L-E sono in circuito aperto (linea blu). Nelle stesse figure sono mostrate con le linee nere gli andamenti dell’impedenza normalizzata assieme alla tolleranza ammessa 4 (vedi paragrafo successivo) sull’ampiezza (±20%) e sulla fase (±11,5°) e con le linee rosse i limiti d’impiego a 9 kHz a 30 MHz.

Figura 3 – Modulo impedenza vista dall’EUT. Terminali L-E lato alimentazione (vedi Fig. 2) cortocircuitati (linea magenta) oppure in circuito aperto (linea blu). Linee nere: tolleranza del 20 % sul modulo dell’impedenza normalizzata. Linee rosse: limiti d’impiego a 9 kHz e 30 MHz

Figura 4 – Fase impedenza vista dall’EUT. Terminali L-E lato alimentazione (vedi Fig. 2) cortocircuitati (linea magenta) oppure in circuito aperto (linea blu). Linee nere: tolleranza di 11,5° sulla fase dell’impedenza normalizzata. Linee rosse: limiti d’impiego a 9 kHz e 30 MHz

Per le misure di disturbi nella gamma di frequenza compresa fra 150 kHz e 30 MHz è impiegata una rete semplificata. Tale rete non include la sezione di filtraggio formata da C2, R2 e L1 dal momento che l’induttanza L e la capacità C1 offrono un adeguato isolamento in questo intervallo di frequenza. Seguendo lo stesso ragionamento C1 è ridotta da 8 a 1 µF, la resistenza R1 è sostituita da un corto-circuito poiché la sua impedenza è trascurabile rispetto all’impedenza dell’induttore L. Infine la capacità C è ridotta da 250 a 100 nF poiché quest’ultimo valore accoppia adeguatamente il disturbo generato dall’EUT al ricevitore riducendo ulteriormente la tensione di rete all’ingresso del ricevitore.


N. 04ƒ ;2012 RIPRODUCIBILITÀ

La principale causa di non riproducibilità delle misure di tensione di disturbo è l’imperfetta realizzazione dell’impedenza normalizzata. Sono fissate tolleranze sull’ampiezza e sulla fase della rete artificiale che sono 20% sull’ampiezza e 11,5° sulla fase. Tali tolleranze sono state stabilite usando il concetto del cerchio di tolleranza in Fig. 5. Se Z è il valore complesso dell’impedenza normalizzata e δZ = 0,2|Z| allora θ = arcsin(0,2) = 11,5°. Tutti i valori d’impedenza complessa all’interno del cerchio di Fig. 5 sono conformi alla specifica sulla tolleranza dell’impedenza. Il requisito sull’impedenza dev’essere soddisfatto con la porta di alimentazione sia aperta sia cortocircuitata.

A causa del valore di capacità elevato dei condensatori C1 e C2 le correnti che scorrono verso terra superano i 30 mA, quindi è necessario che per la sicurezza dell’operatore l’involucro metallico della rete artificiale sia ben collegato alla terra di riferimento e che la rete artificiale sia alimentata attraverso un trasformatore d’isolamento, al fine di evitare l’intervento di un eventuale interruttore differenziale posto a monte dell’impianto. Inoltre il resistore Rb = 1.000 Ω ha il compito di scaricare l’energia immagazzinata nelle capacità una volta che la rete artificiale sia disconnessa dalla rete di alimentazione. Nelle prove ogni linea che alimenta l’EUT sarà connessa a una rete come quella in Fig. 2 (ad esempio sono usate tre reti artificiali per le prove su un EUT trifase o quattro reti se è presente anche il neutro). Le misure di disturbo sono eseguite connettendo il ricevitore a ciascuna rete alla volta mentre le altre reti sono terminate su una resistenza di 50 Ω. Le reti artificiali commerciali possono includere fino a quattro reti con un commutatore che permette di selezionare la linea alla quale connettere il ricevitore, e di terminare le altre su 50 Ω.

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

induttore non deve deviare eccessivamente dal suo comportamento ideale in tutto l’intervallo di frequenza d’impiego della rete artificiale). Un induttore speciale per questa particolare applicazione è descritto nell’annesso A di [1].

Figura 5 – Rappresentazione del cerchio di tolleranza sull’impedenza della rete artificiale

Qual è l’incertezza associata all’imperfezione nella realizzazione dell’impedenza della rete artificiale. Si può dimostrare (vedi [5]) che tale incertezza (in termini di 1 scarto tipo e in dB) è: u=

 1 − ( ρro ) 2   8, 686  1 ⋅ in  − 1 2 r ρ ( ) 2  1 − 2( ρro ) 2    o

1/ 2

,

(1)

dove ρ è pari a δZ/|Z|, e ro =

1 2cos(arg {Z n } )

(2)

Zn è il valore normalizzato dell’impedenza complessa ed è tabulato in [6] (ampiezza e fase). Il valore più alto dell’incertezza u data dalla (1) si ha quando la fase di Zn è massima. Ad esempio per la rete artificiale di Fig. 2 la fase di Zn è massima a 60 kHz e vale 56,4° (vedi Tab. 3 di [6]) per cui ro = 0,904. Sostituendo ro nella (1) e assumendo ρ = 0,2 si trova u = 1,40 dB. Nessuna correzione deve essere applicata alle misure per questa causa d’imperfezione (vedi ancora [5]). L’induttanza L è il componente più critico della rete artificiale, poiché è interessato allo stesso tempo sia dal flusso della corrente che alimenta l’EUT (che può essere anche di grande valore, ad esempio 100 A) sia dalla corrente di disturbo a radiofrequenza (per cui tale

RIFERIMENTI BIBLIOGRAFICI

1. CISPR 16-1-2:2003, “Specification for radio disturbance and immunity measuring apparatus and methods, Part 1-2: Radio disturbance and immunity measuring apparatus – Ancillary equipment – Conducted disturbances”. 2. L. M. Millanta, and M. M. Forti, “A Notch-Filter Network for WideBand Measurements of Transient Voltages on the Power Line,” IEEE Transactions on Electromagnetic Compatibility, vol. 31, no. 3, pp. 245-253, Aug. 1989. 3. John A. Malack, and John R. Engstrom, “RF Impedance of United States and European Power Lines,” IEEE Transactions on Electromagnetic Compatibility, vol. 18, no. 1, pp. 36-38, Feb. 1976. 4. ISO 7637-2:2011, “Road vehicles – Electrical disturbances from conduction and coupling – Part 2: Electrical transient conduction along supply lines only”. 5. Carlo F. M. Carobbi and Manfred Stecher, “The Effect of the Imperfect Realization of the Artificial Mains Network Impedance on the Reproducibility of Conducted Emission Measurements,” IEEE Transactions on Electromagnetic Compatibility, vol. 54, no. 5, pp. 986-997, Oct. 2012. 6. CISPR 16-1-2:2003/A2:2006, “Specification for radio disturbance and immunity measuring apparatus and methods, Part 1-2: Radio disturbance and immunity measuring apparatus – Ancillary equipment – Conducted disturbances”.

T_M ƒ 279


N. 04ƒ ; 2012

NOTE 1

Un attenuatore esterno può precedere l’ingresso del ricevitore per maggior protezione. 2 Specie alle frequenze più basse occorrerà tener conto del fatto che C non ha un’impedenza trascurabile rispetto a 50 Ω per cui il rapporto di partizione della tensione sarà apprezzabilmente inferiore a uno e occorrerà tenerne conto attraverso un’apposita taratura. 3 Non è insolito trovare la notazione 50 Ω//(50 µH + 5 Ω). 4 Il requisito sull’impedenza deve essere soddisfatto con la porta di alimentazione sia aperta sia cortocircuitata.

Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994 presso l’Università di Firenze. Dal 2000 è Dottore di Ricerca in “Telematica”. Dal 2001 è ricercatore presso il Dipartimento di Elettronica e Telecomunicazioni dell’Università di Firenze dove è docente di Misure Elettroniche e di Compatibilità Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente del SC 210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI.

Marco Cati si è laureato con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2005 è Dottore di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica. Dal 2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di Compatibilità Elettromagnetica su dispositivi ecografici. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. Svolge attività di consulente nel campo della compatibilità elettromagnetica e della sicurezza elettrica.

Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze È Dottore di Ricerca in “Controlli non distruttivi”. Dal 1988 è insegnante di Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e Professionali. Come libero professionista svolge attività di consulenza nel campo della compatibilità elettromagnetica e della sicurezza elettrica.

T_M ƒ 280


VISIONE ARTIFICIALE

A cura di Giovanna Sansoni (giovanna.sansoni@ing.unibs.it)

Smart Cameras distribuite

DISTRIBUTED SMART CAMERAS The section on Artificial Vision is intended to be a “forum” for Tutto_Misure readers who wish to explore the world of components, systems, solutions for industrial vision and their applications (automation, robotics, food&beverage, quality control, biomedical). Write to Giovanna Sansoni and stimulate discussion on your favorite topics. RIASSUNTO La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e sottoponetele argomenti e stimoli. L’aeroporto internazionale Hartsfield-Jackson di Atlanta ha 179 gate distribuiti su una superficie di circa cinquantatré ettari. Anche con una sola telecamera per gate si arriva a un totale di 180 telecamere, le cui immagini devono essere trasmesse ed elaborate dal sistema di controllo della sorveglianza. Volendo avere informazioni utili su quanto accade a ciascun gate servono almeno alcune telecamere per ciascuno di essi. Il sistema di sorveglianza deve poi essere esteso a molte altre aree della stazione aeroportuale, quali ad esempio le piste di decollo e di atterraggio, il deposito bagagli, le aree di check-in e quelle di parcheggio. Le telecamere sono distribuite su un’area molto vasta, il che rende sensato prevedere che almeno parte dell’elaborazione delle immagini sia fatta localmente, a bordo di ciascuna telecamera. L’elaborazione, a sua volta, richiederà parecchio lavoro, considerando che, per quanto di dimensioni ridotte, le immagini sono formate (al minimo) da alcune migliaia di byte, che il campo inquadrato è per sua natura dinamico e soggetto a occlusio-

ni e che l’informazione alla quale si è interessati è di tipo complesso. Infatti, nella maggioranza dei casi, non si tratta semplicemente di determinare la presenza o l’assenza di un oggetto, ma di riconoscere una situazione, identificare e tracciare (tracking) un individuo, stimare la probabilità di un evento o valutare grandezze macroscopiche (quali il traffico passeggeri), che richiedono operazioni di segmentazione e conteggio non banali. La trasmissione delle informazioni costituisce un aspetto di estrema complessità. La prima domanda che sorge è “a chi o a che cosa trasmettere?”. A un supervisore centrale basato su una logica client-server? A un sistema con una struttura gerarchica? A un sistema con una struttura ad albero? La seconda domanda è “quanto costa?”. Le voci di spesa sono molte: vi sono i singoli nodi, che acquisiscono le immagini e hanno costi diversi a seconda che siano oppure no in grado di eseguire operazioni di “alleggerimento” quali la compressione dei video; vi è il costo del sistema d’interconnessione (la rete), che deve garantire una larghezza di banda adeguata; vi è il costo delle memorie, sia per l’elaborazione sia per lo stoccaggio delle informazioni, e il costo dei processori. Vi è

T_M

anche il costo derivante dal consumo di energia che la trasmissione sul sistema rete comporta. Non è inusuale che esso sia fra 100 e 1.000 volte più grande di quello dei sistemi di elaborazione. Strettamente legato a questo vi sono dunque il costo della rete di distribuzione di energia e il problema della dissipazione del calore. La terza domanda è “come veicolare le informazioni prodotte da ciascun nodo?”. Si profila, infatti, una struttura a sistema distribuito, nel quale ciascun nodo non ha conoscenza diretta dello stato degli altri nodi, se non attraverso messaggi. Poiché questi hanno costi non trascurabili, non è realistico prevedere che tutte le telecamere possano comunicare fra loro a coppie; pertanto la logica di transito delle informazioni dovrà poter utilizzare algoritmi che minimizzino il numero di messaggi e propaghino le informazioni lungo percorsi intelligenti (ad esempio. caratterizzati da un numero minimo di nodi), in modo da utilizzare la banda disponibile in modo efficiente. La quarta domanda è “come garantire che le informazioni arrivino in tempo?”. Quest’aspetto è di estrema importanza quando si vuole che il sistema operi in modo efficace, e apre la porta a problematiche legate ai tempi di latenza nel recapito delle informazioni. La trasmissione real-time diventa quindi necessaria. Problematiche come quella fin qui descritta sono state affrontate dai primi anni ’80 e a tutt’oggi rientrano in ambiti di ricerca e di sviluppo di estremo interesse, che hanno portato alla realizzazione dei cosiddetti sistemi distribuiti basati su Smart Cameras (Distributed Smart Cameras: DSC) [1]. I sistemi DSC sono il risultato di una convergenza nell’avanzamento della conoscenza in aree diverse, che sono la computer vision, le tecnologie a

N.

4/12 ƒ 281


NUOVO STRUMENTO DI TRACCIATURA E MISURA

N. 04ƒ ; 2012

NEWS

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

larga scala d’integrazione (VLSI) e le tecnologie di embedded computing. Le applicazioni basate su computer vision, che prima dello sviluppo di sistemi VLSI richiedevano l’utilizzo di workstation dedicate, dati i requisiti in termini di capacità di elaborazione e di memoria, sono potute migrare su sistemi embedded, progettati per incorporare funzionalità di calcolo, memorizzazione e trasmissione, con vantaggi consistenti in termini di costo, affidabilità, scalabilità e consumo di potenza. Nei sistemi DSC le Smart Cameras costituiscono i nodi in un sistema distribuito.

Figura 1 – Struttura di una Smart Camera - Tratta da [1]

Soprattutto le aziende di dimensioni piccole e medie, come gli studi di design, le officine meccaniche o le falegnamerie, cercano strumenti di tracciatura e misura facili da usare e di costo contenuto. Il nuovo DEA TRACER manuale di Hexagon Metrology è proprio questo: una CMM manuale in grado di misurare pezzi medio-grandi. Sostituendo la testa di misura con una punta a tracciare, il multifunzionale DEA TRACER è pronto per diverse applicazioni di tracciatura. L’essenza del nuovo strumento è la semplicità: nell’installazione, nell’uso e nella manutenzione. Il sistema di tracciatura e misura di base ha una struttura a braccio orizzontale che facilita il caricamento dei pezzi, come i modelli di stile, stampi e anime per fonderia, strutture di carpenteria e particolari in lamiera. Per un’ergonomia ideale, il braccio orizzontale è sempre bilanciato e gli utenti possono posizionarlo in modo preciso senza affaticamento, anche dopo un utilizzo prolungato. La movimentazione e il blocco degli assi avvengono tramite manopole di comando e freni indipendenti per ciascun asse. Gli assi scorrono su guide lineari e cuscinetti a ricircolo di sfere che non richiedono alimentazione pneumatica. La configurazione di base di DEA TRACER comprende il braccio singolo, la testa di misura TESASTAR e il visualizzatore di quote digitale. Per estendere le possibilità di impiego del sistema, gli utenti possono scegliere tra varie opzioni: configurazione a doppio braccio, testa di misura TESASTAR-i, software di misura PC-DMIS, diversi piani di lavoro e un kit di tracciatura. La concezione aperta di questa CMM rende possibili la verifica dimensionale e la tracciatura, ad esempio nei modelli di stile o nelle fusioni in ghisa. Lo strumento è disponibile da oggi in Europa, Asia-Pacifico e Sudamerica. Per ulteriori informazioni: www.hexagonmetrology.com

T_M ƒ 282

Come schematizzato in Fig. 1, l’architettura di base di una Smart camera è composta di tre unità, che effettuano operazioni di sensing, di elaborazione e di comunicazione. L’unità di sensing utilizza sensori in tecnologia CMOS (complementary metal-oxide-semiconductor) o CCD (charge-coupled device) che costituiscono la sorgente dei dati (espressi nella forma di carica elettrica o di tensione). I dati grezzi sono organizzati in forma matriciale e convertiti in forma digitale; l’unità controlla importanti parametri quali la frequenza di acquisizione e il tempo di esposizione; inoltre al suo interno sono effettuate operazioni di pre-processing, come ad esempio quelle finalizzate al miglioramento del contrasto delle immagini e del rapporto segnale-disturbo. L’unità di elaborazione gestisce le operazioni di processamento delle immagini. In questo stadio vengono, ad esempio, eseguiti algoritmi di riconoscimento del movimento, segmentazione, tracking, riconoscimento di oggetti, in modo da fornire in uscita informazioni aggregate in tempo-reale. L’unità di trasmissione infine è dotata delle interfacce che consentono il trasferimento dei dati astratti attraverso il sistema distribuito. Tipici protocolli di trasferimento sono quelli basati su USB, Ethernet, Gigabit Ethernet e Firewire. Le funzionalità di ogni unità sono realizzate su architetture diverse, quali ad esempio piattaforme System-onChip (SoC), che utilizzano un singolo processore, o piattaforme che sfruttano logiche di parallelismo o pipeline fra processori eterogenei. Architetture basate su Field-programmable array (FPGA), e processori dedicati alle operazioni di calcolo (digital signal processors: DSP) sono tipicamente utilizzate per le funzionalità di calcolo. Il livello di astrazione dei dati dipende dall’applicazione per la quale la Smart Camera è stata progettata. Oltre alle operazioni già citate, è possibile realizzare in modo efficiente elaborazioni ad alto livello, quali quelle


N. 04ƒ ;2012

pio, per ragioni di affidabilità o per compensare gli effetti di occlusione già menzionati). Conseguentemente, è necessario che i dati aggregati prodotti da ciascuna siano condivisi, in modo da fornire informazioni a livelli di astrazione e di completezza maggiori. Lo sviluppo di protocolli di distribuzione delle informazioni in reti “collaborative” è materia molto complessa e tocca non solo aspetti di efficienza e di affidabilità, ma anche di protezione e riservatezza dei dati. L’approccio iniziale è stato quello di seguire i paradigmi basati su strutture a multi-livello realizzate in servizi così detti “middleware”, quali quelli progettati per i protocolli ISO-OSI. Tuttavia, nei sistemi DSC, questi strumenti devono essere realizzati su piattaforme embedded, che utilizzano dispositivi con risorse limitate [3]. L’attività di ricerca e sviluppo si è indirizzata negli ultimi anni nella direzione di fare propri alcuni concetti e soluzioni sviluppate per le reti di sensori wireless (Wireless Sensor Networks: WSN), specialmente per quanto riguarda gli aspetti di affidabilità e di basso consumo. Le soluzioni realizzate sono il risultato di un compromesso che tiene conto delle differenze esistenti fra i sistemi DSC e le reti WSN: ad esempio, il carico di dati da trasmettere e la capacità computazionale sono molto maggiori nei sistemi DSC rispetto ai sistemi WSN. A tutt’oggi dunque non esiste una proposta unificata in materia di protocolli middleware, ma piuttosto soluzioni ad hoc, anche molto performanti, che privilegiano aspetti differenti secondo le applicazioni di riferimento [4]. Come s’intuisce da questa breve descrizione, la materia è estremamente complessa e pone molti problemi, le cui soluzioni sono ancora lontane dall’essere definite. Tuttavia le applicazioni possibili sono tali e così rilevanti economicamente che i sistemi DSC sono considerati strategici sia a livello di ricerca sia a livello di marketing. Fra i campi applicativi più significativi vanno citati i sistemi intelligenti di sorveglianza video, nei quali l’obiettivo è l’identificazione veloce di comportamenti anomali nelle scene

tipiche di un sistema decisionale (oggetto sospetto, soggetto in zona non adeguata ecc.). Particolare importanza rivestono poi gli algoritmi di compressione video: essi si rendono necessari anche a fronte della trasmissione d’informazioni già aggregate, poiché la massa dei dati da trasmettere è molto grande e si rende necessario ottenere un ragionevole compromesso fra il requisito di bassa latenza nel recapito dei dati e la banda disponibile. Gli algoritmi di compressione video sono stati oggetto d’intenso studio a partire dall’avvento della rete Ethernet. Il lavoro svolto rende oggi una pratica comune lo scaricare filmati e podcast dalla rete; allo stesso modo, in un sistema distribuito, i nodi intelligenti sono in grado di fornire le informazioni in modo compresso, con livelli differenti e noti a priori di qualità dei dati. Le interfacce di comunicazione maggiormente adatte alla trasmissione realtime sono del tipo “wired”: lo stato dell’arte in materia di protocolli Gigabit Ethernet, Camera Link e Firewire consente larghezze di banda compatibili con la trasmissione in tempo reale. Questa caratteristica non era tipica delle reti wireless (almeno fino a qualche anno fa), mentre al presente sono disponibili protocolli di trasferimento wireless che ben si adattano anche all’applicazione in sistemi DSC [2]. Un aspetto non secondario è rappresentato dal consumo di energia: nel corso degli anni sono state sviluppate Smart Cameras con un consumo di energia da poche centinaia di mW fino ad alcune decine di watt. Come già detto precedentemente il consumo di energia dipende anche dalla piattaforma scelta per il sistema distribuito: tipicamente, infatti, sistemi wireless a banda bassa o media consumano livelli di energia significativamente ridotti rispetto a sistemi “wired” ad alta larghezza di banda. Le logiche di distribuzione dei dati nei sistemi DSC hanno una rilevanza notevole per molti aspetti. Uno di questi risiede nel fatto che più Smart Cameras possono condividere dati appartenenti alla stessa scena (la ridondanza è necessaria, ad esem-

VISIONE ARTIFICIALE

inquadrate; vi sono poi le applicazioni di trasporto intelligente, nei quali le reti di smart cameras sono utilizzate sia per il controllo di vaste aree di stoccaggio, sia in veicoli basati su visione. Le reti DSC trovano anche impiego in medicina, ad esempio per il controllo in vivo e in tempo reale del campo operatorio, o in applicazioni di sorveglianza (monitoring) in pazienti a rischio. Tipici ambiti applicativi sono quelli dell’utilizzo di sistemi di visione integrati in impianti industriali, per ispezione, robotica e controllo dei processi produttivi, cioè in aree nelle quali le tecnologie di computer vision e sistemi embedded trovano la propria naturale collocazione. Per ultima, ma non certo perché meno importante, vi è tutta l’area applicativa che viene globalmente definita embedded vision, che sta avendo un enorme impulso grazie alle tecnologie mobile con cui abbiamo tutti a che fare giornalmente. Mi riferisco cioè alla disponibilità di smartphone, cellulari e tablets, per i quali il trend è di sviluppare soluzioni di controllo (anche remoto), connettività e comunicazione utilizzando i sensori di visione embedded in questi prodotti: quale opportunità migliore per mettere a frutto in dispositivi che sono alla portata di tutti le caratteristiche di trasduzione, processing, trasmissione, connettività e istradamento già sviluppate per i sistemi DSC? RIFERIMENTI BIBLIOGRAFICI

1. An Introduction to distributed smart cameras, B. Rinner, W. Wolf, Proceedings IEEE, Vol. 96, No. 10, 2008. 2. Smart Camers, A. N. Belbachir (Ed.), Springer, 2012. 3. D. C. Schmidt, “Middelware for real-time and embedded system”, Comm. ACM, Vol. 45, No. 6, pp. 4348, 2002. 4. A.A. Zarezadeh, “Enabling communication infrastucture and protocol on embedded distributed smart cameras”, Proc. of the fifth ACM International Conference on Distributed Smart Cameras, pp. 1-6, 2001.

T_M ƒ 283


N. 04ƒ ; 2012

NEWS

SIEMENS E LMS UNISCONO LE FORZE Siemens ha recentemente acquisito LMS, fornitore leader di test e simulazione meccatronica, per 680 milioni di euro. La società acquisita diventa il Business Segment per il Test e la Simulazione di Siemens PLM. LMS è partner di riferimento nel Test e nella Simulazione Meccatronica dell’industria automobilistica, aerospaziale e delle altre industrie manifatturiere avanzate. La transazione, che è soggetta all’approvazione da parte delle autorità di regolamentazione, ammonta a 680 milioni di euro. LMS è partner di oltre 5.000 aziende leader di settore ed è l’unico fornitore al mondo a offrire piattaforme complete per il Test e la Simulazione Meccatronica, includendo l’ingegneria di sistemi model-based. Per il Dott. Ing. Urbain Vandeurzen, Chairman e CEO di LMS, “Questa acquisizione è la migliore opzione strategica possibile per continuare ad avere successo in un’industria in consolidamento, sia per lo staff LMS che per i suoi clienti. Per massimizzare la nostra crescita futura, abbiamo deciso di entrare in Siemens PLM, il fornitore PLM vincente con la visione, l’ambizione, la posizione di mercato e le risorse, per diventare il numero uno mon-

T_M ƒ 284

diale nel settore del software tecnico industriale. Da quando LMS è stata fondata, nel 1980, abbiamo assistito a 30 anni di profitto e continua crescita dei ricavi. Con più di 1.200 dipendenti in 40 paesi, nei primi nove mesi del 2012 abbiamo registrato una crescita record di 142 milioni di euro e un profitto record storico. LMS diventerà il Business Segment per il Test e la Simulazione di Siemens PLM e consoliderà ulteriormente la sua posizione di leader nei settori automobilistico, aerospaziale e delle altre industrie avanzate attraverso l’integrazione con PLM Siemens CAE. Il nostro quartier generale di Lovanio resterà il centro per il Test e la Simulazione. Siemens PLM farà leva sul valore del marchio LMS, nome che continuerà a rappresentare per i nostri clienti un simbolo di eccellenza ingegneristica”. “La simulazione meccatronica di prodotti complessi diventerà sempre più importante nello sviluppo e nei processi di produzione di prodotti intelligenti e competitivi. Con l’acquisizione di LMS, raggiungeremo una posizione di leadership anche in questo segmento di software e potremo aumentare significativamente il ritmo e la forza innovativa dei nostri clienti”,

ha dichiarato Siegfried Russwurm, membro del Managing Board di Siemens AG e CEO del Settore Industria. “Con l’acquisizione di LMS continuiamo a perseguire il nostro obiettivo di fornire la gamma completa di soluzioni di sviluppo prodotto, dal virtuale al fisico. Ciò permetterà di migliorare le nostre competenze di base aggiungendo funzionalità di simulazione model-based, progettazione, test e misure, sia ai processi di progettazione virtuale sia a quelli di sperimentazione fisica. L’integrazione dell’ambiente completo offre ai nostri clienti la possibilità di riunire tutte le informazioni provenienti dal modello logico, dal modello fisico e dal modello funzionale, per affinare e ottimizzare i risultati dei progetti e delle misure, trasformando il processo decisionale nello sviluppo del prodotto. È qualcosa che i nostri clienti apprezzano oggi e sapranno apprezzare ancor più domani. Siamo impegnati a investire internamente e tramite acquisizioni per realizzare la nostra visione, inclusa la fornitura di soluzioni per la simulazione di livello mondiale” ha dichiarato Chuck Grindstaff, CEO e Presidente di Siemens PLM Software Business Unit.


I SERIALI MISURE E FIDATEZZA

MISURE E FIDATEZZA Marcantonio Catelani 1, Loredana Cristaldi 2, Massimo Lazzaroni 3

L’approccio previsionale all’affidabilità Modelli e banche dati

FORECAST APPROACH TO DEPENDABILITY In a previous work we proposed the reliability tests performed in the laboratory by means of appropriate equipment. In this article we consider the forecast calculation and, then, how to assess the failure rate of component and system by using databases. RIASSUNTO Dopo aver parlato in un precedente lavoro di prove di affidabilità che possono essere eseguite in laboratorio utilizzando adeguata strumentazione, in quest’articolo ci soffermiamo sul calcolo previsionale, e quindi come valutare il tasso di guasto di componente e di sistema ricorrendo all’impiego delle banche dati. INTRODUZIONE

Prevedere l’affidabilità di un sistema, soprattutto a livello di progetto, è di grande importanza [1-7]. Per fare ciò si è spesso nella necessità di conoscere le prestazioni affidabilistiche dei componenti e delle parti che costituiscono il sistema in esame. Tali informazioni possono essere ricavate in maniera diversa in funzione dei diversi ambiti tecnologici in cui ci si trova a operare (elettrico ed elettronico, meccanico, software, ecc.), eseguendo prove di laboratorio, prove sui materiali e, infine, utilizzando le banche dati. In ambito elettrico ed elettronico le banche dati rappresentano uno strumento di grande utilità. Nate negli Stati Uniti, hanno prevalentemente come punto di partenza l’analisi dei dati di guasto raccolti in ambito militare e dei relativi sistemi elettronici. È proprio tra il 1943 e il 1950, infatti, che apparve chiara la correlazione tra la frequenza dei guasti degli apparati di comunicazione e navigazione e la severità delle condizioni operative in cui essi si trovavano a operare (ad es. la temperatura). Nel 1952 iniziarono i lavori dell’AGREE (Advisory Group on the Reliability Electronic Equipment), un gruppo di consultazione che pubblicò, nel

1957, una relazione sulle specifiche e sulle prove a proposito dell’affidabilità di tali apparati. È da quest’atto che s’innesca la nascita di banche dati mirate (databook) a supporto della progettazione con l’obiettivo di fornire una sorta di valutazione del tasso di guasto (failure rate). Nel 1953 la Radio Electronic Television Manufacturer’s Association (RETMA, poi Electronic Industries Association, EIA), istituì una commissione per le applicazioni elettroniche allo scopo di determinare metodi e procedure per la raccolta, l’analisi e la classificazione di dati affidabilistici i cui lavori si concretizzarono con la redazione degli Electronics Applications Reliability Review Bulletins. Si può affermare che tali pubblicazioni rappresentano la prima raccolta ragionata di dati messa a disposizione dalle aziende. Organizzazioni industriali quali Radio Corporation of America (RCA), General Electric (GE) e Motorola vi pubblicarono, inoltre, i risultati delle prove di vita da loro compiute sui componenti utilizzati. Una traccia di questo importante lavoro è contenuta nella prima edizione del MIL HDBK 217E (“Reliability prediction of electronic equipment”, del Dipartimento della Difesa americana nel 1962) [8]. Il primo tentativo di definire un Hand-

T_M

book che riportasse anche informazioni riguardo componenti meccanici ed elettromeccanici si ebbe nel 1959 con il Martin Titan Handbook noto come “Procedure and Data for Estimating Reliability and Maintainability”. Il pregio di questo Handbook è di aver cercato di presentare i dati seguendo un criterio di standardizzazione. Il Titan è, infatti, la prima raccolta dati in cui i tassi di guasto sono espressi in funzione delle ore di funzionamento e che adotta nei calcoli la distribuzione esponenziale. Se da una parte i dati riportati soffrono del fatto di non essere supportati dalle corrette informazioni statistiche (non sono riportati, infatti, la numerosità del campione testato, il numero di guasti rilevati e il numero di ore di osservazione), dall’altra questi dati sono supportati dalle informazioni sui modi di guasto. È qui che si propone l’uso dei fattori empirici (“fattori K”) che tengono conto dei modi d’impiego e dell’eventuale presenza di ridondanze. BANCHE DATI DELLA SECONDA GENERAZIONE

Dagli anni ‘60 si assiste alla nascita di programmi di raccolta e organizzazione dei dati affidabilistici. Questo lavoro porterà alla definizione di Handbook quali: MIL-Handbook-217, Failure Rate Data Bank (FARADA) e RADC Non-Electronic Reliability Notebook.

1

Università degli Studi di Firenze marcantonio.catelani@unifi.it 2 Politecnico di Milano loredana.cristaldi@polimi.it 3 Università degli Studi di Milano massimo.lazzaroni@unimi.it

N.

4/12 ƒ 285


Vale la pena di descrivere, succinta- accelerati e da test di affidabilità dimente, le caratteristiche di queste ban- mostrativi. che dati. Il problema legato all’analisi statistica adottata da questo Handbook è che i MIL-Handbook-217 dati provengono da popolazioni non Il MIL-Handbook-217 raggruppa i omogenee. Pur utilizzando la distribucomponenti in categorie e sottocate- zione chi-quadro per la definizione gorie connotati da fattori correttivi. Le degli intervalli di confidenza, la meultime edizioni contengono, ovvia- dia del tasso di guasto così stimata mente, una mole di dati non indiffe- non è rappresentativa delle sottoporente che rendono questa raccolta polazioni del campione. Uno dei prouna delle più complete. Sfortunata- blemi che accomuna i diversi databamente il modo come i dati sono stati se è l’uso, nella definizione degli inraccolti e organizzati fa sì che le infor- tervalli di confidenza, delle sole tecnimazioni non sempre siano attendibili. che statistiche. I modelli contenuti nel MIL-HDBK-217 fanno riferimento solo ai difetti di pro- Altri manuali duzione sui quali intervengono gli Altri manuali, d’impostazione analoga stress legati all’utilizzo; problemi lega- all’Handbook MIL, sono quelli che si ti al design, al trasporto e alle moda- occupano prevalentemente di dati per lità di utilizzo non sono invece tenuti dispositivi e componenti utilizzati in in debito conto dal modello. Per tale ambito telecomunicazioni come il MaHandbook non è possibile definire nuale RPP edito da Bell Core nel 1984, una vera e propria confidenza. In par- il Manuale HRD edito da British Teleticolare le variazioni di tolleranza com e il Manuale Italtel IRPH93 (questo sono mascherate dall’uso dei fattori K manuale ha visto la collaborazione sia e, inoltre, i tassi di guasto sono consi- dei francesi del CNET sia della British derati come misure fissate di un’ap- Telecom). Il manuale RPP riporta dati parecchiatura specifica, e non come principalmente per dispositivi e commisura generale di una gamma di tipi ponenti utilizzati in ambito telecomunidi apparecchiature. cazioni e copre, inoltre, ben cinque differenti ambienti di utilizzo. Elemento Failure Rate Data Bank comune che caratterizza questi data(FARADA) base è il considerare componenti con Dagli anni ‘70 del secolo scorso fu tasso di guasto costante. sponsorizzato un programma d’interscambio dei dati riguardanti le apparecchiature vendute in ambito milita- BANCHE DATI re. Questo programma, noto come DELLA TERZA GENERAZIONE GIDEP (Government/Industry Data Exchange Program) ha avuto il merito Appare evidente che uno degli obietdi mettere insieme oltre 400 parteci- tivi della definizione di un Handbook panti, di cui l’80% erano organizza- dovrebbe essere quello di consentire zioni industriali private. La raccolta l’utilizzo di dati adeguatamente conpromossa dal GIDEP è stata correda- notati dalla loro incertezza. Nasce ta dal primo sistema software per il quindi il problema, più volte affrontatrattamento dei dati, con il vantaggio to ma non ancora risolto in modo unidi un aggiornamento veloce e di voco, di come definire l’incertezza un’organizzazione secondo formati delle misure di affidabilità. utili al loro trattamento statistico. Il Non potendo fare riferimento a una relativo Handbook, FARADA, fornisce metodologia unica e condivisa, nella oltre ai tassi di guasto anche informa- definizione dell’incertezza si passa zioni concernenti i tassi di sostituzione dall’utilizzo dei quantili (si pensi alsulla popolazione di apparecchiature l’Handbook svedese T-BOOK – Reliabie, laddove disponibili, sui modi di lity Data of Components in Nordic Nuguasto. I dati riportati provengono da clear Power Plants) alla definizione esperienze sul campo, da test di vita d’intervalli di confidenza (si pensi al-

T_M ƒ 286

N. 04ƒ ; 2012

I SERIALI MISURE E FIDATEZZA

l’Handbook italiano EIREDA – European Industry Reliability Data Handbook) o all’assenza di questa informazione (situazione tipica degli Handbook utilizzati in ambito militare). L’attenzione di questi database si è comunque spostata dall’industria militare e aerospaziale a tipologie d’impianto intrinsecamente critiche come gli impianti nucleari civili, le piattaforme petrolifere e gli impianti dell’industria chimica. Moderne raccolte di dati affidabilistici di pubblico dominio sono: – IEEE-Std-500 (Piscataway, NJ, 1984) – OREDA (Offshore reliability data, Norvegia, 1984) – EIREDA (European Industry Reliability Data Handbook, Italia, 1991) – T-BOOK (Reliability Data of Components in Nordic Nuclear Power Plants, Svezia) – CCPS (Guidelines of the Center for Chemical Process Safety, New York, 1989) – NSWC-94/L07 – Handbook of Reliability Prediction Procedures for Mechanical Equipment. In particolare quest’ultimo, sviluppato dal Naval Surface Warfare Center – Carderock Division, fornisce modelli di tasso di guasto per le classi fondamentali di componenti meccanici (cinghie, molle, cuscinetti, freni, frizioni, per citarne alcuni). I modelli di tasso di guasto tengono conto dell’impatto sull’affidabilità dei componenti di alcuni fattori; per comprendere meglio questo aspetto basti pensare che per una molla i modi di guasto più comuni sono la rottura a fatica e l’eccesso di carico. L’affidabilità di una molla dipenderà dal materiale di cui è fatta, dall’ambiente di lavoro e dal modo con cui è stato eseguito il progetto. È ovvio che l’utilizzo di questi modelli richiede molti dati che potrebbero non essere noti all’utilizzatore. Altro aspetto di questo database è che nelle valutazioni non c’è un parametro riguardante i difetti di fabbricazione. È bene, inoltre, osservare che non esiste un “profilo” unico dell’utente delle banche dati: le informazioni raccolte sono ovviamente utili all’ingegnere progettista (che è interessato ai mec-


N. 04ƒ ;2012 ALCUNE CRITICITÀ

L’elemento critico nella realizzazione di un Handbook è il modo con cui viene progettata la raccolta dei dati e la definizione degli attributi che definiscono gli intervalli per le misure di affidabilità. Per comprendere meglio tale concetto si pensi ad esempio a un componente molto semplice e largamente diffuso quale può essere il resistore. In realtà basterebbe consultare un qualunque catalogo anche per l’acquisto on line di questo semplice componente per capire come la definizione dei parametri che lo caratterizzano sia fondamentale. Infatti, sotto la voce “resistori” vengono annoverate diverse tipologie del componente, con le più varie applicazioni d’uso. Nei database della seconda generazione la determinazione delle corrispondenze fra gli attributi viene lasciata all’utilizzatore: ciò rappresenta una criticità in quanto sono le modalità di raccolta che consentono la disamina ottimale delle corrispondenze tra tali attributi. Nei database della terza generazione, invece, è previsto un approccio di tipo gerarchico che fornisce all’utilizzatore una guida quando la conoscenza degli attributi risulta insufficiente. CONCLUSIONI

La previsione di affidabilità attraverso il calcolo del tasso di guasto di componente e di sistema rappresenta un’informazione estremamente utile in fase di progetto e realizzazione di un apparato. Tuttavia il calcolo che porta a determinare il tasso di guasto complessivo, e quindi l’MTBF, può in alcuni casi

risultare complesso e caratterizzato da elevata incertezza. Ciò è dovuto al fatto che un sistema coinvolge tecnologie di natura diversa: elettrica ed elettronica, meccanica, software, ecc. In ambito elettrico ed elettronico un ausilio importante ci è fornito dalle banche dati, raccolta d’informazioni opportunamente strutturata in funzione di molteplici aspetti: funzione/i svolta/e dal componente, ambiente operativo, condizioni di utilizzo, ecc.. In un successivo articolo verranno presentati alcuni esempi di calcolo con lo scopo di dare un’idea di come può essere, in questo contesto, eseguita una previsione di affidabilità pur, è bene ricordarlo, con un certo margine di approssimazione.

canismi di guasto e ai modi di guasto), all’analista del rischio (le informazioni sulla disponibilità del sistema ovvero della probabilità di successo della missione passano attraverso la disponibilità dei componenti e dei relativi tassi di guasto) e, in modo sempre più presente, all’esperto di manutenzione, oggi più di ieri attento alle prestazioni del servizio.

I SERIALI MISURE E FIDATEZZA

su componenti e sistemi. Tutto_Misure. - ISSN 2038-6974. – Anno 14, N° 3, Settembre 2012, pagg. 205-210.8. MIL-HDBK-217F, Reliability Prediction of Electronic Equipment (December, 1991), con Notice 1 -10 July 1992 e NOTICE 2 - 28 February 1995.

Marcantonio Catelani è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e Telecomunicazioni dell’Università di Firenze. La sua attività di ricerca si svolge prevalentemente nei settori dell’Affidabilità, della diagnostica e qualificazione di componenti e sistemi, del controllo della qualità e del miglioramento dei procesBIBLIOGRAFIA si. Fa parte del CT 56 – Affidabilità – del CEI ed è coordinatore di gruppi di 1. M. Catelani, L. Cristaldi, M. Laz- ricerca, anche applicata, delle tematizaroni, L’affidabilità come requisito di che citate.

progetto di componenti e sistemi: Le strutture Serie e Parallelo. Tutto_Misure. - ISSN 2038-6974. – Anno 13, N° 3, Settembre 2011, pagg. 213-216. 2. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, “L’affidabilità nella moderna progettazione: un elemento competitivo che collega sicurezza e certificazione”, Collana I quaderni del GMEE, Vol. 1 Editore: A&T, Torino, 2008, ISBN 88-90314907, ISBN-13: 9788890314902. 3. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and M. Catelani, Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, e-ISBN 978-3642-20983-3, DOI 10.1007/978-3642-20983-3, 2011 Springer-Verlag, Berlin Heidelberg. 4 A. Birolini: Reliability Engineering – Theory and Practice. Springer, Heidelberg, 6 Ed., 2010, ISBN: 978-3642-14951-1. 5. R. Bellington, R. N. Allan: “Reliability Evaluation of Engineering Systems”- Plenum Press, NY, 1996. 6. L. M. Leemis: Reliability, Probabilistic Models and Statistical methods, 2nd edn., ISBN: 978-0-692-00027-4. 7. M. Catelani, L. Cristaldi, M. Lazzaroni, Le prove di laboratorio: Prove

Loredana Cristaldi è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica del Politecnico di Milano. La sua attività di ricerca è svolta principalmente nei campi delle misure di grandezze elettriche in regime distorto e dei metodi di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi industriali. Fa parte del CT 56 – Affidabilità – del CEI. Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Fisica dell’Università degli Studi di Milano. La sua attività di ricerca è rivolta alle misure per le applicazioni industriali, per la diagnostica dei sistemi industriali, per l’Affidabilità e il Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misura delle grandezze elettromagnetiche, Strumentazione di misura, di controllo e da laboratorio e del CT 56 – Affidabilità del CEI.

T_M ƒ 287


N. 04ƒ ; 2012

NEWS

NEWS

SCANSIONE LASER PIÙ FACILE E PRECISA Quando si svolgono ampi progetti di scansione laser, si finisce generalmente con l’avere a disposizione serie di dati piuttosto voluminose. Nel caso di progetti di scansione complessi è quindi fondamentale mantenere una chiara overview e il formato dei dati costituisce la base di tutto il successivo lavoro di progettazione. Con l’ultima versione (5.1) di SCENE, software di elaborazione delle scansioni di CAM2, la gestione dei dati e l’elaborazione delle scansioni diventano ancora più semplici e chiare. Semplicemente fare ordine Nel software sono integrati i cosiddetti “Clipping Box”, che permettono di focalizzare l’attenzione sulle parti dei materiali di scansione effettivamente rilevanti per l’attività di progettazione. Il software offre agli utenti una vista a nuvola di punti che comprende un elevatissimo numero di punti di scansione oppure una realistica vista fotografica: bastano pochi clic per selezionare le sezioni più importanti dei dati, che poi vengono “tagliate” ed evidenziate, mentre il materiale irrilevante viene nascosto. Le ortofoto aprono nuove possibilità Avvalendosi dei Clipping Box, l’utente ha anche la possibilità di salvare ortofoto in formato TIFF. Ciò permette di lavorare nel software CAD in dotazione anche quando quest’ultimo non supporta la lettura di scansioni, ossia di nuvole di punti. Le ortofoto servono quindi come base per i disegni. Accelerazione dei processi di lavoro La nuova versione di SCENE offre un posizionamento automatico più veloce delle singole scansioni di un progetto grazie a un migliorato riconoscimento dei piani e alla nuova integrazione della determinazione automatica della direzione di scansione principale. Ciò è molto utile soprattutto quando si tratta di posizionare singole scansioni senza aver precedentemente definito e impostato i target di riferimento poiché consente di ridurre al minimo le fonti di errore. App-friendly e navigazione tridimensionale La nuova versione del software di elaborazione delle scansioni di CAM2 vanta inoltre una migliore interfaccia App, che permette una facile gestione delle App e consente agli sviluppatori software di programmare con facilità nuove App per rispondere a ulteriori esigenze specifiche e di renderle disponibili sul nuovo sito CAM2. Per ulteriori informazioni: www.cam2.it


I SERIALI CONFORMITÀ E AFFIDABILITÀ

CONFORMITÀ E AFFIDABILITÀ Tommaso Miccoli

Dalla conformità all’efficacia Parte 2 – Le informazioni

THE INFORMATION Data and relevant information are a particular type of company asset. Unfortunately they are not often considered as such. This may be due to their intrinsic characteristics: they are intangible, they can be duplicated, they are not subject to wear and they are not valued in the balance sheet. However, Organizations that manage information as a strategic resource and invest in their quality lay down the base to achieve an economic advantage. Management of documents, intended as the systematic control of their issue, maintenance and use, is a key element for the knowledge and knowhow of a company. Indeed, correct and effective management of information assets reduces operational costs and response time, and increases the overall quality of the provided service. RIASSUNTO I dati e le relative informazioni sono un particolare tipo di asset aziendale che spesso non è considerato come tale. Le motivazioni sono forse da ricercare nelle caratteristiche intrinseche che presentano perché essi sono intangibili, duplicabili, non soggetti a usura, e non sono valorizzati a bilancio. Le Organizzazioni che riescono a gestire le loro informazioni come una risorsa strategica investendo nella loro qualità, pongono le basi per ottenere un vantaggio competitivo, poiché la gestione documentale, intesa come il controllo sistematico dell’emissione, la tenuta sotto controllo e l’utilizzo dei documenti, è un fattore determinante della conoscenza e del know-how complessivo dell’azienda. Infatti, una corretta ed efficace gestione degli asset informativi riduce i costi operativi, migliora i tempi di risposta e aumenta la qualità complessiva del servizio reso. DOCUMENTI E INFORMAZIONE

In tutte le norme che trattano i sistemi di gestione, trovano degnamente posto i punti in cui si sviluppano i requisiti concernenti il sistema stesso, alla gestione della documentazione e alla gestione dei dati. Tutta l’attenzione in genere è rivolta al documento come tale, senza considerarlo nella sua reale dimensione, ossia “contenitore d’informazioni”. Ciò molto spesso costituisce un elemento banalizzante del requisito normativo stesso, poiché ne comporta una gestione puramente formale e non sostanziale. Se dovessimo declinare la qualità di un documento, dovremmo pensarci un po’ prima di riuscire a trovare una caratteristica qualitativa, sempre probabilmente banale, da associare. Se invece pensas-

simo al documento come un contenitore d’informazioni, e l’informazione diventasse l’oggetto da gestire, ecco che allora tutto assumerebbe una dimensione differente. Infatti, parlando di “qualità dell’informazione” subito avremmo da declinare una serie di caratteristiche qualitative che questa dovrebbe avere come ad esempio, l’accessibilità, la veridicità, l’aggiornamento, la disponibilità, la riservatezza, ecc. Appare quindi evidente che il sistema documentale che un’Organizzazione utilizza sarà tanto più appropriato, quanto più riuscirà ad assicurare efficacemente le caratteristiche sopra menzionate. Altro elemento di fondamentale importanza che risalterebbe subito in evidenza è che, presso qualsiasi tipo di Organizzazione, semplice o com-

T_M

plessa che sia, sono presenti almeno due sistemi di gestione documentale: il sistema di gestione cartaceo e il sistema di gestione informatico. Il primo, in genere, è sempre anche eccessivamente trattato nei sistemi di gestione certificati/accreditati, mentre il secondo molto spesso è appena accennato. Se prendessimo ad esempio una delle caratteristiche qualitative dell’informazione prima elencate e la considerassimo in entrambi i sistemi (cartaceo e informatico) capiremmo subito l’importanza di affrontare l’argomento in maniera strutturata e completa. Ad esempio, consideriamo l’accessibilità all’informazione, sia quando questa è contenuta in un sistema documentale cartaceo, sia quando risiede all’interno del sistema informatico. Entrambi i sistemi dovrebbero garantire un’accessibilità precisa, selettiva e tempestiva. Tuttavia, nei sistemi di gestione documentati su carta si è cercato di garantire tali aspetti attraverso la definizione di un presunto “grado di dettaglio”, creando così la gerarchia tra manuale della qualità, procedure gestionali, istruzioni operative e modulistica. Invece, nel caso di un sistema informatico, se sfruttato correttamente nelle sue potenzialità, tale suddivisione non avrebbe più senso perché l’accesso corretto è garantito da altri software (motori di ricerca) che certamente non utilizzano lo stesso criterio del grado di dettaglio. Informazioni e norma ISO/IEC 17025:2005 Com’è certamente noto, la norma ISO/IEC 17025:2005 è suddivisa in due parti: requisiti di sistema e Tiemme Sistemi network Kosmosnet (Padova) tiemme@protec.it

N.

4/12 ƒ 289


N. 04ƒ ; 2012

I SERIALI CONFORMITÀ E AFFIDABILITÀ

ca e obiettivi e per conseguire tali obiettivi (ISO 9000 p.to 3.2.2). Dalla definizione data, appare evidente che, nel trattare il sistema di gestione, occorre tenere presente sia elementi fisici (processi) sia elementi intangibili (informazioni). Si potrebbe ipotizzare, quindi, di descrivere la documentazione di sistema come nell’esempio che segue: Figura 1 – Accessibilità all’informazione in un sistema cartaceo e in uno informatico

requisiti tecnici. Nella prima parte trovano spazio i requisiti finalizzati a garantire la sistematicità delle metodologie utilizzate affinché un’Organizzazione abbia sotto controllo le attività di “struttura”, preliminari alla fase analitica, mentre la seconda parte è dedicata fondamentalmente alle modalità che si riferiscono all’utilizzo delle risorse destinate all’esecuzione sia delle attività analitiche sia delle relative attività di controllo. I requisiti della suddetta norma che sono dedicati, in tutto o in parte alla gestione strutturata dell’informazione, sono i seguenti: • requisito 4.2 – sistema di gestione; • requisito 4.3 – tenuta sotto controllo della documentazione; • requisito 4.13 – tenuta sotto controllo delle registrazioni; • requisito 5.4.7 – tenuta sotto controllo dei dati.

4.2.1 SISTEMA DI GESTIONE Il sistema che XXX ha adottato si basa sul modello organizzativo per processi per garantire una misura delle prestazioni erogate più efficace nei risultati e più efficiente nelle risorse utilizzate ed è realizzato da: • rete aziendale dei processi; • rete aziendale delle informazioni residenti su supporto cartaceo e supporto informatico. L’identificazione della sequenza e delle interazioni tra gli elementi suddetti è garanzia che consentirà un monitoraggio delle prestazioni intese al raggiungimento degli obiettivi aziendali di efficacia e di efficienza. 4.2.1.1 Rete aziendale dei Processi Tutte le attività effettuate presso XXX sono state raggruppate in tre livelli così definiti: • Macroprocessi: è il primo livello di classificazione ……omissis • Processi: rappresenta il secondo livello ……omissis… • Sottoprocessi: è il terzo e ultimo livello …..omissis…. Ogni Macroprocesso può contenere più di un processo e ciascun processo può contenere più sottoprocessi. In allegato 1 è riportata la mappatura completa.

Sistema di gestione (4.2) A mio avviso il sistema di gestione è un punto fondamentale non solo nell’ISO/IEC 17025 ma in tutte le norme di sistema, dove spesso non è considerato, in fase applicativa, nella sua reale importanza e criticità. Questo, spesso, è causa di una serie di carenze nella successiva applicazione degli altri requisiti. La definizione di sistema di gestione è: 4.2.1.1.1 Classificazione “Insieme di elementi correlati e inte- dei processi ragenti (sistema) per stabilire politi- …..omissis…

T_M ƒ 290

4.2.1.1.2 Formalizzazione dei processi L’accesso alla documentazione dei processi avviene mediante un cruscotto dove sono riportati tutti i macroprocessi e processi descritti con diagrammi di flusso funzionali …….. omissis…… 4.2.1.2 Rete aziendale della documentazione La struttura della documentazione prevede la suddivisione in documenti di pianificazione e documenti di registrazione ……omissis…… • Politica per la qualità: …omissis… • Manuale della qualità (MQ): …omissis… • Flussi dei Processi (FP) – Procedure Gestionali (PG) – Procedure Organizzative (PO): …omissis… • Procedure di Prova (PDP): ...omissis… • Procedure di Taratura (PDT): ...omissis… • Istruzioni operative (IO): ...omissis… • Documenti di registrazione (MOD): ...omissis… 4.2.1.3 Rete aziendale del sistema informatico Il sistema informatico di XXX è composto di: • infrastruttura fisica, hardware e di connettività; • infrastruttura sistemistica; • applicativi. Esso è descritto in dettaglio sul documento programmatico per la sicurezza (DPS) al quale si rimanda per ulteriori dettagli e specificità. Di seguito è riportata sinteticamente la descrizione di tali elementi: • Infrastruttura fisica, hardware e di connettività. Fanno parte dell’infrastruttura fisica i componenti hardware per il supporto applicativo (switch, router, hub) …omissis…. La connettività è garantita …omissis… • Infrastruttura sistemistica. I sistemi operativi adottati sono Windows based …omissis… • Applicativi. Le principali applicazioni presenti nel sistema informatico sono: • il gestionale operativo…. • il gestionale amministrativo…… • il Sw di reportistica direzionale …..


N. 04ƒ ;2012 Tenuta sotto controllo della documentazione (4.3) Nel considerare questo requisito è opportuno riferirsi alla nota 1 del punto 4.3.1 della norma ISO/IEC 17025 che pone in evidenza come un documento possa trovarsi su vari supporti, stampati o elettronici, e presentarsi in qualsiasi forma, digitale o analogica, fotografica o scritta. Questo sta a indicare che, se opportunamente identificata e gestita, anche una sequenza fotografica può essere una istruzione di lavoro sintetica, inequivocabile e soprattutto essenziale. In genere, però, si preferisce utilizzare quasi esclusivamente la documentazione cartacea, con qualche breve e superficiale cenno al sistema informatico. Per una gestione completa, quindi, il primo passo è d’identificare tutti i possibili “supporti dell’informazione” e in relazione alla loro specificità descriverne l’utilizzo, le modalità per garantirne il controllo e le relative responsabilità. Uno dei requisiti aggiuntivi alla norma che ha creato non poche perplessità ai laboratori di prova è quello riportato al punto 4.3.3.4 del documento tecnico ACCREDIA RT08 che cita testualmente: “Il laboratorio, qualora utilizzi procedure informatiche (programmi software) per soddisfare i requisiti di conformità richiesti dalla norma, dovrà rendere disponibili informazioni sullo stato di configurazione di tali programmi software, su eventuali modifiche e sulle correlazioni tra lo specifico software usato e i punti della norma governati dallo stesso”. Se si paragona una procedura software a una procedura cartacea, e si considera che i due supporti dell’informazione abbiano peculiarità strutturali differenti, si è in grado di soddisfare facil-

mente la richiesta. Infatti è sufficiente riepilogare, allo stesso modo con cui si procede per le procedure cartacee, i software presenti, identificarne la versione e le responsabilità dell’aggiornamento o d’interfacciamento con il fornitore. È necessario anche fare notare quali sono i requisiti normativi gestiti informaticamente in quanto, spesso, la procedura software ha un nome di fantasia associato alla generica descrizione di LIMS (Laboratory Information Management System). Occorre quindi considerare che un laboratorio, con un LIMS, possa gestire la sola accettazione dei campioni ed emissione dei rapporti di prova, oppure utilizzarlo nella sua completezza per la gestione del laboratorio, compresa la conservazione informatica dei documenti prodotti. Per questo motivo va indicato quali attività sono gestite con un LIMS in quanto, in relazione all’ampiezza di utilizzo, variano le modalità di gestione utilizzate ai fini della sicurezza dei dati. Tenuta sotto controllo delle registrazioni (4.3) e dei dati (5.4.7) I dati sono il risultato delle attività aziendali e da questi bisogna partire per qualsiasi tipo di considerazione a supporto delle decisioni aziendali, a condizione che questi realmente siano significativamente rappresentativi dei processi da cui derivano (“Decisioni basate sui dati di fatto” – 7° principio sulla gestione della qualità – norma ISO 9000:2005 punto 0.2). Affinché ciò avvenga occorre che il processo di acquisizione dei dati sia governato da regole ben precise, in modo tale che ne consentano la confrontabilità nel tempo. Ma quali sono le regole di acquisizione dei dati se non le procedure formalizzate? Infatti la disponibilità di procedure formalizzate consente non solo il raggiungimento del livello qualitativo pianificato del prodotto/servizio, ma anche di stabilizzare le modalità di acquisizione dei dati (registrazioni) garantendo che tale raccolta avvenga con le stesse modalità, nello stesso formato, nelle medesime fasi e con regole analoghe. Se questo è attuato, allora i dati registrati presentano le stesse caratteristiche qualitative e

• il Sw di Business Process Management …… • il Sw di posta elettronica …. • Il Sw intranet aziendale …. • Le responsabilità inerenti alla gestione del Sistema informatico fanno capo …omissis… “ Così facendo si pongono le basi per la successiva trattazione nel punto 4.3 delle procedure software e nel punto 4.3.1 dei data base.

I SERIALI CONFORMITÀ E AFFIDABILITÀ

potrebbero costituire un valido aiuto al supporto decisionale. Cosa vuol dire qualità del dato? Distinguiamo due momenti a cui riferirsi: la fase di raccolta e la fase di utilizzo. In fase di raccolta le caratteristiche qualitative sono la completezza, la comparabilità, la rappresentatività e la coerenza, mentre in fase di utilizzo sono la disponibilità e l’accessibilità. La completezza rappresenta la quantità di dati validi ottenuti da un sistema di raccolta/misura, la comparabilità rappresenta la confidenza con cui un set di dati può essere confrontato con un altro set di dati, la rappresentatività è la misura del grado con cui i dati rappresentano in modo adeguato una caratteristica di un processo, e infine la coerenza è il livello di confrontabilità di dati provenienti da più sistemi informativi che contengono la stessa natura dei dati. A differenza della comparabilità, più centrata sui processi, la coerenza fa riferimento diretto ai dati rilasciati da più fonti. In fase di utilizzo, invece, la disponibilità e accessibilità dovrebbero essere garantite dal sistema che è utilizzato. In particolare i dati, per essere correttamente utilizzati, dovrebbero garantire l’autenticità (dati non autentici possono derivare da segnalazioni intenzionali o accidentali di dati non corretti, errori di calcolo o software, procedure di registrazione carenti); l’integrità (si considerano integri i dati riportati a seguito di procedure che garantiscono la buona e corretta raccolta), e infine l’usabilità, definita rispetto alle esigenze di utilizzo dei dati. Il sistema adibito alla loro archiviazione, data base e relativo software, dovrebbe possedere alcune caratteristiche di potenzialità e di protezione quali ad esempio: 1. accesso al sistema: è consentito sulla base delle necessità di operare sui sistemi. Si applica sia ai singoli sistemi informatici degli utenti, sia ai sistemi multi-utente; 2. accesso ai data base: i dati devono essere protetti da accessi non autorizzati con l’attuazione di controlli amministrativi e procedurali. Gli accessi sono consentiti in relazione al ruolo

T_M ƒ 291


che il personale ha nell’Organizzazione. Le procedure per il controllo degli accessi vanno documentate; 3. back up: protezione preventiva dalla perdita di dati mediante copie aggiornate e meccanismi di recupero. La frequenza è principalmente definita per ridurre al minimo l’entità delle conseguenze in caso di perdita e in relazione al tempo necessario per il ripristino; 4. sicurezza dei dati: se necessario i dati vanno classificati in relazione alla loro importanza strategica con riferimento a considerazioni particolari di riservatezza. Dati classificati vanno trattati e conservati su dispositivi “classificati”; 5. data entry: le attività d’inserimento dei dati, di trasferimento e di trasformazione devono essere verificati per garantire l’integrità dei dati sia mantenuta; 6. modifiche sui data base: ogni cambiamento della base dei dati va regi-

T_M ƒ 292

N. 04ƒ ; 2012

I SERIALI CONFORMITÀ E AFFIDABILITÀ

strato per garantire la tracciabilità dei dati di campo e di laboratorio. Le registrazioni dovrebbero contenere la descrizione della modifica, il motivo della variazione, il nome di chi la effettua, la data, una copia dei dati prima della variazione

rienza compiuta, analizziamo tutte le informazioni raccolte e riordiniamo le foto e i pensieri ricordando i vari luoghi visitati, così, riferendoci ai processi, i dati raccolti vanno riesaminati e approvati prima della loro archiviazione per consentirne un efficace e significativo utilizzo futuro.

CONCLUSIONI

Applicare un sistema di gestione è come fare un viaggio all’interno dei processi; man mano che il viaggio si compie, il processo si realizza, sono raccolte e registrate informazioni su tutti gli aspetti d’interesse. Nel viaggiare sono raccolte informazioni su tutto ciò che più ci colpisce o ci interessa, nell’esecuzione dei processi sugli aspetti critici o di conformità. Come al rientro da un viaggio, prima di condividere con gli amici l’espe-

Tommaso Miccoli, Laureato in Scienze Strategiche e Scienze Politiche, è amministratore della Tiemme Sistemi sas. Membro fondatore del network Kosmosnet. Si occupa della Progettazione, Sviluppo e Ottimizzazione di Processi Organizzativi e di Supporto alla definizione di Strategie e ottimizzazione dei Sistemi di Governance. È Lead Auditor Certificato di Sistemi di Gestione.


METROLOGIA LEGALE

A cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com)

www.avvocatoscotti.com

Etilometro Prime aperture alla valutazione dei dati numerici

LEGAL AND FORENSIC METROLOGY: THE BREATHALYZERS This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighten aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e sarete accontentati! In un intervento precedente mi sono soffermata brevemente sugli Autovelox, con particolare riguardo alle applicazioni giuridiche, evidenziando alcune contraddizioni interne all’ordinamento (derivanti da norme aventi diverso contenuto) che legittimano differenti interpretazioni di casi analoghi che dovrebbero, invece, presentare soluzioni identiche (almeno a parere di chi scrive). Diversamente, per quanto concerne il cosiddetto etilometro, la normativa risulta piuttosto chiara, almeno in merito alla natura di tale apparecchio quale strumento di misura. Questo è disciplinato, almeno apparentemente, in osservanza di principi metrologici, attesi i controlli stabiliti sullo strumento. Innanzitutto, si rende necessario inquadrare la normativa che regola l’utilizzo dell’etilometro al fine di comprendere la portata innovativa (sebbene limitata) di una pronuncia emessa dal Giudice di Pace di Cesena. Com’è noto, il codice della strada sanziona il comportamento di coloro i quali si mettono alla guida dopo avere assun-

to alcolici, prevedendo alcuni livelli di riferimento utili per definire lo stato di ebbrezza, nonostante rimanga, in ogni caso, valido e legittimo l’accertamento della guida in stato di ebbrezza mediante una valutazione basata su altri e diversi parametri, riconducibili principalmente all’esperienza personale dell’agente accertatore che, anziché indicare valori rilevati tramite test, dovrà specificare in base a quali dati ha ritenuto il soggetto in stato alterato. L’art. 186 del Codice della strada, al II comma, stabilisce infatti che chiunque guida in stato di ebbrezza è punito, ove il fatto non costituisca più grave reato: a) con la sanzione amministrativa del pagamento di una somma da Euro 500 a Euro 2.000, qualora sia stato accertato un valore corrispondente a un tasso alcolemico superiore a 0,5 e non superiore a 0,8 grammi per litro (g/l). All’accertamento della violazione consegue la sanzione amministrativa accessoria della sospensione della patente di

T_M

guida da tre a sei mesi; b) con l’ammenda da Euro 800 a Euro 3.200 e l’arresto fino a sei mesi, qualora sia stato accertato un valore corrispondente a un tasso alcolemico superiore a 0,8 e non superiore a 1,5 grammi per litro (g/l). All’accertamento del reato consegue in ogni caso la sanzione amministrativa accessoria della sospensione della patente di guida da sei mesi a un anno; c) con l’ammenda da Euro 1.500 a Euro 6.000, e l’arresto da sei mesi a un anno, qualora sia stato accertato un valore corrispondente a un tasso alcolemico superiore a 1,5 grammi per litro (g/l). All’accertamento del reato consegue in ogni caso la sanzione amministrativa accessoria della sospensione della patente di guida da uno a due anni. Se il veicolo appartiene a persona estranea al reato, la durata della sospensione della patente di guida è raddoppiata. La patente di guida è sempre revocata, ai sensi del capo II, sezione II, del titolo VI, in caso di recidiva nel biennio. Con la sentenza di condanna, ovvero di applicazione della pena su richiesta delle parti, anche se è stata applicata la sospensione condizionale della pena, è sempre disposta la confisca del veicolo con il quale è stato commesso il reato, salvo che il veicolo stesso appartenga a persona estranea al reato. Ai fini del sequestro si applicano le disposizioni di cui all’articolo 224-ter. Come risulta evidente dal testo della norma, l’accertamento può essere condotto esclusivamente mediante l’uso di uno strumento di misura che consenta di rilevare “esattamente” il livello dell’alcool (fermo restando il diritto del trasgressore di essere sottoposto al prelievo ematico in sostituzione del test mediante etilometro). Affinché la rilevazione sia eseguita correttamente, il Ministero, sulla scorta di quanto stabilito dal regolamento di esecuzione del codice della strada1, ha disposto un proto-

N.

4/12 ƒ 293


collo di riferimento che prescrive la corretta modalità per la conduzione del test unitamente ai controlli cui deve essere sottoposto l’etilometro. In ordine a questi ultimi viene, infatti, stabilito l’obbligo di sottoporre a controllo, mediante taratura annuale, ciascuno strumento in dotazione agli agenti, in modo da garantire l’attendibilità dei risultati delle misurazioni effettuate. Al riguardo, al fine di evidenziare l’importanza, non solo tecnica ma anche e soprattutto giuridica, dei controlli da condursi su tali apparecchi di misura, è utile ricordare che, nell’ambito di una causa per guida in stato di ebbrezza (che riguardava un caso in cui il tasso rilevato era pari a 1,20 mg/l), il giudice ha accolto le motivazioni del trasgressore (annullando il verbale e il conseguente reato), a causa del mancato superamento dei controlli metrologici periodici per l’etilometro utilizzato per l’accertamento dell’illecito, sebbene la verifica sullo strumento sia stata condotta successivamente alla contestazione dell’illecito: la violazione, infatti, era avvenuta a maggio 2009 e il controllo periodico, cui è stato sottoposto l’etilometro utilizzato per l’accertamento, è avvenuto a ottobre 2009, con esito negativo e conseguente ritiro dello strumento (Tribunale di Torino 13 gennaio 2011). Per quanto concerne, invece, la corretta modalità di conduzione e valutazione del test alcolimetrico sui soggetti, la norma prescrive di sottoporre il (presunto) trasgressore a due test consecutivi, a distanza di circa cinque minuti l’uno dall’altro, che, secondo quanto stabilito per legge, dovrebbero dare, ai fini dell’adozione dei provvedimenti sanzionatori, esiti concordanti. In relazione a tale ultimo aspetto va precisato che la prassi (amministrativa degli accertatori) è quella di ritenere valido il secondo risultato fornito dall’apparecchio di misurazione, al fine di determinare lo stato di ebbrezza; mentre secondo l’orientamento consolidato della Corte di Cassazione2 si deve tenere conto, nel rispetto dei principi del diritto penale, esclusivamente della misurazione che ha dato esito inferiore. Le brevi considerazioni sopra riportate dimostrano come, di fatto, né a livello

T_M ƒ 294

N. 04ƒ ; 2012

METROLOGIA LEGALE

applicativo (per quanto riguarda gli accertatori) né in ambito interpretativo (per quanto concerne i giudicanti), al di là delle differenti modalità interpretative dei dati forniti dall’etilometro, si tenga conto del vero significato dei controlli periodici (in specie taratura) cui sono sottoposti gli strumenti. Infatti, raramente si fa cenno all’incertezza di misura associata a ciascuno strumento, in relazione ai controlli metrologici effettuati sullo stesso, al fine di determinare esattamente la sussistenza di uno stato di ebbrezza o meno, sulla scorta dei parametri fissati per legge. Peraltro, a prescindere dalla (ormai spesso nota) incongruenza tra diritto e tecnica, che richiederebbe una rigorosa applicazione delle metodologie e dei concetti utilizzati in metrologia ma, in alcuni casi, assume più facilmente i contorni di una mera polemica filosofica di poco conto, non si possono trascurare le gravi conseguenze derivanti dalla mancata applicazione del concetto d’incertezza di misura nell’ambito qui in esame. Sul punto va doverosamente rimarcato che l’art. 186 del codice della strada (si veda testo dell’articolo lettere b e c) non si limita a prevedere unicamente sanzioni amministrative (di varia e diversa entità in funzione della gravità del fatto, quantificata in base al livello alcolemico) ma configura un reato, nel caso di superamento di una data soglia (0,8 mg/l). Risulta pertanto evidente, in dipendenza del tipo di effetti associati all’applicazione della norma che prevede la fattispecie penale, l’importanza di trattare tali strumenti, anche sotto il profilo giuridico, conformemente alle regole tecniche stabilite per gli apparecchi di misura in modo che sia considerato (dall’organo accertatore prima ancora che dal giudice, al fine di evitare, per alcuni casi, addirittura il procedimento penale) il loro margine di errore (quello standard e non solo quello patologico, come rilevato nel controllo effettuato sull’etilometro utilizzato per l’accertamento che ha costituito oggetto della causa trattata dal Tribunale di Torino sopra citata). Con riferimento alla necessità di un “allineamento” del diritto alle norme tecniche, ritengo opportuno segnalare una recente sentenza che pare

dimostrare un nuovo approccio al problema degli etilometri e dei risultati delle loro misurazioni, volto a rivalutare tali strumenti di misura con una maggiore considerazione per alcuni aspetti tecnici, sebbene non si tratti di un’applicazione integralmente conforme a quanto richiederebbe la pedissequa applicazione della buona prassi tecnica (metrologica). Nell’ambito di un procedimento in opposizione a sanzione amministrativa per guida in stato di ebbrezza, il Giudice di Pace di Cesena, con una sentenza del 08/02/2012, ha ritenuto di accogliere le motivazioni del ricorrente-trasgressore, in quanto la rilevazione del tasso alcolemico, effettuata a mezzo di etilometro, restituiva un risultato di 0,52 mg/l (come seconda misurazione, che dava risultato inferiore rispetto a quello della prima) che, a parere del giudicante, doveva essere “corretto” con l’applicazione della tolleranza del 4% (come prescritta dal DM 196/1990)3 con conseguente riduzione del valore a un livello sotto la soglia prevista dal codice della strada per l’integrazione dell’illecito (amministrativo). Certamente la sentenza sopra menzionata non soddisfa integralmente i requisiti tecnici di una corretta misurazione che tenga conto del margine di errore effettivo di ciascuno strumento di misura: tuttavia delinea una nuova impostazione metodologica (che potrebbe comunque non avere seguito, dato che in Italia non esiste il principio del precedente giurisprudenziale come avviene, invece, nei paesi anglosassoni di common law) per i giudizi che coinvolgono aspetti tecnici, che potrebbero essere agilmente decisi anche in assenza del supporto di un consulente tecnico, qualora fossero pienamente adottati e applicati i principi comunemente riconosciuti in sede tecnica per gli strumenti di misura.

NOTE 1

Regolamento di esecuzione e di attuazione del nuovo codice della strada – Decreto del Presidente della Repubblica 16 dicembre 1992, n. 495 – art. 379. 2 Cass. Pen, sez. 4, sent. 16478/2008. 3 Analogamente a quanto avviene per le misurazioni con autovelox ove si applica la tolleranza dei 5 km/h sul valore misurato dall’apparecchio.


METROLOGIA LEGALE

A cura di Massimo Mortarino (mmortarino@affidabilita.eu)

MI 006 – Strumenti per pesare a funzionamento automatico Tavola rotonda “virtuale” con autorevoli esperti

AUTOMATIC WEIGHING INSTRUMENTS Our last “virtual” Round Table for the 2012 is focused on “MI 006 – Automatic weighing instruments”, a very important field of Legal Metrology, ruled by mandatory regulations to ensure safety in commercial transactions. The questions posed to the participants (authoritative experts and industrial users) aim at determining whether and how an “intelligent” approach to regulatory requirements can be translated into real competitive advantages, converting the obligation into an opportunity. The next virtual Round Tables of Tutto_Misure for 2013 will be focused on: Dimensional measurements with innovative solutions (optical, etc.) – Reliability in Electronics – Sensors and data acquisition systems for testing and monitoring – Measurement and testing for the characterization of materials. RIASSUNTO L’ultima Tavola Rotonda “virtuale” del 2012 è centrata su “MI 006 – Strumenti per pesare a funzionamento automatico”, un ambito molto importante della Metrologia Legale, regolato da normative cogenti volte a garantire la sicurezza nelle transazioni commerciali. Le domande poste ai partecipanti (rappresentanti di spicco del mondo degli “addetti ai lavori” e dell’utenza industriale) mirano ad accertare se e come un approccio “intelligente” alle disposizioni normative possa tradursi in reali vantaggi competitivi, trasformando l’obbligo in opportunità. Ecco i temi delle tavole rotonde virtuali di Tutto_Misure in programma nell’anno 2013: Misure dimensionali con soluzioni innovative (ottiche, ecc.) – Affidabilità nell’Elettronica – Sensori e sistemi di acquisizione dati per il testing e i controlli – Misure e prove per la caratterizzazione dei materiali. Hanno partecipato a questa Tavola Rotonda Virtuale: – Franco Basilico (CIBE – Responsabile Laboratorio Metrologico) – Giuseppe Blandino (LABCERT, Notified Body n. 2166 – Titolare) – Emilio Loss (RASPINI – Direttore Industriale) – Maria Cristina Sestini (Camera di Commercio di Prato – Responsabile Laboratorio di Taratura e Servizi di Metrologia Legale) – Massimo Zanetti (Coop. Bilanciai Campogalliano – Resp. Settore Qualità e Metrologia Legale)

transazioni commerciali e, più in generale, la pubblica fede in ogni tipo di rapporto economico tra più parti, attraverso l’esattezza della misura. Molte aziende operanti in diversi settori, che producono o commercializzano, impiegano strumenti per pesare a funzionamento automatico e devono adempiere a specifiche normative cogenti, che implicano impegni e costi, spesso rilevanti. Come può conciliarsi tale impegno con l’attuale necessità di abbattere i costi, prioritaria per le aziende impegnate a competere?

D.: La Metrologia Legale è finalizzata a garantire la correttez- (M.C. Sestini) Non possiamo ignoraza delle misure utilizzate per le re il fatto che il nostro Paese è impe-

T_M

gnato ormai da decenni nel processo di creazione del mercato unico europeo; in tale contesto, al generale abbattimento delle barriere economiche e di mercato, che costituiva l’obiettivo iniziale, è seguita l’armonizzazione della normativa che implementa i requisiti tecnici degli strumenti. Nel campo della Metrologia Legale sono state adottate nel corso degli anni numerose direttive per il riavvicinamento delle legislazioni degli Stati membri, quale ad esempio la direttiva 78/1031/CEE del 5 dicembre 1978 relativa alle selezionatrici ponderali a funzionamento automatico di tipo meccanico, che aveva carattere facoltativo e apparteneva al cosiddetto vecchio approccio. Nell’anno 2004, con l’adozione della direttiva 2004/ 22/CE, cosiddetta MID, l’Unione Europea ha prescritto a tutti i Paesi l’adozione di regole comuni in particolare relativamente ai requisiti essenziali di alcune categorie di strumenti di misura, tra cui gli strumenti per pesare a funzionamento non automatico disciplinati dall’allegato MI-006 della MID. Se consideriamo che per la maggior parte delle imprese la competizione si svolge almeno a livello europeo, apprezziamo il fatto che quest’ultimo mercato è ormai unico e le regole di carattere cogente in campo metrologico sono le stesse, sia per la produzione degli strumenti di misura sia relativamente al loro utilizzo nei processi produttivi, determinando un allineamento alla partenza di tutti i soggetti competitori. Dobbiamo innanzitutto tenere conto che, per le aziende impegnate a competere su un mercato unico, la chiara e univoca indicazione dei requisiti di costruzione degli strumenti (requisiti essenziali) costituisce un assoluto risparmio, laddove è sufficiente rispettare la normativa europea anziché dover assumere l’onere di rispettare requisiti e iscrizioni previsti diversamente da più Paesi. D’altro canto la

N.

4/12 ƒ 295


N. 04ƒ ; 2012

Franco Basilico

METROLOGIA LEGALE

Giuseppe Blandino

trasparenza delle regole agevola anche gli utilizzatori: la normativa europea sui preconfezionati ne è un chiaro esempio, in quanto introduce un identico obbligo (con specifico riferimento alle tolleranze, alle iscrizioni da apporre sulle confezioni, agli strumenti da utilizzare, fino ad arrivare alle procedure di controllo) per tutti i produttori di prodotti preconfezionati che intendono collocare legittimamente le loro merci sul mercato europeo. (G. Blandino) Per le aziende produttrici di strumenti MID, l’abbattimento dei costi potrebbe iniziare fin dall’inizio della progettazione, rivolgendosi a priori a Organismi Notificati che li introducano nella conoscenza delle normative di Metrologia Legale: Direttiva MID, Raccomandazioni Internazionali OIML riferite allo strumento da costruire, Guide WELMEC, ecc. In questo modo eviterebbero costi aggiuntivi per correggere i problemi che vengono spesso riscontrati in fase di certificazione degli strumenti, in moltissimi casi dovuti proprio alla poca conoscenza delle normative e delle rispettive guide. Sicuramente uno dei motivi che tiene i nostri “artigiani” lontano da questi documenti è la lingua inglese. L’investimento iniziale farebbe risparmiare a loro una montagna di ore di lavoro a carico dei progettisti della meccanica, del software e dall’hardware, con un notevole risparmio nella realizzazione dei prototipi. Sviluppare progetti in linea con quanto richiesto dai documenti normativi è il giusto presupposto per far sì che gli strumenti analizzati e provati dai laboratori accreditati per il rilascio

T_M ƒ 296

Emilio Loss

Maria Cristina Sestini

dei Certificati di Esame CE del Tipo “Notified Body”, passino positivamente i test per l’ottenimento del documento in tempi brevi, permettendo così l’immissione nel mercato dello strumento certificato. Purtroppo diversi costruttori si sono visti certificare lo strumento anche dopo due anni, invece dei normali 90-120 giorni.

Massimo Zanetti

(F. Basilico) Da un punto di vista generale, vi sono costi “necessari”: ad esempio, quelli relativi alla sicurezza sui posti di lavoro, alla sicurezza della strumentazione e, nel caso specifico, alla tutela della fede pubblica e alla liceità delle transazioni commerciali. Non voglio però dire che i costi per ottenere tali garanzie debbano essere necessariamente alti: è necessario trovare il giusto equilibrio tra il costo e quello che ci si propone di ottenere, tanto più che i costi della Metrologia Legale sono “conditio sine qua non” e devono essere sostenuti da tutti i soggetti che producono o utilizzano strumenti per pesare che ricadono nell’ambito cogente. I costi più elevati ricadono sui fabbricanti metrici, mentre i costi di “mantenimento” richiesti agli utenti metrici, cioè quelli relativi alla verificazione periodica e al corretto utilizzo dello strumento, sono sicuramente di minore rilevanza, tenuto conto anche dell’immediata ricaduta positiva legata a un riconoscimento, da parte della clientela, della correttezza delle misurazioni effettuate. Oltre al fatto che lo strumento che non funziona correttamente potrebbe andare anche a danno del suo utilizzatore. Per quanto riguarda i fabbricanti di strumenti metrici, i costi relativi alla Metrologia Legale dovrebbero essere visti come inseriti in un’ottica di miglioramento delle funzioni dei propri strumenti, dei processi di produzione e verifica, anziché come meri costi senza ritorni economici, tenuto anche conto che detti costi debbono essere sostenuti da tutti i fabbricanti metrici.

(M. Zanetti) Proviamo per una volta a cambiare punto di vista, scordandoci che le aziende siano obbligate dalla legge a utilizzare strumenti automatici sottoposti alla Metrologia Legale, e proviamo a rispondere alla domanda “quanto tempo/denaro l’azienda dedica alle attività riportate in seguito?”. – In che modo “convincere” il cliente, spesso non presente durante l’operazione di misurazione o non perfettamente competente della complessità dell’operazione di misura, che il “prezzo” pagato è congruo con la merce acquistata? Quali sono le caratteristiche che il prodotto misurato deve soddisfare? Tali caratteristiche sono le stesse in tutto il mondo? – In che modo “convincere” il cliente, che lo strumento di misura mantiene nel tempo e nelle diverse condizioni di funzionamento prestazioni idonee? – In che modo “stabilire” con il cliente, quali sono le prestazioni idonee di uno strumento di misura? – In che modo tenere sotto controllo e misurare il processo produttivo? Acquistare strumenti conformi alla Metrologia Legale, oltre a soddisfare i requisiti cogenti, permette di rispondere alle domande precedenti grazie a “standard” fissati e condivisi fra tutti le parti coinvolte nella transazione commerciale. (E. Loss) La scelta di opportuni meto-


N. 04ƒ ;2012 che gli Stati debbano prescrivere, ove il singolo Stato lo ritenga giustificato, l’uso di strumenti di misura conformi alla Direttiva MID qualora utilizzati per motivi d’interesse pubblico, sanità pubblica, sicurezza pubblica, ordine pubblico, protezione dell’ambiente, tutela dei consumatori, imposizione di tasse e di diritti e lealtà delle transazioni commerciali. In Italia, come in Europa, una precedente disciplina, comunque adeguata a garantire il livello di protezione, regolava la fabbricazione di strumenti per pesare a funzionamento automatico. Alla luce di tale considerazione, tenuto conto dell’esigenza di tutelare la correttezza della misurazione nelle transazioni e negli altri casi descritti all’articolo 2 della Direttiva MID, si ritiene che l’uniformazione dei requisiti che gli strumenti devono rispettare abbia comportato uno snellimento e una semplificazione al livello dei produttori, così come dei costi di progettazione, costruzione e marketing. La direttiva MID, inoltre, attribuisce il compito di valutazione della conformità agli organismi notificati, sulla base di una procedura scelta dal fabbricante tra quelle previste dalla MID, così da offrire ai fabbricanti stessi molteplici opportunità per l’accertamento della conformità; d’altro canto tale accertamento ha valenza in tutta Europa, aprendo così un ventaglio di possibilità prima impensabile. Esonerati dalla burocrazia e collocati in un mercato unico, i fabbricanti di strumenti per pesare a funzionamento automatico sono adesso liberi di esplicare il proprio potere competitivo, forti D.: Qual è il vostro giudizio in della competenza e dell’efficacia del merito alla normativa che di- loro know how. sciplina l’impiego di strumenti per pesare a funzionamento (G. Blandino) Il livello normativo automatico (a livello di com- relativo agli strumenti MID è di primisplessità, burocrazia, onerosità, simo piano: OIML e WELMEC mettocosti, ecc.)? no a disposizione di tutti gli operatori del settore documenti che spiegano (M.C. Sestini) La nostra società dettagliatamente come deve essere determina il prezzo complessivo di un realizzato e provato lo strumento di oggetto di transazione a seguito della misura. quantificazione della merce. Posto Riguardo all’onerosità, purtroppo in che i controlli metrologici legali non Italia i costi di Certificazione che ricadevono frapporre ostacoli alla libera dono sul produttore sono veramente circolazione degli strumenti di misura, notevoli. Costi dovuti, in primis, alil legislatore comunitario ha ritenuto l’Accreditamento dei laboratori che

di e strumenti di pesatura con la finalità di rispondere alle norme cogenti deve essere vista dall’azienda come un’opportunità di ridiscutere i flussi di raccolta dati in campo. Per spiegarmi meglio, passare da un foglio di raccolta dati in campo con valore statistico a fini metrologici, che quindi rileva e analizza una quota dei valori in gioco, a una strumentazione automatica che prende in esame la totalità dei campioni, elaborabile molto più facilmente e con esigui costi di processo del dato, è sicuramente un approccio che risponde all’esigenza del miglioramento continuo. Nel nostro mondo, quando usavamo le carte macchina, nelle quali venivano registrati i dati manualmente (per poter essere analizzati in maniera compiuta, essi dovevano essere inseriti in un secondo tempo in un foglio di calcolo al computer), si generava uno spreco di risorse umane importante e senza valore aggiunto. Oggi, con l’avvento della rilevazione in campo, attraverso l’ausilio di sistemi di pesatura automatici che dialogano in tempo reale con i sistemi gestionali aziendali, siamo in grado di ridurre drasticamente i costi di raccolta e inserimento dati e, soprattutto, di analizzare compiutamente i processi produttivi disponendo dell’aggiornamento puntuale dei magazzini. Tutto questo risponde non solo agli obblighi metrologici, ma anche a quelli tipici del mondo alimentare legati alla tracciabilità e rintracciabilità delle produzioni.

METROLOGIA LEGALE

erogano tali servizi, di cui fornisco un esempio: – Accettazione Domanda e Primo Esame Documentale: 1.550 euro; – Verifica presso la sede del richiedente: 4.500 euro. “Presentazione della Pratica di Accreditamento al CSA ON A di ACCREDIA per la valutazione dell’Accreditamento dell’Organismo (l’Accreditamento ha validità quadriennale ed è soggetto a verifiche di sorveglianza periodiche)”; – Verifica in Accompagnamento (se applicabile in base alla tipologia di Accreditamento richiesto): 1.800 euro; – Prima Verifica di Sorveglianza: 4.500 euro (in generale a circa sei mesi dalla data di Accreditamento; in tale occasione è possibile includere l’effettuazione di una o più Verifiche in Accompagnamento); – Seconda Verifica di Sorveglianza: 4.500 (come al punto precedente); – Terza Verifica di Sorveglianza: 4.500 (come al punto precedente); Inoltre vanno aggiunti i Diritti Annui di Registrazione (2.000 euro, che nel primo anno saranno rapportati agli effettivi giorni di accreditamento) e i costi per il mantenimento del laboratorio, con particolare attenzione alla taratura certificata di tutti i campioni utilizzati. Come si può notare sono costi veramente proibitivi che, purtroppo, vengono scaricati sulle spalle del produttore a discapito della sua competitività sul mercato. (M. Zanetti) Ritengo la normativa attuale per gli strumenti automatici adeguata allo scopo e con finalità condivisibili; la complessità è proporzionale al tipo di strumento e al suo utilizzo. L’esperienza, del tutto simile, di armonizzazione europea per gli strumenti non automatici, iniziata negli anni ‘90, ha insegnato che il periodo transitorio è caratterizzato da costi maggiori, dovuti alla fase d’interpretazione delle norme da parte delle industrie produttrici e dalle entità preposte alla vigilanza-sorveglianza del mercato.

T_M ƒ 297


NUOVO CATALOGO DI SENSORI IMI-sensori, una divisione di PCB Piezotronics Inc., il più grande produttore al mondo di strumentazione industriale per monitoraggio delle vibrazioni tramite accelerometri, trasmettitori e interruttori di vibrazioni, ha annunciato l’uscita del suo nuovo catalogo industriale sui sensori. Il catalogo offre una vasta gamma di nuovi ed esistenti sensori di vibrazioni industriali, interruttori, strumentazione e altri accessori utilizzati per il monitoraggio e la manutenzione di macchinari industriali per prevedere e proteggere i tempi d’inattività. La nuova edizione 2012 offre sezioni dei prodotti presentati per applicazioni e per tecnologia. Una sezione tecnica avanzata prevede appunti e materiali di riferimento che forniscono informazioni preziose sulla

T_M ƒ 298

N. 04ƒ ; 2012

NEWS

METROLOGIA LEGALE

selezione del sensore, tecniche di montaggio, oltre a suggerimenti per l’installazione. Con la nuova edizione anche una sezione “Consigli”, che fornisce risposte alle domande più frequenti, direttamente da parte di autorevoli esperti in materia. Inoltre, questo numero è dedicato a diversi nuovi prodotti, tra cui la Eco System® Wireless, accelerometri a basso profilo dimensionale, accelerometri ad alta temperatura e sensori di vibrazione USB programmabili. “Oltre a selezionare il sensore più adatto, i nostri clienti hanno bisogno di ottenere misure affidabili e precise per la manutenzione

preventiva e il monitoraggio del processo” – ha dichiarato Harold Scott, Vice Presidente di IMI-Sensori – A tal fine, il nostro nuovo catalogo fornisce le informazioni necessarie per aiutare non solo nel processo di selezione, ma anche nella realizzazione”. Una copia gratuita del catalogo può essere richiesta alla Pcb Piezotronics srl (www.pcbpiezotronics.it) oppure può essere scaricata dal sito www.imi-sensors.com/catalog. A proposito di IMI Sensors (www.imi-sensors.com) I suoi sensori, con robuste custodie in acciaio inox, sopravvivono in ambienti difficili, come cartiere, acciaierie, miniere, impianti di trattamento delle acque e centrali elettriche. Facili da integrare con analizzatori portatili e PLC, contribuiscono in maniera significativa al lavoro dei reparti di manutenzione per ridurre i tempi d’inattività e proteggere i macchinari critici. Veloci nella consegna.


N. 04ƒ ;2012 (F. Basilico) A livello europeo, la normativa che regola l’immissione sul mercato e l’utilizzo di uno strumento per pesare automatico è sufficientemente lineare e chiara. Tale scenario si presenta diverso quando si entra nel campo della legislazione nazionale: sarebbe necessario definire, per la metrologia legale in generale, un corpus legislativo efficace e al contempo snello, puntuale e preciso, in grado di rendere più semplice la comprensione delle richieste normative. Purtroppo l’attuale legislazione nazionale è spesso lacunosa e contraddittoria (ad esempio, la legislazione sulla verificazione periodica, differente a seconda che si tratti di strumenti automatici MID e strumenti automatici non MID), oltre che di difficile reperimento (basti pensare alle diverse circolari ministeriali interpretative di leggi che, invece, dovrebbero essere facilmente utilizzabili), determinando così una profonda difficoltà di comprensione da parte degli addetti ai lavori, fabbricanti metrici e utenti metrici. La legislazione relativa alla Metrologia Legale andrebbe profondamente rivista e aggiornata, adattata al progresso tecnologico e alle nuove esigenze produttive; tale processo di revisione dovrebbe inoltre essere effettuato da effettivi esperti del settore, al di là di logiche corporative, e per una miglior comprensione e utilizzo della disciplina, da parte di tutti gli addetti ai lavori. Ritengo che al momento ci siano altri tre problemi che contribuiscono a rendere di faticosa applicazione questa disciplina. Innanzitutto la scarsità di notizie e informazioni univoche e puntuali, che siano reperibili su canali ufficiali, relativamente alla normativa, sia per i fabbricanti sia per gli utilizzatori, con la conseguente difficoltà, da parte soprattutto dei primi, di conoscere esattamente gli adempimenti da seguire. Spesso lo si impara

Una volta chiarite, per quanto possibili, le interpretazioni delle norme tecniche e legali (a questo proposito sono stati di enorme aiuto i contributi del WELMEC/OIML e dei confronti fra Organismi Notificati e produttori), i costi e la burocrazia sono diminuiti.

METROLOGIA LEGALE

bili per il mercato. Il concetto di competitività include ovviamente non solo il prezzo, ma consiste di una valutazione complessa e comparata tra prezzo e qualità del prodotto. Gli elementi relativi al prezzo (entità, mezzi di pagamento e dilazione) si presentano abbastanza chiaramente alla valutazione degli operatori; diverso è il caso degli aspetti prestazionali di uno strumento di misura, specialmente ove inserito in un contesto produttivo complesso e articolato, come nel caso dei generi alimentari, soggetti a cali di peso e al deterioramento organolettico. La complessità delle situazioni richiede evidentemente la scelta di un processo e di uno strumento di misura adeguato alla situazione, in grado di ottimizzare la combinazione dei diversi fattori produttivi. In tal caso il fabbricante avrà modo di offrire la propria esperienza e competenza, suggerendo il tipo di strumento adatto alle esigenze dell’impresa confezionatrice o produttrice. Una buona sinergia tra fornitore e utilizzatore di strumento di misura genera, qualora (E. Loss) Sicuramente una normativa condotta efficacemente, un’opportunirisalente agli anni ‘90 e precedenti ha tà di competizione piuttosto che un bisogno, con l’evoluzione dei sistemi aggravio dei costi. informatici e della ricerca applicata, di un aggiornamento, soprattutto in (G. Blandino) L’utilizzatore di strufunzione delle nuove tecnologie di menti di misura utilizzati nell’ambito pesatura automatica e della loro omo- della Metrologia Legale dovrebbe logazione metrica. In particolare que- comportarsi come il produttore: prima st’ultimo punto, imprescindibile per la di acquistare uno strumento è consinorma, rende onerosa la gestione di gliabile rivolgersi a Organismi Notifistrumenti che sono inseriti in un mon- cati per la tipologia dello strumento do molto dinamico, come la produ- che l’utilizzatore vorrebbe acquistare. zione industriale. In questo caso il sito Web della Comunità Europea (http://ec.europa. eu/enterprise/newapproach/ D.: Secondo Voi, come deve nando) può esserci d’aiuto per conomuoversi l’azienda utilizzatrice scere gli Organismi Europei Notificati di strumenti e servizi in ambito (Notified Body), selezionabili per varie di Metrologia Legale? Potete tipologie: Direttiva, Paese, Numero, suggerire un “percorso” ideale ecc. L’Organismo Notificato può fornirda compiere per trasformare ci delucidazioni sulle normative metrol’obbligo di conformità in logiche in vigore, in modo da evitare un’opportunità competitiva? di acquistare uno strumento che non risponda ai requisiti che l’Utente utiliz(M.C. Sestini) Ciascuna impresa zatore deve garantire nei confronti del desiderosa di competere organizza i Consumatore. fattori produttivi di cui dispone in mo- L’Organismo Notificato può inoltre do da offrire prodotti e servizi appeti- comunicare agli Utenti utilizzatori l’e-

solo per esperienza diretta, quando si inizia la pratica per ottenere il certificato CE di uno strumento per pesare. In secondo luogo, la mancanza di una capillare attività di sorveglianza del mercato, a causa spesso di problemi oggettivi di organico e d’incarichi dei soggetti preposti a tali attività (i servizi metrici delle CCIAA provinciali); tale carenza rende gli utenti metrici sempre meno sensibili relativamente alla disciplina sugli strumenti per pesare, oltre a non stimolare un processo di ricerca delle conoscenze e delle competenze. In terzo luogo, non meno importante, un problema di “cultura” metrologica: gli utenti metrici spesso considerano uno strumento per pesare come un mero strumento di lavoro, non tenendo in conto che tramite esso, in realtà, si garantisce ad esempio la lealtà delle transazioni commerciali. Allo stesso modo il fabbricante metrico tende a svalutare i requisiti metrologici, perché non riceve ritorni positivi dal mercato, e quindi la gestione della Metrologia Legale finisce per diventare “solo un costo”.

T_M ƒ 299


N. 04ƒ ; 2012

NEWS

NUOVE TERMOCAMERE VELOCI AD ALTA RISOLUZIONE Le nuove PI400 e PI450 ben completano la famiglia OPTRIS di telecamere a infrarossi. Le due nuove versioni sono state introdotte sul mercato in aggiunta alle consolidate PI160 e PI200. Con le dimensioni di soli 56 x 46 x 90 mm3, PI400 è la più piccola termocamera della sua classe, con un peso di soli 320 g, obiettivo incluso! Inoltre, le nuove arrivate offrono un’eccellente sensibilità termica: 80 mK per la PI400 e ben 40 mK per la PI450. Le immagini termografiche a infrarossi e i video possono essere visualizzati e registrati alla massima risoluzione di 382 per 288 pixel a una velocità di misura di ben 80 fotogrammi al secondo. Rispetto alle precedenti termocamere IR, ciò significa che i pixel disponibili sono quattro volte di più per la stessa superficie di analisi. In combinazione con l’obiettivo appropriato (con

T_M ƒ 300

apertura 30° o 13°), la termocamera permette quindi misurazioni più dettagliate e aumenta il campo delle applicazioni. Questa termocamera robusta (IP67/NEMA4) è ideale per l’uso in applicazioni R&D, nei laboratori o in processi industriali automatizzati. Con la disponibilità di accessori di qualità industriale, come la custodia di raffreddamento con flangia di montaggio per alta temperatura e il cavo USB, la termocamera può essere impiegata anche in condizioni estremamente gravose. Un supporto di montaggio, la custodia protettiva e il connettore angolato sono disponibili come elementi opzionali. Il pacchetto comprende il software Connect che offre funzionalità per l’analisi completa delle immagini termiche, la registrazione dei dati e l’integrazione con processi automatizzati. Il cavo USB può essere esteso fino a 10 km con cavi in fibra ottica. L’interfaccia di processo analogico/digitale (PIF) e il driver open source per l’integrazione di software tramite DLL, ComPort e LabVIEW agevolano l’integrazione nelle reti e processi automatizzati da parte degli integratori di sistema. Per ulteriori informazioni: www.luchsinger.it


N. 04ƒ ;2012 (M. Zanetti) In modo sempre più puntuale i vari stati membri della Comunità Europea, e in generale del mondo, puntano a standardizzare la funzione di salvaguardia della fede pubblica nelle transazioni commerciali. La complessità dei sistemi di pesatura e il progresso tecnologico (vedi, ad esempio, l’importanza del software di controllo) impongono frequenti aggiornamenti dei livelli di tutela. Al fine di avere “regole” certe, chiare e al passo con i tempi per produttori, consumatori e persone dedicate ai controlli, è bene che siano condivise e codificate norme che stabiliscano i “requisiti minimi” che uno strumento per misurare deve soddisfare. Un’azienda utilizzatrice, al momento dell’acquisto di uno strumento, deve avere ben chiaro quali prestazioni richiedere allo strumento in modo da garantire a sua volta il proprio cliente. Le prestazioni necessarie sono descritte dalla Metrologia Legale. La

conformità alle normative è la garanzia, esplicitata da un organismo terzo, dell’adeguatezza del sistema di misura. Di conseguenza, prodotti processati con strumenti conformi “ereditano” una patente d’idoneità e garanzia a essere immessi sul mercato. (F. Basilico) Innanzitutto occorre individuare una figura al proprio interno, da formare per l’acquisizione delle necessarie conoscenze della Metrologia Legale, purtroppo spesso carenti nelle diverse aziende; spesso si tende a “delegare” tale funzione a qualche società esterna, ma occorre evitare di appoggiarsi a consulenti “improvvisati”, come frequentemente accade. Purtroppo la Metrologia Legale è spesso poco conosciuta, oltre che poco apprezzata, poiché vista soprattutto come elemento cogente. Individuata e formata la persona che si occupa delle problematiche di Metrologia Legale, è necessario che l’azienda (ma anche il piccolo negozio a conduzione familiare) trovi comunque il modo di pubblicizzare il proprio corretto atteggiamento nel campo della Metrologia Legale, soprattutto perché è a vantaggio del cliente, oltre che di se stessa. Penso che a nessuno faccia piacere scoprire di aver venduto quantità in eccedenza solo perché il proprio strumento non era stato controllato periodicamente; o, viceversa, il cliente potrebbe non tornare in un negozio laddove trovi bilance o strumenti che non sono stati controllati da più di 6 anni! Ma anche chi si preoccupa che gli strumenti siano in regola tende a non dare risalto a questo aspetto, quasi fosse una cosa che è meglio tenere nascosta per non dare troppo nell’occhio! Strano, il cliente dovrebbe sapere che gli strumenti che usiamo per lui sono controllati e in regola con la legislazione vigente e, quindi, non rischierà di pagare di più o ricevere meno materiale a causa di un difetto dello strumento non adeguatamente controllato. La competizione ormai non è più solo sul prezzo, ma anche sulla qualità dei “dettagli” (sebbene per uno strumento di misura non si può parlare di “dettaglio”): trasmette-

lenco dei produttori che posseggono strumenti di misura in possesso d’idonea certificazione, evitando così di fare incauti acquisti che dopo dovrebbero rottamare. A tali produttori, selezionati secondo criteri di competenza e professionalità, potrebbero richiedere strumenti con caratteristiche tecniche in grado di soddisfare le proprie specifiche esigenze, con particolare attenzione per le peculiarità che lo strumento dovrà sostenere per il suo utilizzo (zone pericolose, ambienti polverosi, umidi, gravosi, ecc.). Personalmente sono stato testimone di un caso in cui un produttore di cemento, che vendeva il prodotto confezionato in sacchi da 25 kg, aveva acquistato una selezionatrice ponderale in possesso di Certificazione MID: lo strumento era in possesso dei requisiti metrologici legali ma non adatto al gravoso utilizzo in un ambiente fortemente polveroso. Il produttore, dopo alcuni mesi, dovette sostituire lo strumento con un altro, costruito appositamente per soddisfare quelle specifiche esigenze. Un costo ingente, che avrebbe potuto risparmiare, se a priori fosse stato messo in condizioni di conoscere lo specifico mercato…

METROLOGIA LEGALE

re fiducia a un cliente affinché questo ritorni non penso sia una cosa trascurabile, e il ritorno dovrebbe essere di gran lunga superiore all’investimento. (E. Loss) L’azienda che deve affrontare l’argomento della Metrologia Legale deve valutare le proprie necessità in funzione delle tipologie dei prodotti e della numerosità dei lotti per le varie tipologie merceologiche. Individuate le proprie esigenze, occorre avvicinarsi al mercato dei fornitori di strumenti, valutandone l’esperienza nel settore di appartenenza e quindi la capacità di rispondere coerentemente agli obiettivi. D.: Sulla base dell’esperienza sviluppata nel Vostro ambito specifico, come può concretamente essere utile a un’azienda utilizzatrice un approccio “intelligente” alla Metrologia Legale, alle esigenze di conformità richieste da specifiche normative cogenti? (M.C. Sestini) Un’impresa che produce, ad esempio, preconfezionati può opportunamente utilizzare uno strumento per pesare a funzionamento automatico, recante i marchi di conformità alla direttiva MID, che consente di risparmiare il personale e il tempo utilizzato nei controlli ex post in assenza di uno strumento legale di misurazione. Né è ammissibile, ragionando in termini di impresa, ignorare la legislazione vigente, che richiede comunque che i prodotti preconfezionati rispettino alcuni parametri, in quanto la logica per lotti espone al rischio del ritiro dell’intero lotto, con la determinazione di un danno complessivo assai superiore all’investimento richiesto inizialmente nell’acquisto di uno strumento di misura legale. È evidente come la logica di programmazione e pianificazione, sia a livello finanziario sia in termini di ottimizzazione del processo produttivo, reclami la competenza del produttore di strumenti di misura nel marketing, generando da un lato risparmi sui costi di personale, che può essere impiegato nel miglioramento della qualità del pro-

T_M ƒ 301


N. 04ƒ ; 2012

METROLOGIA LEGALE

dotto e nella promozione pubblicitaria, dall’altro evitando lo spreco di riempire ad abundantiam per il solo timore di cadere nei rigori della legge. Nell’era della globalizzazione la competizione, altrettanto globale o quasi, è fatta anche di competenze e conoscenze. (G. Blandino) Personalmente, prima d’iniziare un iter di certificazione, invito i miei potenziali clienti a incaricare il responsabile della progettazione di frequentare un corso appropriato per la conoscenza delle norme utili per poter correttamente costruire i propri strumenti. Questo investimento iniziale consente di ottenere in tempi brevissimi importanti risultati, con grandi vantaggi dal punto di vista sia della professionalità sia economico. Un esempio reale che conferma la bontà di questa scelta è quello vissuto da una società emiliana, produttrice leader di selezionatrici ponderali, che fino all’anno scorso non possedeva un Sistema di Garanzia della Qualità della Produzione. Questa certificazione consente al produttore di autocertificare i suoi prodotti in sostituzione dell’Organismo Notificato. Questa azienda si è affidata alla nostra organizzazione che, attraverso corsi di formazione personalizzati nell’ambito della Metrologia Legale, l’ha aiutata a raggiungere la Certificazione del suo Sistema di Garanzia della Qualità della Produzione. Oggi quest’azienda possiede un laboratorio metrologico attrezzatissimo, in grado di svolgere tutte le prove metrologiche di verifica iniziale richieste dall’OIML R51, e ha ottenuto l’autorizzazione per la Verifica Prima sulle selezionatrici ponderali di propria fabbricazione. Inoltre, è in procinto di ottenere l’idoneità alla verificazione periodica degli strumenti per pesare a funzionamento automatico e non automatico. Gli investimenti effettuati per la realizzazione del laboratorio e soprattutto, per la formazione del personale hanno consentito all’azienda di posizionarsi solidamente fra le realtà maggiormente preparate del proprio settore, con ovvi vantaggi a livello competitivo.

ha finalità in accordo con quelle dei sistemi di gestione della Qualità, ampliandone gli orizzonti. Aziende produttrici di preconfezionati che si sono dotate di strumenti di misura accurati e conformi, (anche nel tempo) hanno potuto, grazie ai risultati delle misure, regolare in modo efficace la loro produzione diminuendo i sovradosaggi senza rischiare di incorrere in sanzioni. Diversi sono gli esempi di aziende che per affrontare nuovi mercati emergenti, spesso con uffici doganali molto severi, hanno convenuto con questi ultimi il grado di fiducia/ accettazione dei loro prodotti solo dopo aver dimostrato che sono stati misurati con strumenti conformi alle raccomandazioni internazionali della Metrologia Legale.

(F. Basilico) Soprattutto se affrontato in maniera seria e approfondita, lo strumento della Metrologia Legale può sicuramente essere motivo di sviluppo di conoscenze e competenze, che è poi quello che permette di sviluppare il proprio mercato. Per le piccole aziende produttrici questo è un punto focale per il proprio sviluppo. Un nostro cliente di strumenti per pesare automatici ha iniziato anni fa a occuparsi con serietà delle problematiche legate alla Metrologia Legale e, in breve, è stato in grado di ottenere approvazioni nazionali e CE dei propri strumenti e indicatori di peso, oltre che l’approvazione CE MID dei propri strumenti. Ora ha ampliato il proprio mercato, i suoi strumenti sono apprezzati anche per la facilità d’uso e l’affidabilità e, non ultimo, ha acquisito conoscenze di Metrologia Legale che gli permettono di muoversi agevolmente in questo settore. Un’altra azienda del settore alimentare, utilizzatrice di strumenti metricolegali, ha intrapreso con serietà e attenzione la gestione della verificazione periodica dei propri strumenti metrico-legali, inizialmente con il classico atteggiamento di “fastidio” legato appunto a un “dovere” e alle contraddittorie e spesso erronee conoscenze (M. Zanetti) La Metrologia Legale acquisite nel tempo da interlocutori

T_M ƒ 302

diversi e non sempre preparati. Nel tempo, tuttavia, la sistemazione del parco strumenti dal punto di vista metrico-legale ha dato loro una maggiore tranquillità dal punto di vista normativo, una maggiore facilità di gestione della strumentazione e la consapevolezza che l’impegno richiesto per una corretta gestione della strumentazione fosse molto meno oneroso di quanto si aspettassero inizialmente. Un approccio serio, coerente e professionale alla Metrologia Legale e alle sue regole può aiutare a sviluppare la propria attività, rendere gli strumenti più competitivi e confrontarsi con maggiore facilità con la strumentazione proveniente dagli altri Paesi europei, da più tempo attenti alle regole normative. L’approccio “intelligente” delle aziende deve comunque essere associato a un approccio “intelligente” del legislatore, affinché alle aziende e a tutti i soggetti interessati siano consegnati strumenti che consentano di competere “ad armi pari” sul mercato quantomeno europeo. (E. Loss) Nel nostro caso, nel momento in cui si è evidenziata la necessità di passare da una gestione tradizionale cartacea delle rilevazioni in campo a una raccolta dati informatizzata, le tecnologie di pesatura sono diventate la naturale interfaccia tra l’operatore in campo e il sistema gestionale, saltando a piè pari la fase onerosa e senza alcun valore aggiunto dell’inserimento dei dati raccolti in forma cartacea. Un utilizzo atipico è dove si ha la necessità di dosare un prodotto a peso fisso controllandone il peso ancora con il contenitore aperto (linee di confezionamento o di dosaggio vaschette di salumi affettati), permettendo lo scarto dei prodotti fuori limite con le logiche della Metrologia Legale dei prodotti con peso fuori range e la correzione, prima che la confezione sia sigillata e quindi difficilmente recuperabile. Questo tipo di approccio permette inoltre di arrivare a un peso medio molto prossimo al dichiarato, così da ottimizzare il dosaggio con un puntuale contenimento dei costi.


SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo

Dalle Associazioni Universitarie di Misuristi

di IEC, e di sviluppare e mantenere l’International Electrotechnical Vocabulary (IEV, norme della serie IEC This section groups all the significant information from the main University 60050, accessibili via web come Associations in Measurement Science and Technology: GMEE (Electrical Electropedia, and Electronic Measurement), GMMT (Mechanical and Thermal Measure- www.electropedia.org). ments), AUTEC (Cartography and Topography), and Nuclear Measurements.

THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT

RIASSUNTO

Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. IMPORTANTI INCARICHI A LUCA MARI E ROBERTO BUCCIANTI NELLA IEC

Il TC 25 sviluppa e mantiene, congiuntamente con ISO le norme della serie ISO/IEC 80000, che definiscono grandezze fisiche e unità corrispondenti, in accordo al Sistema Internazionale (in effetti, la serie 80000 estende quest’ambito tradizionale, poiché la parte 80000-13 tratta di “Information science and technology” e la parte 80000-14 di “Telebiometrics related to human physiology”). Il TC 1 ha lo scopo di coordinare gli aspetti terminologici di tutte le attività

Nel contesto dell’International Electrotechnical Commission (IEC), recentemente Luca Mari e Roberto Buccianti sono stati nominati rispettivamente segretario e assistente segretario del comitato tecnico 25 (Quantities and units) e Luca Mari è stato eletto presidente del comitato tecnico 1 (Terminology).

ASSEMBLEA DEL GRUPPO GMEE A MONOPOLI

L’Assemblea del GMEE si è riunita il giorno 5 settembre 2012, presso il Palazzo dei Congressi, Porto Giardino Village, C.da Lamandia 16/A, Località Capitolo, Monopoli (BA). Il Presidente Giovanni Betta ha aperto la seduta con informazioni riguardo ai principali avvenimenti tecnicoscientifici che hanno riguardato la strumentazione e le misure nell’anno appena trascorso. Di particolare rilievo il contributo dei ricercatori del GMEE alle ricerche per la scoperta del Bosone di Higgs e il prestigioso Carrier award consegnato dalla IEEE Instrumentation and Measurement Society al collega Mario Savino. Il Presidente ha inoltre illustrato i principali eventi che vedono impegnato il GMEE nel prossimo anno. È stato poi illustrato il contributo dell’Associazione ai lavori dei comitati

franco.docchio@ing.unibs.it

T_M

N.

4/12 ƒ 303


normatori UNI-CEI e alla stesura del Vocabolario di metrologia. Il Presidente ha quindi esposto lo stato delle iniziative ministeriali riguardanti la Valutazione della Qualità della Ricerca (VQR), le abilitazioni scientifiche nazionali per professori universitari, e le procedure per l’accreditamento, valutazione e autovalutazione dei corsi di studio universitari. Il Direttore di Tutto_Misure Franco Docchio ha presentato all’Assemblea alcune statistiche concernenti i contributi alla rivista nell’anno appena trascorso e il bilancio economico. Ha inoltre informato l’Assemblea che alcuni articoli di carattere storico, tratti da Tutto_Misure, saranno pubblicati nella rivista IEEE Instrumentation and Measurement magazine. Il Presidente Giovanni Betta ha presentato i vincitori del Premio Carlo Offelli per la migliore tesi di dottorato e della borsa di studio GMEE per attività di ricerca all’estero. L’Assemblea ha preso atto dell’elevata qualità di tutte le proposte di ricerca presentate dai candidati a entrambi i concorsi. Dalla discussione è emersa la necessità di migliorare il coordinamento e le sinergie con i ricercatori che operano in altri settori nell’area delle tecnologie elettriche e dell’informazione, oltre che una maggiore informazione sulle attività didattiche nelle diverse sedi a seguito della riorganizzazione degli atenei avvenuta a seguito della “riforma Gelmini”. Sono tate infine discusse le attività concernenti la Giornata della Misurazione, tenuta a Roma lo scorso giugno, e alla Scuola estiva per addottorandi “Italo Gorini”, che nel 2013 si terrà a settembre a Padova. La prossima riunione del GMEE sarà tenuta a Trento, dal 9 al 12 settembre 2013.

gio Porto Giardino, il 5 settembre 2012. Come già l’anno precedente, ampio spazio è stato dedicato alla discussione degli argomenti oggetto della seduta del giorno precedente, svolta insieme ai colleghi del Gruppo di Misure Elettriche ed Elettroniche. Quest’anno l’interesse è stato notevolmente amplificato anche e soprattutto in virtù dell’importanza del principale tema trattato, ossia quello delle abilitazioni nazionali. C’è, infatti, una più che giustificata attesa da parte di tutti, dopo anni di fermo nei confronti di qualsiasi tipo di progressione di carriera. Il tema appare poi decisamente complesso, con dettagli da sviscerare e non sempre ben compresi, a partire dalla base di dati iniziale. È comunque stato costatato e confermato il buon clima di lavoro e collaborazione tra i colleghi dei due gruppi, che cominciano a conoscersi e a condividere progetti e ricerche, comprendendo similitudini e peculiarità dei due ambiti. Come sempre l’assemblea è un momento di bilancio: quest’anno non abbiamo dovuto salutare colleghi avviati alla pensione, ma ci siamo congratulati con numerosi giovani colleghi che sono entrati nei nuovi ruoli. Secondo la tradizione del gruppo, alcune persone che da tempo lavorano come tecnici laureati, spesso solo per mancanza di possibilità più adeguate alle loro capacità, sono ammesse all’Assemblea con pieni diritti, compresi quello di voto; quest’anno è stata presentata e approvata all’unanimità la candidatura di Vittorio Belotti di Genova. Il collega Paone, attenendosi scrupolosamente ai vincoli di riservatezza imposti dal ruolo, ha poi esposto un’interessante presentazione su alcune sintesi di dati già pubblicati sul sito MIUR, in vista della valutaASSEMBLEA DEL GRUPPO GMMT zione della qualità del sistema universitario nazionale: è stata un’ottiA MONOPOLI ma occasione per avere una visione L’Assemblea del gruppo di Misure originale e di sintesi sulle nostre attiMeccaniche e Termiche ha avuto vità. luogo a Monopoli, presso il Villag- Rimangono poi confermate le volon-

T_M ƒ 304

N. 04ƒ ; 2012

SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

tà di sostenere la Giornata della Misurazione, altro momento di comunanza tra i due settori di Misure Meccaniche e Termiche e Misure Elettriche ed Elettroniche, e lo svolgimento delle riunioni annuali congiunte per i due settori. Un arrivederci dunque al prossimo anno a Trento. GMEE: PARTECIPAZIONE AL PROGETTO DI.TR.IM.MIS.

Il GMEE partecipa al progetto denominato “DIffusione e TRasferimento di tecnologie a IMprese nel settore delle MISure” (acronimo DI.TR.IM.MIS.), ammesso a finanziamento nel Programma RIDITT (Rete Italiana per la Diffusione dell’Innovazione e il Trasferimento Tecnologico alle imprese) del Ministero dello Sviluppo Economico. Il capofila del progetto DI.TR.IM.MIS. è l’Università del Sannio. Altri partner del progetto sono: l’Università dell’Aquila, il Politecnico di Bari, l’Università della Calabria, l’Università di Reggio Calabria, nonché le Associazioni Provinciali Confindustria di Benevento, dell’Aquila, di Taranto, e di Cosenza. Lo sviluppo della ricerca pubblica nell’ambito della metrologia è stato da sempre stimolato dalle esigenze di commercio e dell’economia. A tal fine è necessario coinvolgere tutti i livelli di attività, da quelli locali a quelli nazionali, regionali e internazionali. Al momento, secondo specifici studi, l’attuale anello debole della catena è proprio quello rappresentato dagli utilizzatori finali della metrologia, sia nei settori della produzione sia in quello dei servizi. Tramite il progetto DI.TR.IM.MIS. s’intende, quindi, trasferire ai potenziali utilizzatori finali sia informazioni, sia know-how, quest’ultimo sempre più frequentemente richiesto, in particolare quando non esistono


N. 03ƒ ;2012

indotto dalla diffusione delle tecnologie stesse. Le sedi di Confindustria locali hanno aderito al progetto con l’intento d’intensificare la conoscenza e l’utilizzo dello strumento delle misure nell’ambito del tessuto imprenditoriale provinciale, proprio al fine di attribuire alle imprese provinciali quante più opportunità possibili. Nella società attuale, infatti, risulta sempre più importante avere informazioni sulle infrastrutture metrologiche, indispensabili per supportare il libero commercio mondiale, sia da parte degli organismi internazionali direttamente coinvolti, sia da parte dei governi nazionali. In generale, le Nazioni industrializzate sono meglio preparate, rispetto ad altre, ai nuovi requisiti previsti dalla normativa di riferimento. Infatti, secondo le ultime stime della Commissione Europea, l’impegno finanziario per il settore delle misure, in un Paese industrializzato, è compreso tra il 5% e il 6% del Prodotto Interno Lordo. Questo si tramuterebbe, nel nostro Paese, in una spesa ragguardevole, paragonabile a quella del servizio sanitario nazionale. DI.TR.IM.MIS. rappresenta, tramite i suoi obiettivi scientifici, un’occasione di notevole importanza per il partenariato coinvolto, per i territori e gli utilizzatori sui quali va a impattare, in quanto permette d’instaurare la sinergia fra mondo della ricerca e mondo industriale di cui tanto si parla e che in questo progetto vede un’opportunità concreta di realizzazione. Il partner GMEE rappresenta un canale preferenziale per promuovere la possibilità di accedere alle tecnologie e per diffondere i risultati del progetto, anche attraverso i suoi Convegni Annuali, i suoi Congressi Scientifici specifici e la sua rivista ufficiale Tutto_Misure. L’edizione 2012 del congresso GMEE è stata particolarmente incentrata sulle tematiche del progetto, avendo come obiettivo prioritario quello di fornire alle imprese un quadro esaustivo e aggiornato dei sistemi e delle tecnologie innovative di misura, pronti per il loro ottimale trasferimento al sistema

percorsi istituzionalizzati lungo i quali possa essere effettuato il trasferimento. Il progetto ha in particolare l’obiettivo di valorizzare i risultati della ricerca pubblica nazionale nel settore delle misure elettriche, elettroniche ed elettroottiche, individuando quali possano apportare i maggiori benefici al tessuto delle PMI delle aree depresse delle province dell’Aquila, Benevento, Taranto e Cosenza (per poi estendere l’approccio prima alle intere aree regionali di Abruzzo, Campania, Puglia e Calabria e, successivamente, a livello nazionale) e operando la loro diffusione e trasferimento tecnologico in tali aree. Le imprese (o utilizzatori finali) non sono abbastanza informate sull’utilizzo del concetto di catena di riferibilità per la generazione di fiducia delle misure. Si ricorda, infatti, che il WTO (World Trade Organization) ha creato, a seguito dell’accordo sulle barriere tecniche al commercio, un codice di regolamentazione per l’istituzione di norme nazionali e la conseguente esecuzione di verifiche di conformità. Per conseguire l’obiettivo di “un’unica prova conclusiva” sono stati sviluppati, dalle organizzazioni internazionali, strumenti che consentono di dimostrare e documentare la competenza dei laboratori di prove e di taratura. DI.TR.IM.MIS. ha coinvolto molteplici partner proprio con l’obiettivo di garantire la massima penetrazione a livello territoriale degli strumenti esistenti nell’ambito della misurazione. Non è un caso, quindi, che siano state individuate determinate aree quali, L’Aquila, Benevento, Taranto e Cosenza, per poi estendere l’approccio prima alle regioni quali Abruzzo, Campania, Puglia e Calabria e, successivamente, a livello nazionale. Attraverso il trasferimento dei risultati della ricerca nel settore delle misure elettriche principalmente nelle aree indicate, è possibile sollecitare la nascita di nuove imprese ad alta tecnologia che industrializzino e commercializzino le tecnologie introdotte e siano in grado di erogare servizi a elevato valore aggiunto sul mercato

SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

produttivo nazionale. Nell’ambito delle attività di diffusione previste dal progetto DI.TR.IM.MIS. è stata supportata l’organizzazione del XX Congresso Nazionale GMEE, che si è tenuto a Monopoli nel settembre 2012, e la XII edizione della scuola estiva dell’International Measurement Konfederation TC-4 sui sistemi di acquisizione dati distribuiti, che si è tenuta nel luglio 2012 presso l’Università della Calabria. Il progetto DI.TR.IM.MIS. è strutturato nelle attività di seguito elencate: A. Attività di studio e analisi A.1 – Analisi dei bisogni d’innovazione del tessuto produttivo A.2 – Analisi del gap tecnologico tra ricerca e imprese A.3 – Definizione delle tecnologie di ricerca da trasferire A.4 – Valutazione e definizione delle metodologie di trasferimento A.5 – Realizzazione di programmi formativi B. Attività di promozione, diffusione e dimostrazione B1.1 – Pianificazione e realizzazione di audit alle aziende del territorio B1.2 – Definizione e realizzazione di eventi e workshop B2.1 – Individuazione dei canali degli strumenti e delle metodologie di diffusione B2.2 – Realizzazione portale delle tecnologie B2.3 – Realizzazione di pubblicazioni dedicate al trasferimento di tecnologia B2.4 – Affiancamento di ricercatori universitari al personale tecnico delle aziende B3.1 – Definizione e realizzazione di prototipi/impianti pilota B3.2 – Realizzazione di test dimostrativi C. Attività di sostegno alla creazione di nuove imprese ad alta tecnologia. C. 1 – Tutoraggio nella redazione di studi di fattibilità e di progetti C.2 – Supporto nel reperimento di risorse finanziarie C.3 – Allestimento di un incubatore DI.TR.IM.MIS. C.4 – Realizzazione di uno sportellovolano Per ulteriori informazioni è possibile

T_M ƒ 305


N. 04ƒ ; 2012

SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

rivolgersi al Responsabile Scientifico del progetto, Prof. Pasquale Daponte, Università del Sannio, Facoltà di Ingegneria, P.zzo Bosco-Lucarelli, Piazza Roma, 82100 Benevento.

“ENergy-Aware CompuTing (ENACT)”, coordinata dall’Ing. Pianegiani per conto della Libera Università di Bolzano, è stata finanziata dalla Commissione Europea. L’evento e una breve descrizione del progetto sono stati pubblicati tra le news del Dipartimento di Electrical Engineering and Computer Sciences (EECS) della University of California at Berkeley: www.eecs.berkeley.edu. Complimenti all’Ing. Pianegiani per l’importante risultato!

GMEE: APPROVAZIONE DI UN PROGETTO EUROPEO A BOLZANO

NEWS

Un’importante notizia ci è giunta dall’Ing. Fernando Pianegiani, membro GMEE. La proposta di progetto

MISURAZIONE ANALOGICA E TARATURA DI CENTRALINE Ora lo specialista in tecnica di misura HBM offre per gli amplificatori della serie QuantumX anche i driver per il software CANape di Vector Informatik. Gli amplificatori di misura di uso universale si possono così integrare anche nelle applicazioni che utilizzano CANape, il software utilizzato principalmente da sviluppatori del settore automobilistico, ad esempio per sviluppare e tarare le centraline elettroniche.

PREMIATO IL SISTEMA DI MISURA PMX AL MASTERS AWARD DELLA MESSTEC & SENSOR

T_M ƒ 306

A tale riguardo, durante il tempo di esecuzione si può eseguire la parametrizzazione della centralina con contemporanea registrazione dei segnali di misura e in questo modo si può analizzare direttamente l’impatto di ogni modifica dei parametri. Con il nuovo driver ora l’utente ha la possibilità di impiegare anche i noti amplificatori di misura della serie QuantumX. La gamma QuantumX è composta da diversi amplificatori di misura che soddisfano tutti i compiti di misurazione. Grazie alla funzionalità universale degli amplificatori il sistema, in abbinamento al driver CANape, risulta adatto per le

L’innovativa piattaforma di amplificatori di misura PMX di HBM ha conquistato il secondo posto del premio MessTec & Sensor Masters Award 2012 nella categoria Test & Measurement. Il nuovo sistema di misura è la soluzione ideale per molti compiti di misurazione nell’ambito della produzione. Caratterizzato dal motto “Fit to Function”, il sistema scalabile offre all’utente le funzionalità di cui ha bisogno per la propria applicazione. HBM soddisfa così gli standard più attuali, quali l’Industrial Ethernet con i protocolli Ethernet in tempo reale Ethercat e Profinet. In questo modo, i sistemi di misura PMX risultano facilmente integrabili anche nei moderni sistemi di automazione. I

applicazioni nei banchi prova e nelle prove su strada. Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/ elettronica-e-software-di-misura

segnali misurati vengono elaborati dall’amplificatore di misura in tempo reale già internamente. Il sistema trova applicazione tipica nel monitoraggio dei processi di produzione, quali l’accoppiamento o la pressatura. Il robusto sistema è modulare ed è facilmente ampliabile in caso di modifiche a un impianto, garantendo così all’utente un’elevata sicurezza dell’investimento. Il premio è stato conferito in occasione della manifestazione MessTec & Sensor Masters, tenutasi a Stoccarda a inizio marzo. Il riconoscimento viene assegnato alle innovazioni particolarmente interessanti. Anziché da una giuria, il premio è conferito dal pubblico, che sceglie direttamente i vincitori. Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/ amplificatori-industriali/pmx


SPAZIO DELLE ALTRE ASSOCIAZIONI

Rubrica a cura di Franco Docchio e Alfredo Cigada

Notizie dalle altre Associazioni

OTHER ITALIAN ASSOCIATIONS This section reports the contributions from Associations wishing to use Tutto_Misure as a vehicle to address their information to the readers. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle Associazioni che vedono nella Rivista uno strumento per portare le loro informazioni al pubblico di Tutto_Misure.

A TUTTI I CENTRI E LABORATORI DI TARATURA: INVITO A ENTRARE IN A.L.A.T.I.

Con l’istituzione di ACCREDIA (l’ente unico di accreditamento italiano) e il successivo ingresso in seno a esso anche della struttura di accreditamento del laboratorio di taratura SIT (COPA-SIT), ai Centri di taratura è venuto a mancare un importante luogo di confronto e di discussione. Nella precedente struttura di accreditamento il comitato del SIT aveva istituito due Sottocomitati Tecnici, differenziati per tipologia di grandezze (meccaniche ed elettriche) delle quali facevano parte di diritto tutti i Centri di taratura accreditati. Con cadenza pressoché annuale, generalmente durante i convegni dei Centri di taratura i due sottocomitati tecnici del SIT prima, e le due commissioni di COPA-SIT dopo, si riunivano per discutere delle problematiche emerse all’interno dei vari gruppi di lavoro e quindi dei Centri di taratura (differenziati per grandezze); tali problematiche erano portate poi all’attenzione e discusse con l’ente di accreditamento. Nei vari gruppi di lavoro, a volte costituiti per esigenze specifiche, veni-

Vista la situazione in essere e la specificità che ha il mondo delle tarature e dei Centri che in esso operano, spesso sconosciuta anche agli addetti ai lavori del settore laboratoriale, hanno portato alcuni Centri di Taratura accreditati a costituire A.L.A.T.I. – l’Associazione Laboratori Accreditati di Taratura Italiani (associazione non a scopo di lucro), con l’intento di colmare il vuoto di rappresentanza all’interno dell’ente unico di accreditamento. Di seguito riportiamo le finalità che A.L.A.T.I. si prefigge e che sono state riportate nel proprio statuto: 1. Promuovere e valorizzare l’attività d’impresa “Laboratori Accreditati di Taratura” verso il mercato e i cittadini e le istituzioni; 2. Tutelare e valorizzare di conseguenza l’elevata professionalità degli operatori che concorrono allo sviluppo dell’impresa e che garantiscono la rispondenza dell’applicazione delle norme cogenti e volontarie per l’Accreditamento; 3. Promuovere e curare il confronto tra gli Associati attraverso lo scambio di esperienze d’impresa e di professionisti; 4. Collaborare con gli Enti Accreditanti e gli Organismi Istituzionali per: a) La risoluzione di problemi connessi alle normative in vigore e a quelle future inerenti alle attività dei Laboratori Accreditati; b) La definizione di strategie economiche e organizzative (sia interne relative alle Verifiche Ispettive, sia esterne per i rapporti con gli Organi Istituzionali anche facenti parte degli Organismi Accreditanti); 5. Collaborare con gli Organismi Istituzionali sia nazionali sia europei in

vano anche affrontate problematiche di tipo tecnico con gli esperti dell’Istituto di Metrologia o con gli ispettori tecnici dei vari settori, contribuendo pure alla redazione e revisione di linee guida nel campo delle tarature. Con l’avvento di ACCREDIA questo tipo di struttura viene a mancare, perché negli organi istituzionali dell’ente non è prevista la presenza dei soggetti accreditati (quali i Centri di taratura sono) se non come entità giuridica di tipo associazionistico. Al fine di recuperare il metodo di consultazione che il SIT aveva in atto per i Centri di taratura, ACCREDIA, nella persona del Direttore Generale ha proposto in seno al Comitato di Indirizzo e Garanzia l’attivazione di due Gruppi di Lavoro, coordinati dal direttore del dipartimento tarature dell’ente, per misure elettriche e meccaniche, sulla falsariga dei Sottocomitati Tecnici del SIT, limitando però il raggio di azione di tali GL alle problematiche strettamene di tipo tecnico. Allo stato dei fatti quindi, con l’istituzione dell’ente unico, si è venuto a creare un vuoto di “rappresentanza” dei soggetti accreditati importanti nel panorama del sistema qualità Italia, quali sono i Centri di taratura. È vero comunque che esistono già associazioni di laboratori ma, andando a guardare la tipologia degli associati purtroppo il numero dei laboratori accreditati di taratura è veramente franco.docchio@ing.unibs.it esiguo, spesso inesistente.

T_M

N.

4/12 ƒ 307


N. 04ƒ ; 2012

SPAZIO DELLE ALTRE ASSOCIAZIONI

9. Impegnarsi, anche con l’aiuto di esperti, nella risoluzione di problemi professionali, giuridici e fiscali di comune interesse per gli Associati; 10. Assistere gli Associati che abbiano operato nell’osservanza dello Statuto dell’Associazione in caso di controversie e di problematiche d’interesse generale con azioni rivolte a tutelare i principi adottati dall’Associazione; 11. Svolgere attività di Arbitrato tecnico in eventuali controversie tecniche sorte tra gli Associati stessi e verso terzi nel corso della loro attività; 12. Attivazione di quanto possa essere previsto dal regolamento per lo sviluppo dell’Associazione. Ovviamente il primo obiettivo dell’associazione è quello di entrare a far parte di ACCREDIA come socio ordinario, per poi entrare nel

fase legislativa e di gestione per rendere prioritaria l’attività dei Laboratori Accreditati nell’espletare compito di monitoraggio e ricerca specialistica che richiedono particolari competenze e precisione nell’esecuzione del servizio di taratura e/o prove di laboratorio; 6. Individuare, promuovere e selezionare circuiti interlaboratori autogestiti approvati dall’Ente accreditante; 7. Curare l’informazione degli Associati attraverso la comunicazione di Norme, Leggi, Decreti, Regolamenti e ogni altra notizia utile per lo svolgimento della gestione dell’accreditamento; 8. Promuovere e sviluppare la formazione, l’aggiornamento, e la qualificazione professionale degli iscritti così anche da omologare circuiti di specializzazione nei vari campi di attività;

NEWS

ANCHE IN ITALIA IL NUOVO MODO DI CONCEPIRE IL DUROMETRO La nuova serie di durometri “NEMESIS” e “NEXUS” di INNOVATEST (distribuita in esclusiva per l’Italia dalla RUPAC srl di Milano) rappresenta il vertice dell’evoluzione per i durometri integrando nuove tecnologie, mai applicate fino a questo momento, in un solo strumento. Il risultato finale è una macchina con capacità di misura, qualità, precisione e automatismi di livello “superiore” derivati dalla moderna meccatronica e con un sistema di visione zoom ottico/digitale ad alta definizione mai proposti da nessun altro Costruttore, per applicazioni in innumerevoli settori. Queste nuove serie completano la già vasta gamma di durometri analogici e digitali Rockwell, Brinell, Vickers e Micro-Vickers. Durometri universali Rockwell – Rockwell superficiale, Vickers, HVT, Knoop, Brinell, HBT, H (per materie plastiche con sfera – ISO 2039/1) SERIE NEMESIS: • Ampio campo di applicazione carichi utilizzabili da 1Kgf a 3.000Kgf • Torretta motorizzata a 6 posizioni per penetratori o obiettivi • Tavola di misura fissa con testa di misura motorizzata • Discesa automatica con auto rilevazione altezza pezzo • Sistema ottico INNOVAZOOM™ • PC integrato con programma INNOVATEST IMPRESSIONS™

T_M ƒ 308

Comitato di Indirizzo e Garanzia con diritto di parola e di voto e, se le circostanze lo permetteranno, anche nel Consiglio Direttivo dell’Ente unico. Naturalmente la forza di ogni associazione e quindi anche di A.L.A.T.I. sta negli associati; ma, giacché fino a qualche anno fa sarebbe stata impensabile la sola costituzione di un’associazione, siamo fiduciosi che numerosi Centri di taratura accreditati o in fase di accreditamento vorranno aderirvi, contribuendo a far sentire la voce dei Centri, che se pur piccola rappresenta, a nostro parere, quanto di meglio, non solo dal punto di vista tecnico, il panorama dell’accreditamento fornisce a livello italiano. Paolo Giardina (Presidente A.L.A.T.I.) – Carmelo Pollio (Vicepresidente) Per informazioni: assoalati@gmail.com

SERIE NEXUS 7500: • Campo di applicazione carichi utilizzabili da 0,5Kgf a 250Kgf • Torretta motorizzata a 2 posizioni. • Sistema ottico INNOVAZOOM™ • PC integrato con programma INNOVATEST IMPRESSIONS™

Durometri Vickers e MicroVickers, Knoop, opzionale Brinell SERIE NEXUS 4000:

• Campo di applicazione carichi utilizzabili da 20gf a 62,5Kgf • Torretta motorizzata fino a 4 posizioni • Tavola manuale e

motorizzata X-Y-Z • Programma INNOVATEST IMPRESSIONS™ • Possibilità di aggiornamento alle scale Brinell fino ad un massimo di 62,5Kgf anche postvendita

Per ulteriori informazioni: www.rupac.com


LO SPAZIO DEGLI IMP

V. Lacquaniti, N. De Leo, M. Fretto, A. Sosso

Prospettive dei campioni Josephson per la Metrologia Quantistica Stato dell’arte e nuove idee

JOSEPHSON STANDARDS FOR QUANTUM METROLOGY The requirements of Josephson junctions for metrological applications are described. Data reported in the literature for the most established technologies are analyzed. The advantage of high (>0.2 mV) characteristic voltages is discussed, with particular reference to Nb/Al-AlOx/Nb overdamped SNIS Josephson junctions developed at I.N.Ri.M. This feature can be the key for next generation of voltage standard, where reduction of chip size and operation at temperature above 4.2 K are relevant, in view of using closed-cycle refrigerators. RIASSUNTO Sono presentati i requisiti delle giunzioni Josephson per applicazioni metrologiche, analizzati in base ai dati riportati in letteratura per le tecnologie più affermate. Esamineremo i diversi tipi di giunzioni Josephson, discutendo i vantaggi e gli svantaggi di ogni tecnologia, i materiali di fabbricazione più adatti e i relativi processi, considerando anche la possibilità di utilizzare sistemi di raffreddamento a ciclo chiuso (cryocooler). INTRODUZIONE

In un articolo pubblicato su questa rivista [1] sono state illustrate le caratteristiche dei campioni di tensione realizzati con “array” di giunzioni Josephson. Come già accennato, rimane aperta la questione dell’estensione dei riferimenti di tensione alla corrente alternata o alla generazione di tensioni programmabili, per cui sono importanti alcuni parametri legati alla tecnologia delle giunzioni. Un ruolo fondamentale è svolto anche dalla stabilità termica dei dispositivi. Il vantaggio di alte (>0,2 mV) tensioni caratteristiche sarà discusso, con particolare riferimento alle giunzioni “overdamped” SNIS sviluppate presso l’I.N.Ri.M. Questa caratteristica può essere un elemento chiave per i futuri campioni, per i quali sono essenziali la riduzione delle dimensioni e temperature di lavoro superiori a 4,2 K, che consentano il funzionamento in refrigeratori a ciclo chiuso.

I REQUISITI DELLE GIUNZIONI JOSEPHSON PER CAMPIONI CA

La realizzazione di array per la generazione di segnali CA e la sintesi di forme d’onda è estremamente complessa. Elevata immunità ai disturbi, bassa dissipazione di potenza, dimensioni ridotte sono essenziali. Dal punto di vista della complessità tecnologica sono determinanti le dimensioni del chip e l’alto numero di giunzioni necessarie per raggiungere tensioni d’interesse pratico: dal momento che le giunzioni per CA tipicamente operano sul primo “gradino” [1] e la frequenza di lavoro è limitata per ragioni tecniche ed economiche, ogni giunzione genera al massimo tensioni prossime a 0,1 mV. Dimensioni ridotte e un elevato numero di giunzioni rendono difficile garantire l’uniformità delle loro proprietà elettriche, che è essenziale per il funzionamento del dispositivo. Questi requisiti possono essere tradotti in ben definite specifiche per i parametri elettrici: la corrente critica Ic, che fissa un limite massimo per l’am-

T_M

piezza in corrente dei gradini e la tensione caratteristica, Vc determina la frequenza ottimale della microonda fd. per ottenere la massima ampiezza dei gradini [2]. Da fd dipende anche la tensione dei gradini (cioè la risoluzione in tensione dell’array) e quindi il numero di giunzioni necessarie a raggiungere una data tensione di uscita. Per ridurre il numero di giunzioni, senza superare le limitazioni della strumentazione commerciale, sono impiegate frequenze prossime a 70 GHz, e sono necessarie giunzioni con Vc circa di 150 µV. Possono essere utilizzati valori ancora più grandi, vantaggiosi anche in applicazioni digitali veloci, ma per frequenze elevate si riduce la risoluzione in tensione del campione. Aumentare la tensione di uscita degli array è una sfida impegnativa, poiché avere oltre 106 giunzioni sullo stesso chip con una dispersione dei parametri tollerabile (5-10%) è una richiesta al di là dei limiti della odierna tecnologia dei superconduttori. Così, in attesa di una tecnologia in grado di superare questo limite, deve essere studiato un approccio diverso, riducendo il più possibile il numero di giunzioni e loro dimensioni. LE TECNOLOGIE ATTUALMENTE DISPONIBILI

Considerando le caratteristiche dell’elettrodo, le giunzioni vengono tipicamente suddivise in tre classi principali: SIS isteretiche con “shunt” esterni, SNS a barriera metallica, SINIS a

I.N.Ri.M. – Istituto Nazionale di Ricerca Metrologica v.lacquaniti@inrim.it

N.

T_M ƒ 309 3/12


doppia barriera. Recentemente è stata sviluppata all’I.N.Ri.M. una nuova tecnologia che verrà descritta in una sezione apposita. La prima classe, direttamente derivata dal processo più sviluppato e ottimizzato dell’elettronica superconduttiva basata su un tri-strato Nb/AlOx/Nb, è ancora la tecnologia prevalente per i circuiti RSFQ [1]. Ha lo svantaggio di una configurazione che richiede una resistenza esterna che da instabilità caotica e rende difficoltoso il suo uso come campione. Non prenderemo quindi in considerazione giunzioni di questo tipo.

Figura 1 – Esempio di sequenza del processo di fabbricazione di un array di giunzioni Josephson. Il processo è iniziato con la deposizione a tre strati, mediante sputtering, seguito dal patterning zona, processo fotolitografico e incisione a ioni reattivi, e l’isolamento degli elettrodi anodizzazione liquido. La deposizione di strati di contatto conclude il processo

Campioni programmabili (PJAV) I campioni di tensione programmabili sono realizzati con più sottoarray in serie [1]. La tensione totale è definita dalla polarizzazione di ciascun sottoarray. Affinché la tensione sia definita univocamente dalla corrente di lavoro si devono utilizzare giunzioni non-isteretiche. Nelle giunzioni SINIS, con struttura Nb/Al/AlOx/Al/AlOx/ Al/Nb, questo si ottiene smorzando la componente reattiva dovuta alla capacità della giunzione con una resistenza intrinseca ottenuta due strati di ossido molto sottili, separati da una barriera metallica. I migliori risultati sono stati ottenuti dal PTB, che ha realizzato PJAV a 1 e 10 V con 7.000 e 70.000 giunzioni rispettivamente [3].

T_M ƒ 310

01ƒ N. 04 ; 2012 2011

LO SPAZIO DEGLI IMP

Un problema per questa tecnologia è dovuto alla elevata trasparenza delle due barriere isolanti, con la necessità di una planarizzazione del film di base, poiché la probabilità di difetti è elevata. Il processo di fabbricazione ha limitazioni nella realizzazione delle migliaia di giunzioni di un array per tensioni programmabili a 10 V. Nelle giunzioni SNS lo smorzamento della caratteristica IV si ottiene utilizzando un metallo normale [4]. Le giunzioni SNS hanno valori elevati di Jc, e in genere i metalli utilizzati hanno resistività molto bassa [5]. Le giunzioni Nb/PdAu/Nb sono state il primo tipo di giunzioni SNS con cui sono stati realizzati array binari a 1 V. I valori di Vc tra 5 e 30 µV ne limitano l’uso a frequenze di pochi GHz in chip con circa 30.000 giunzioni per 1 V. Risultati notevoli sono stati ottenuti con giunzioni NbN/TiN/NbN sviluppate dal gruppo di Tsukuba: array molto grandi, con più di 300.000 giunzioni sono stati testati con successo in circuiti DAC di 8 e 11 bit con gradini quantizzati a 10 V a 10 K [6]. Caratteristiche di queste giunzioni sono Vc di 10-20 µV a 10 K con aree di pochi micrometri quadrati. Collegando in serie due array su chip diversi è stata raggiunta una tensione di uscita di 20 V. In sostituzione del metallo normale sono stati proposti materiali alla transizione isolante-metallo [7]. In questa categoria, le giunzioni Nb/NbxSi1-x/Nb rappresentano il tentativo finora di maggior successo. Giunzioni di questo tipo sono state sperimentate in array fino a 10 V. La stabilizzazione della stechiometria della barriera, aspetto critico di questo tipo di giunzioni, può essere ottenuta mediante una ricottura termica dopo la deposizione. Campioni impulsati per la sintesi di forme d’onda La serie d’impulsi utilizzati per la sintesi della forma d’onda ha un contenuto armonico molto ricco. La soluzione più affidabile per garantire una corretta propagazione è quella di ridurre le dimensioni dell’array, che

opera come un circuito a parametri concentrati. I due metodi principali per la realizzazione dispositivi con queste caratteristiche sono: sviluppo tecnologico di giunzioni submicrometriche o multistack verticale di giunzioni. I primi e attualmente migliori risultati per i campioni impulsati sono stati ottenuti con giunzioni Nb/PdAu/Nb che, per l’elevata densità consentono di ridurre fortemente dimensioni del chip. Giunzioni Nb/HfTi/Nb sono state sperimentate con successo dal PTB nella realizzazione di array da 2.000 giunzioni di 0,2 µm × 0,2 µm [7]. Campioni RSFQ Le applicazioni RSFQ richiedono circuiti molto complessi, con numerosi blocchi funzionali differenti. La tecnologia più affidabile si basa su giunzioni SIS tradizionali con una resistenza di shunt esterno. L’intero processo coinvolge fino a 12 maschere per il patterning. Notevoli risultati sono stati ottenuti con questa tecnologia, tra cui un DAC RSFQ con 6.000 giunzioni Josephson. Le giunzioni SINIS si sono rivelate adatte per campioni RSFQ e, più di recente, sono state proposte per RSFQ ed elettronica digitale giunzioni con barriera niobio-siliciuro e SNIS [8]. UN OSTACOLO DA SUPERARE: LE BASSE TEMPERATURE

Al fine di rendere i campioni Josephson disponibili a un’utenza diffusa sono indispensabili sistemi di refrigerazione più economici e compatti rispetto a quelli oggi utilizzati per le giunzioni in niobio [9]. L’uso di un cryocooler consentirebbe inoltre l’impiego di cavi più corti tra dispositivo e sistema di misura, con una riduzione dei relativi contributi d’incertezza, sempre più significativi all’aumentare della frequenza. Il problema non sembra che possa essere risolto nel breve periodo da giunzioni con superconduttori ad alta temperatura, tipicamente YBCO o il più recente MgB2, con cui non si possono realizza-


N. 04ƒ ;2012

LO SPAZIO DEGLI IMP

re array di grandi dimensioni. Un grosso problema di queste giunzioni è la stabilità nel tempo e ai cicli termici. I risultati più interessanti al momento sono stati raggiunti da array di giunzioni YBCO bi-cristallo [10], con cui sono stati generate tensioni quantizzate fino a 100 mV a temperature anche superiori a 77 K. Come detto sopra le giunzioni di nitruro di niobio e niobio, NbN/TiN/ NbN hanno dimostrato di funzionare a 10 K, tuttavia richiedono un costoso processo di fabbricazione, un’elevata potenza della microonda e la stabilizzazione del cryocooler per garantire un comportamento elettrico costante. TECNOLOGIA SNIS “OVERDAMPED”: UN ESEMPIO DI GIUNZIONE MULTIFUNZIONALE

Un ulteriore tipo di giunzioni sovrasmorzate con struttura Nb/Al-AlOx/ Nb è stato sviluppato all’I.N.Ri.M. [11], dove la presenza di un film di alluminio di circa 100 nm crea un multistrato superconduttore normale isolante superconduttore, SNIS. La caratteristica elettrica non isteretica con una gamma ampia di parametri è ottenibile alternativamente agendo sugli spessori dei film, ovvero su parametri di lavoro dei dispositivi (la temperatura). Quest’ultimo aspetto ha un risvolto interessante dal punto di vista operativo, poiché le giunzioni, in funzione dello spessore dello strato normale, possono fornire una stabilità in temperatura sopra 4,2 K superiore rispetto ad altri tipologie. [12]. Un’interpretazione fisica del funzionamento delle giunzioni SNIS considera sia l’effetto che il film metallico spesso origina nella densità degli stati dei superconduttori, sia, specialmente, la distribuzione universale di conducibilità nello strato isolante ~1 nm, che dà origine a fenomeni di riflessioni multiple di Andreev [13]. Poiché è possibile con queste giunzioni ottenere tensioni caratteristiche fino a 0,7 mV a 4,2 K, esse sono adatte a generare risonanze con microonde a frequenze multiple rispetto ai valori

Figura 2 – Il passaggio dal comportamento non-isteretico per una giunzione SNIS viene ottenuto cambiando la temperatura di funzionamento

della banda k (69-75 GHz). Quindi sono osservabili gradini quantizzati di tensione fino a n=4, consentendo di misurare [14] tensioni fino a 5 V in schiere programmabili con un numero di giunzioni (8-9.000) pari a quello tipicamente impiegato per 1 V. Particolarmente vantaggioso sembra, allo stato attuale, l’utilizzo di due gradini consecutivi (primo e secondo), che con una piccola richiesta additiva di potenza (1,3 volte quella a singolo gradino) permette di usare un circuito con un numero di giunzioni pari a metà e un ingombro complessivo del circuito minore. D’altro canto, le giunzioni SNIS si prestano a un impiego a temperature maggiori di 4,2 K, vicino alla transizione tra lo stato superconduttivo e quello normale, quindi in refrigeratori più piccoli e economici. In Fig. 3 si osserva una schiera SNIS di 8.192 giunzioni funzionante a 6,5 K, in grado di fornire [14] tensioni quantizzate fino a 1,25 V. Infine, le caratteristiche citate fanno di queste giunzioni un interessante candidato per circuiteria RSFQ operante al di sopra di 4,2 K, con le possibilità che in prospettiva una parte o tutto il circuito di misura delle tensioni pro-

grammabili e in AC sia realizzato a bassa temperatura RIFERIMENTI BIBLIOGRAFICI 1. V. Laquaniti, N. De Leo, M. Fretto, A. Sosso. Campioni Josephson e metrologia elettrica. Tutto_Misure XIV, no. 3, 227-230 (2012). 2. Kautz RL. Shapiro steps in large-area metallic-barrier Josephson junctions. J Appl Phys 1995; 78: 5811-8. 3. Mueller F., Behr R., Palafox L., et al. Improved 10 V SINIS Series Arrays for

Figura 3 – Array programmabile SNIS a 6.5 K irradiata a 70 GHz con tensioni fino a 1.25 V

T_M ƒ 311


Applications in AC Voltage Metrology. IEEE Trans Appl Supercond 2007; 17(2): 649-52. 4. Mueller F., Behr R., Weimann T., et al. 1 V and 10 V SNS Programmable Voltage Standards for 70 GHz. IEEE Trans on Appl Supercond 2009; 975-80. 5. Lacquaniti V., Gonzini S., Maggi S., et al. Nb-based SNS junctions with Al and TaO barriers for a programmable Josephson voltage standard. IEEE Trans Appl Supercond 1999; 9(2): 4245-8. 6. Yamamori H., Ishizaki M., Sasaki H., et al. Operating Margins of a 10 V Programmable Josephson Voltage Standard Circuit Using NbN/TiN/NbN/ TiN/NbN Double-Junction Stacks. IEEE Trans Appl Supercond 2007; 17(2 Part 1): 858–63. 7. Benz S., Synthesizing accurate voltages with superconducting quantumbased standards, IEEE Instrumentation & Measurement Magazine, vol. 13, no. 3, pp. 8-13, June 2010. 8. P. Febvre, D. Bouis, N. De Leo, M. Fretto, A. Sosso, V. Lacquaniti, Electrical parameters of niobium-based overdamped superconductor-normal metal-insulator-superconductor Josephson junctions for digital applications, Journal of Applied Physics , vol.107, no. 10, pp. 103927-103927-6, May 2010. 9. S. Anders et. al, European roadmap

NEWS

ACQUISIZIONE DATI MOBILE A PORTATA DI DITA

Il nuovo registratore dati GEN2i della HBM, che dispone di un massimo di 64 canali configurabili liberamente, consente sia registrazioni dati continue sia l’acquisizione di transienti rapidi. Nell’acquisizione sincrona di molti canali, si raggiungono cadenze di interrogazione massime di 100 MS/s. Grazie alla struttura modulare, il registratore dati si adatta alle diverse applicazioni con flessibilità e semplicità.

T_M ƒ 312

N. 0’ƒ ; 2012

LO SPAZIO DEGLI IMP

on superconductive electronics, Physica C: Superconductivity, 470, pp. 2079–2126, n. 23-24, 2010. 10. A. Sosso, D. Andreone, V. Lacquaniti, A.M. Klushin, He, M. Klein, “Metrological Study of YBCO Josephson Junction Arrays Integrated in a Fabry-Perot Resonator,” IEEE Trans. on Applied Superconductivity, vol.17, no.2, pp.874-877, June 2007. 11. V. Lacquaniti, C. Cagliero, S. Maggi, and R. Steni. Overdamped Nb/Al-AlO/Nb Josephson Junctions. Appl. Phys. Lett., 86(4):042501, 2005. 12. V. Lacquaniti, D. Andreone, N. De Leo, M. Fretto, S.Maggi, A. Sosso, and M.Belogolovskii. Analysis of the Temperature Stability of Overdamped Nb/AlAlO/Nb Josephson Junctions, IEEE Trans. Appl. Supercond., 17(2):609–612, June 2007. 13. V. Lacquaniti, N. De Leo, M. Fretto, A. Sosso, and M.Belogolovskii, Nb/AlAlOx-Nb superconducting heterostructures: A promising class of self-shunted Josephson junctions, J. Appl. Phys., 108(9): 108-115, 2010. 14. V. Lacquaniti, N. De Leo, M. Fretto, A. Sosso, F. Muller, J. Kohlmann, 1 V Programmable Voltage Standards based on SNIS Josephson Junctions Series Arrays, Superc. Sci. Tech., 24: 045004-045007, 2011. Gli sviluppatori di HBM hanno prestato particolare attenzione a garantire la massima facilità d’impiego, prendendo ad esempio l’uso dei moderni terminali mobili. Tutte le funzioni sono gestite tramite l’ampio touchscreen, che rende superflui tastiera e mouse. Grazie all’innovativo comando one-touch, l’utente può accedere a tutte le funzioni sfiorando lo schermo con un dito. Il concetto di comando comprende anche il controllo gesti, ormai familiare negli smartphone, che consente di zoomare sui dati o sfogliare i record dati tramite i movimenti delle dita. È grazie all’interfaccia intuitiva che questo prodotto ha conquistato l’ambito riconoscimento internazionale “best-designed application”, conferito dal Nielsen Norman Group. I membri della giuria hanno apprezzato soprattutto la generosa rappresentazione dei dati sullo schermo, nonostante la contemporanea presenza di numerose opzioni di comando. Inoltre, hanno lodato la facilità d’uso del dispositivo da parte dei principianti e la rapida disponibilità di tutte le funzioni principali per gli utenti più avanzati. Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/ elettronica-e-software-di-misura

Vincenzo Lacquaniti è nato nel 1952 si è laureato presso il Politecnico di Torino nel 1975. Ricercatore presso il Galileo Ferraris dal 1979 poi I.N.Ri.M., è esperto di dispositivi quantistici a film sottile per le misure di precisione. Ha lavorato alla messa in opera dei primi campioni quantistici italiani di tensione e di resistenza. Ha messo in opera un laboratorio dedicato alle tecnologie a film sottile per le misure. Autore di circa 100 lavori su rivista. È stato membro del consiglio di amministrazione dello IEN ed è attualmente responsabile della divisione elettromagnetismo dell’ I.N.Ri.M. Natascia De Leo è nata nel 1972 e si è laureata in Chimica Industriale all’Università degli Studi di Torino nel 1997. Dal 2005 lavora in I.N.Ri.M. come ricercatore presso il settore Nanotecnologie e Microsistemi. La sua attività di ricerca riguarda la realizzazione e la caratterizzazione di dispositivi quantistici a superconduttore basati su giunzioni Josephson impiegabili come sensori di precisione per la metrologia primaria e per le misure di precisione. Matteo Fretto è nato a Chieri nel 1979, si è laureato in Ingegneria dei Materiali presso il Politecnico di Torino nel 2004. Dal 2005 è in I.N.Ri.M., dove ha conseguito il dottorato di ricerca in “Metrologia: scienza e tecnica delle misure” e dal 2010 lavora presso il settore Nanotecnologie e Microsistemi. La sua attività di ricerca riguarda la fabbricazione e la caratterizzazione di dispositivi quantistici per la metrologia e l’elettronica superconduttiva basati su giunzioni Josephson. Andrea Sosso è nato a Biella nel 1964 e si è laureato in Ingegneria Elettronica presso il Politecnico di Torino. Dal 1990 si occupa del mantenimento e dello sviluppo di campioni per la Metrologia Elettrica presso l’IEN/I.N.Ri.M. È responsabile del campione nazionale di tensione elettrica. I suoi interessi principali riguardano la metrologia quantistica con dispositivi a superconduttore e l’elettronica per le misure elettriche.


MANIFESTAZIONI EVENTI E FORMAZIONE

2012-2013 eventi in breve 2012

19 - 20 DICEMBRE

Hong Kong, China

2012 International Conference on Biomaterial and Bioengineering (ICBB 2012)

www.icbb-conf.org

19 - 20 DICEMBRE

Hong Kong, China

Modelling, Identification and Control (MIC2012)

www.mic-conf.org/index.htm

30 - 31 DICEMBRE

Singapore, Singapore

2012 International Conference on Optical Materials and Communication (ICOMC 2012)

www.icomc-conf.org

2013 23 - 24 GENNAIO

Shenzhen, China

2013 2nd International Conference on Micro Nano Devices, Structure and Computing Systems (MNDSCS 2013)

www.mndscs-conf.org

27 - 28 GENNAIO

Sanya, China

2013 2nd International Conference on Mechanical Engineering and Materials

www.icmem2003-conf.org

5 - 7 FEBBRAIO

Brescia, Italy

AISEM 2013 - International Conference of the Italian Association of Sensors and Microsystems

www.aisem.eu

11 - 14 FEBBRAIO

Barcelona, Spain

6th International Joint Conference on Biomedical Engineering Systems and Technologies - BIOSTEC 2013

www.biostec.org

15 - 17 FEBBRAIO

Barcelona, Spain

2nd International Conference on Pattern Recognition Applications and methods - ICPRAM 2013

www.icpram.org

15 - 17 FEBBRAIO

Barcelona, Spain

5th International Conference on Agents and Artificial Intelligence ICAART 2013

www.icaart.org

19 - 21 FEBBRAIO

Barcelona, Spain

PECCS 2013 - International Conference on Pervasive and Embedded Computing and Communication Systems

www-peccs.org

15 - 16 MARZO

Wuhan, China

2013 International Conference on MEMS and Mechanics

www.memsm2013-conf.org

17 - 21 MARZO

Anheim, USA

OFC-NFOEC

www.ofcnfoecconference.org

10th

18 - 21 MARZO

Hammamet, Tunisia

SSD 2013 International Multi-Conference on Systems, Signals & Devices

www.ssd-conf.org/ssd13

19 - 22 MARZO

Orlando, USA

The IV International Conference on Education, Training and Informatics: ICETI 2013

www.2013iiisconferences.org/iceti

20 - 22 MARZO

Bilbao, Spain

International Conference on Renewable Energies and Power Quality (ICREPQ’13)

www.icrepq.com

17 - 18 APRILE

Torino, Italy

Affidabilità e Tecnologie - VII edizione

www.affidabilita.eu

13 - 17 MAGGIO

Istanbul, Turkey

IV International Conference on Power Engineering, Energy and Electrical Drives, POWERENG

www.powereng2013.org

13 - 14 MAGGIO

Xiamen, China

2013 3rd International Conference on Advanced Measurement and Test (AMT 2013)

www.amt-conf.org

IEEE Wireless Power Transfer Conference 2013

www.ieee-wptc2013.unipg.it/index.html

15 - 16 MAGGIO Perugia, Italy 24 - 29 MAGGIO

Lisbon, Portugal

BIOTECHNO 2013

www.iaria.org/conferences2013/BIOTECHNO13.html

28 - 31 MAGGIO

Tipei, Taiwan

2013 IEEE International Symposium on Industrial Electronics

www.isie2013.org

11 - 13 GIUGNO

Alghero, Italy

4th

18 - 19 LUGLIO

Barcelona, Spain

19th IMEKO TC-4 Symposium

www.imeko2013.es

8 - 11 SETTEMBRE Trento, Italy

Congresso GMEE 2013

www.gmee.org

8 - 11 SETTEMBRE Trento, Italy

Congresso GMMT 2013

19 - 22 SETTEMBRE

Vilamoura, Portugal

International Conference on Clean Electrical Power - www.iccep.net ICCEP 2013

12th European AAATE Conference, Association for the advancement of Assistive Technology in Europe

www.aaate.org

T_M

N.

4/12 ƒ 313


N. 04ƒ ; 2012

NEWS

EFFICIENZA ENERGETICA E GESTIONALE GRAZIE AI NUOVI MODULI DI PIANTAGGIO ELETTROMECCANICI Kistler ha progettato e realizzato due moduli di piantaggio elettromeccanici speciali, ognuno con capacità di spinta fino a 600kN, da integrare in un impianto automatizzato ad alta cadenza per il settore automotive La soluzione ha la finalità di eseguire due operazioni di accoppiamento per l’assemblaggio del nucleo rotore di un nuovo modello di alternatore: la compattazione delle giranti polari e del nucleo di rame sull’albero e la clinciatura per il fissaggio del nucleo completo sull’albero. La soluzione Il progetto doveva sviluppare forze fino a 600 kN con un sistema elettromeccanico, anziché idraulico, essere flessibile nell’utilizzo e preciso, sia nelle operazioni di piantaggio (le quote del ciclo di piantaggio sono liberamente programmabili e l’asse si posiziona con precisione di 0,01 mm) sia nella misura dei valori di processo (l’unità di piantaggio è dotata di un sensore di forza, progettato per questa specifica esigenza, che garantisce un’elevata accuratezza) che devono essere poi memorizzati per garantire la tracciabilità. Il pannello controllore Dmf-P A310 permette, per ogni modulo, di programmare, memorizzare ed esportare in vari formati su interfaccia Ethernet un file per ogni ciclo effettuato (con possibilità di associarlo a un codice a barre univoco per componente). I moduli sono poi stati integrati in un impianto completamente automatizzato, ad alta cadenza produttiva: requisito fondamentale sono una manutenzione minima (ingrassaggio con pochi ml di grasso dopo ogni milione di cicli) e rispettare l’ambiente in termini di consumi, emissioni e rumorosità. Infine era necessario ottimizzare i costi relativi al consumo di energia, obiettivo raggiungibile grazie al fatto che le unità elettromeccaniche di piantaggio richiedono energia elettrica solo quando si effettua il processo e che l’energia sviluppata in frenata ritorna in rete. I

vantaggi Attualmente (estate 2012), in fase di rump up presso il cliente finale Denso Manufacturing Italia, le due unità Kistler eseguono una produzione con cadenza di 4,5 s/ciclo senza alcuna fermata. Grazie al pannello controllore Dmf-P A310, di cui le unità sono munite, è stata eseguita la messa a punto meccanica (allineamenti, quote, ecc.) rispetto al resto della macchina, prima che il software di gestione fosse implementato e quindi in assenza di PLC: è stato inoltre possibile impostare le esatte quote di compattazione e cianfrinatura, ad esempio, senza alcuna modifica all’attrezzatura e mantenendo una precisione finale di posizionamento pari a 0,01 mm. Ogni ciclo è monitorato e l’operatore, analizzando i dati, può determinare azioni correttive o decretare non idoneo al processo il lotto di componenti da assemblare, evitando di proseguire una produzione che risulterebbe non conforme nelle fasi successive. Da evidenziare sono anche i vantaggi in termini di efficienza energetica: le due unità Kistler per funzionare richiedono solo energia elettrica, in parte anche rigenerata e rimessa in rete durante la fase di frenatura. Rispetto a un sistema idraulico, si stima un risparmio energetico annuo di oltre il 50%! Anche dal punto di vista dell’efficienza gestionale del sistema le due unità elettromeccaniche richiedono una manutenzione limitata rispetto a un sistema idraulico, i cui costi contemplano, tra gli altri elementi, prodotti di consumo, componenti soggetti a usura e barriere per la protezione acustica. Il risparmio calcolato nei vari ambiti è di circa 10.000 €/anno. Altri benefici ottenuti riguardano l’assenza di materiali di scarto, emissioni, tubazioni, circuiti ad alta pressione, rischi di interferenza con mezzi di trasporto per la movimentazione dei materiali o con il camminamento degli operatori, non essendoci unità esterne o serbatoi di alimentazione. Per ulteriori informazioni: www.kistler.com

SISTEMA INNOVATIVO DI MISURAZIONE DIMENSIONALE TRAMITE IMMAGINI scussione le tecniche metrologiche tradizionali: la serie IM-6500. Il sistema è basato sulla combinazione della tecnologia ottica, che assicura ai microscopi digitali la massima risoluzione del settore, e della tecnologia di elaborazione delle immagini, che fornisce ai sistemi di visione la loro straordinaria capacità di risoluzione dei problemi. Tale sistema, che dispone di tutta l’affidabilità necessaria per gli ambienti dell’automazione industriale, è stato concepito per eliminare la necessità di piani portaoggetti X-Y e ridurre sensibilmente il tempo di misurazione: è sufficiente posizionare e premere un pulsante per misurare fino a 99 caratteristiche. Gli errori dell’operatore vengono eliminati grazie Keyence ha introdotto in Italia un pro- a una misurazione automatica ad alta dotto innovativo per effettuare misurazio- precisione. ni istantanee di pezzi, che mette in di- L’IM è molto facile da configurare, gra-

T_M ƒ 314

zie al controllo dell’intera immagine del target, ed è semplice da usare anche per applicazioni complesse. L’obiettivo ottico in dotazione ha una profondità di campo elevata, in grado di garantire una messa a fuoco nitida anche nel caso di differenze di altezza. Un obiettivo telecentrico mantiene costanti le dimensioni del target. La tecnologia ottica acquisita nel settore della microscopia digitale ha consentito alla Keyence di realizzare un sistema che offre sia un ampio campo visivo ampio sia una bassa distorsione. Per ulteriori informazioni: w w w. k e y e n c e . i t / p r o d u c t s / measure/image/image.php. E-mail: keyence@keyence.it


COMMENTI ALLE NORME

COMMENTI ALLE NORME: LA 17025 A cura di Nicola Dell’Arena (ndellarena@hotmail.it)

Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte quinta Non conformità e azioni correttive

COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025

A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.

RIASSUNTO

Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La struttura della documentazione (n. 4/2000); Controllo dei documenti e delle registrazioni (n. 1/2001 e n.2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008 e n., 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012).

FASI DEL PROCESSO

ANALISI DELLE CAUSE

Le fasi del processo per risolvere una non conformità (tecnica e di sistema) sono, a livello di macro fasi, le seguenti: 1) rilevazione (identificazione secondo la norma), 2) analisi delle cause; 3) selezione dell’azione correttiva da attuare; 4) attuazione dell’azione correttiva; 5) verifica dell’azione attuata. Alcune fasi sono riportate nel punto 4.9, altre sono riportate nel punto 4.11, con un intreccio strano. Tutto il paragrafo 4.11 è un seguito del 4.9, per cui tutto quello che è detto da adesso in poi deve essere applicato e collegato anche punto al 4.9.

Al paragrafo 4.11.2 la norma prescrive che “le procedure per le azioni correttive devono partire da un’indagine per determinare l’origine della/e causa/e del problema”. Su questo paragrafo si riparla di procedure al plurale e, secondo me, il normatore confonde tra procedura come documento e procedura come insieme di attività da svolgere. Inoltre, per la prima volta, parla di problema senza che ci sia una definizione in tutte le norme sul sistema qualità. La versione inglese utilizza il termine “problem” e il vocabolario non mi ha aiutato a capire di più il suo significato. Allora ho chiesto aiuto allo Zingarelli, il quale porta due spiegazioni, utilizzabili per le non conformità. La prima “ogni ordine di difficoltà, la cui soluzione implica la possibilità di un’alternativa” e la seconda “questione complicata,

T_M

situazione difficile da affrontare e da risolvere”. Nella mia lunga esperienza (sia come valutatore sia come responsabile della qualità d’impianti nucleari complessi) ho sempre trovato che a ogni non conformità corrispondeva una sola soluzione, e per lo più anche semplice. Raramente ho trovato che si poteva rispondere con due soluzioni. Una soluzione difficile da affrontare non mi è mai capitata e, se può capitare, si riferisce ad attività tecniche. Una classificazione di massima delle non conformità gestionali si può suddividere nelle seguenti quattro: mancanza di procedure tecniche o gestionali; non completa corrispondenza del Manuale della Qualità alla norma ISO 17025; non completa corrispondenza di una procedura alle norme tecniche o di sistema; mancata o errata applicazione della procedura tecnica o gestionale. Per un laboratorio accreditato le prime tre si risolvono alla prima visita di valutazione da parte di ACCREDIA: in caso contrario, non si ottiene l’accreditamento e la soluzione è quasi sempre unica e semplice. Durante la vita del laboratorio resta la quarta e tutto ciò che può accadere è sempre di facile soluzione. L’analisi delle cause deve essere eseguita da personale competente e preparato: è necessario scendere in tutti i dettagli, analizzare anche le potenziali non conformità (come dice la nota della norma), valutare l’importanza della non conformità, per giungere a prendere una decisione. L’analisi della causa può essere semplice o complessa e dipende dal grado di gravità della non conformità e dalla conoscenza del personale su cosa si sia verificato; a volte può essere richiesto l’intervento di personale esterno (rottura di una parte importante di

N.

4/12 ƒ 315


un’apparecchiatura), se quello interno non fosse in grado di trovare la soluzione. Sull’argomento il laboratorio deve indicare nel Manuale della Qualità e nella procedura gestionale il coordinatore delle analisi delle cause (generalmente il Capo Laboratorio per quelle tecniche e il Responsabile della qualità per quelle di sistema). Quest’ultima è un passo fondamentale per prendere una decisione sulle azioni da attuare. La norma su questo punto porta la seguente nota con tre commi: “l’analisi della causa è la chiave e talvolta è la parte più difficile nella procedura delle azioni correttive. Spesso l’origine della causa non è evidente; ne deriva la necessità di procedere a un’analisi rigorosa di tutte le potenziali cause del problema. Le potenziali cause potrebbero comprendere i requisiti del cliente, il campionamento, le specifiche concernenti il campionamento, i materiali di consumo o le apparecchiature e relativa taratura”. Il primo e secondo comma sono corretti (a parte il fatto che bisogni sostituire spesso con rare) ma pleonastici: a mio parere non c’era bisogno di riportarli. Il terzo comma (che riporta esempi di aree dove possono verificarsi non conformità) non è esaustivo e, come si può vedere, gli esempi sono diversi da quelli riportati nelle altre note. Ribadisco che mettere questi esempi non è proprio opportuno. C’è da far notare che i requisiti del cliente, una volta effettuato con scrupolo il riesame del contratto e poi accettatolo, non dovrebbero portare a non conformità (anche se qualche volta ciò avviene).

POSIZIONE DI ACCREDIA SUL 4.11.2 Sia per le prove sia per le tarature ACCREDIA non prescrive requisiti aggiuntivi e si ferma al laconico “si applica il requisito di norma”. La scelta di ACCREDIA è corretta, poiché il punto della norma è semplice e facile da capire anche per un profano dei sistemi qualità.

T_M ƒ 316

N. 04ƒ ; 2012

COMMENTI ALLE NORME

SELEZIONE E ATTUAZIONE DELLE AZIONI CORRETTIVE Il punto 4.11.3 è suddiviso in quattro commi che prescrivono diversi requisiti. Il primo prescrive che ”quando si rende necessaria un’azione correttiva, il laboratorio deve identificare le azioni correttive potenziali”. Il requisito è formulato in maniera strana, ma l’aspetto più importante è che il laboratorio deve identificare (meglio, a mio parere, individuare) l’azione correttiva. La stranezza continua con l’aggettivo potenziale. Il laboratorio deve attuare un’azione vera, non una potenziale. Il secondo comma prescrive che “deve selezionare e attuare le azioni più verosimili per eliminare i problemi e per prevenirne il ripetersi”. Anche qui è da far notare che l’azione non deve essere quella verosimile ma quella necessaria. Come si opera per rispondere a questi due requisiti? Alla fine dell’analisi delle cause il Coordinatore fa una proposta (che può comprendere diverse azioni correttive), su cui poi fare la scelta (selezione secondo la norma). La scelta può essere fatta dal Capo laboratorio (per quelle tecniche) e dal Responsabile della qualità (per quelle di sistema), oppure dal Direttore Generale, e dipende dalla complessità e dal costo delle azioni da compiere, dalla complessità dell’organizzazione e dalle deleghe di responsabilità. La norma non lo dice (il punto 4.9 parla di informare il cliente) ma, se richiesto nei documenti contrattuali, il cliente può intervenire o addirittura imporre la scelta dell’azione correttiva. Nella mia lunga esperienza ho sempre trovato che a ogni non conformità corrispondeva una sola soluzione (e per lo più anche semplice), per cui le due fasi delineate dalla norma diventano una sola con la semplificazione di tutto. Questo significa che l’analisi delle cause e la scelta possono essere fatte dal Capo laboratorio o dal Responsabile della qualità senza l’intervento di altri. Le azioni da scegliere sono di due

tipi: (i) eliminare i problemi e (ii) prevenirne il ripetersi. Per non conformità semplici le due azioni possono coincidere. Per non conformità gestionali, quasi sempre le due azioni coincidono. Per non conformità gravi, a volte le due azioni coincidono. Del resto, nel rispetto del requisito bisogna scegliere le due tipologie di azioni. Alcune volte le azioni da attuare possono comportare la revisione delle procedure (sia tecnica sia gestionale). L’attuazione deve essere compiuta dal personale tecnico per quelle tecniche (anche con l’aiuto di aziende esterne, come ad esempio lo smontaggio o l’installazione di una nuova apparecchiatura), mentre per quelle gestionali questo dipende dall’azione da compiere e dall’area in cui si è verificata.

LIVELLO ADEGUATO Il terzo comma prescrive il requisito “le azioni correttive devono essere di un livello adeguato alla dimensione del problema e dei relativi rischi”. La norma mi obbliga a rispettare il livello adeguato, anche se tra le due soluzioni ve n’è una semplice, con poco costo ma che mi risolve adeguatamente la non conformità. A questo punto chi e come valuta il livello adeguato? La norma non dice nulla, inoltre a mio parere il termine adeguato è sempre ambiguo e indifferente: per due persone adeguato può avere un valore diverso. La norma non lo dice (meno male) ma per rispettare il requisito il Laboratorio dovrebbe valutare le conseguenze dei possibili rischi, e in base a tali conseguenze scegliere l’azione correttiva. Una raccomandazione: è necessario applicare questo requisito e, nel caso della possibilità di scelta tra due azioni, non scegliere a priori quella che costa meno. La norma non chiede nulla, ma per la filosofia dei sistemi qualità tutto questo terzo comma dev’essere documentato (per favore non mi picchiate).


STORIA E CURIOSITÀ

Claudio Luperini 1, Bernardo Tellini 2

Antonio Pacinotti, cent’anni dalla morte Seguendo le orme del grande scienziato attraverso i secoli

ANTONIO PACINOTTI, HUNDRED YEARS FROM HIS DEATH – FOLLOWING THE TRACKS OF THE FAMOUS SCIENTIST Hundred years after his death in 1912, Antonio Pacinotti, the famous scientist from Pisa, has been celebrated by means of an exhibition of his discoveries and his electromagnetic instruments. RIASSUNTO A cent’anni dalla sua morte nel 1912, Antonio Pacinotti, famoso scienziato pisano, è stato celebrato con una importante mostra che raccoglie le sue più significative esperienze e i suoi più noti strumenti in campo elettromagnetico. ANTONIO PACINOTTI, VISITA GUIDATA ALLA MOSTRA Quali erano le fonti di energia utilizzate nell’Ottocento? Qual era quella più importante? Quali fonti di energia vengono utilizzate ai giorni nostri? Queste sono alcune delle prime domande che vengono proposte all’inizio della visita guidata alla mostra “Antonio Pacinotti, cento anni dalla morte (1912-2012). Seguendo le orme del grande scienziato”1, inaugurata presso il Museo degli Strumenti per il Calcolo di Pisa il 22 Settembre 2012. Il tema delle “fonti di energia” permette d’inquadrare, insieme con i visitatori, l’ambiente in cui operava Antonio Pacinotti (nato a Pisa il 17 Giugno del 1841) sia da un punto di vista sto-

Figura 1 – Un momento dell’inaugurazione della mostra

notti, era anch’egli un professore universitario che insegnò Fisica e Fisica Tecnologica all’Università di Pisa dal 1831 al 1882, quando gli successe il figlio) e altri argomenti a cui si interessò, come ad esempio l’astronomia, la costruzione di strumenti ottici e lo sfruttamento dell’energia solare. Quattro grandi vetrine (circa 8 metri cubi di spazio disponibile) sono la struttura principale su cui si articola l’esposizione. Nella prima vetrina ci sono i primi due “anelli di Pacinotti”, dei quali uno costituisce il primo prototipo di dinamo-motore a corrente continua, poi la famosa Macchinetta di Pacinotti, e infine la Macchina a sistema Ladd. La Macchinetta e la Macchina Ladd sono collegate da un filo elettrico a ricordare un esperimento che Pacinotti fece all’Esposizione di Bologna del 1869: la Macchina Ladd e la Macchinetta erano collegate elettricamente e poste sopra un tavolo a una certa distanza fra loro: girando la manovella della Macchina Ladd si metteva in movimento il rotore della Macchinetta. Era in pratica un semplice esempio di come si poteva trasmettere facilmente l’energia elettrica. La seconda vetrina contiene 3 macchine magneto-elettriche che sono miglioramenti o applicazioni dirette della Macchinetta: il Deviatore angolare, la Macchina a Gomitolo e la Macchina con sopraeccitatore. Diversi cartellini, posizionati vicino alle macchine esposte nelle vetrine, ne illustrano il funzionamento oppure propongono gli articoli in cui Pacinotti stesso trattò di esse.

rico sia da quello tecnico-scientifico. Un breve cenno biografico e un riferimento allo stato dell’arte delle macchine magneto-elettriche intorno al 1860 concludono l’introduzione alla mostra e danno inizio alla visita della sala, in cui questa è ospitata. In questa sala, intitolata ad Antonio Pacinotti proprio nel giorno dell’inaugurazione2, sono esposti i prototipi realizzati dello scienziato pisano, 22 poster illustrativi, due ricostruzioni moderne di apparati sperimentali pacinottiani3 e due computer nei quali sono visibili una ricca rassegna stampa delle celebrazioni tributate a Pacinotti nel 1934 e un’importante raccolta di documenti scannerizzati dell’Archivio Pacinotti. La visita guidata si snoda attraverso un percorso cronologico che segue la realizzazione dei vari prototipi di macchine elettromagnetiche da parte di Antonio Pacinotti. Ciascuna macchina, su cui è posta l’attenzione del visitatore, dà anche l’occasione per parlare dell’operato dello scienziato, al di là della produzione di macchine elettromagnetiche, e così si ricordano: la sua attività didattica durata quasi 50 anni, i suoi lavori e le sue invenzioni in campo agrario, il Fondo Paci- 1 Dip. di Fisica “E. Fermi” notti4 che è rimasto all’Università di dell’Università di Pisa Pisa, la Biblioteca e le centinaia di do- 2 Dip. di Ingegneria dell’Energia cumenti rimasti nell’Archivio di fami- e dei Sistemi dell’Università di Pisa glia (il padre di Antonio, Luigi Paci- bernardo.tellini@ing.unipi.it

T_M

N.

4/12 ƒ 317


N. 04ƒ ; 2012

rogata fino al 31 Dicembre 2012 con orario 9-13 dal Lunedì al Venerdì, con chiusura nei giorni festivi.

Figura 2 – Gli anelli di Pacinotti

La terza e la quarta vetrina presentano la tecnologia della macchina a volano e alcuni prototipi che implementano la trazione elettromagnetica, altra idea originale di Antonio Pacinotti. Il volano elettromagnetico è un altro modo di costruire l’indotto di una macchina elettromagnetica: la prima idea fu l’“anello chiuso”, poi il “gomitolo” e infine il “volano” che era costruito intrecciando fili conduttori senza il supporto di un nucleo di ferro. Pacinotti ne sottolineava la stabilità nella rotazione e quindi la sua adattabilità ad una macchina industriale. In esposizione anche un volano di notevoli dimensioni che probabilmente era destinato ad una grande macchina che però non fu mai realizzata. I prototipi a trazione elettromagnetica sono 4: una specie di lanciatore elettromagnetico (detto Viale elettromagnetico), due carrellini che viaggiano su due binari costruiti ad hoc e un’altra apparecchiatura che fa correre un carrello a 3 ruote, portante un bobina, sopra a quattro rotaie5. La mostra, che aveva come chiusura prevista il 26 Ottobre 2012, è stata pro-

NOTE

In parallelo alla mostra, dedicato alle scuole, presso La Limonaia Scienza Viva viene proiettato, su richiesta, il film “Antonio Pacinotti e il secolo dell’elettricità”. 2 Nello stesso giorno, sempre nella Sala Pacinotti, è stato inaugurato anche un bassorilievo in bronzo, dedicato a Pacinotti e dal titolo “Dinamiche”, donato dal Rotary Club Pisa Pacinotti. 3 Si tratta del primo esperimento dell’anello chiuso che Pacinotti ricostruì nel 1911 e del Viale elettromagnetico. 4 Il Fondo Pacinotti, di proprietà dell’Università di Pisa, è custodito al Museo degli Strumenti per il Calcolo,

1 La mostra ha ricevuto l’Alto Patronato del Presidente della Repubblica e i patrocini del Senato della Repubblica, della Regione Toscana, della Provincia di Pisa, dell’IEEE Italy Section e della Federazione Italiana degli Amici dei Musei. L’organizzazione è a cura della Fondazione Galileo Galilei, del Dipartimento di Fisica “E. Fermi” dell’Università di Pisa, del Comune di Pisa, de Gli Amici dei Figura 4 – Il “Viale” elettromagnetico Musei e Monumenti Pisani e de La limonaia Scienza Viva. ed è costituito dai prototipi delle macPer informazioni fare riferimento a chine realizzate da Antonio Pacinotti, www.fon- da numerosi strumenti didattici di Fisid a z i o n e - ca utilizzati sia da Luigi che da Antogalileoga- nio, dall’Archivio (migliaia di doculilei.it. Nel- menti autografi di Luigi e Antonio), l’occasione dalla Biblioteca di famiglia (circa è stato pub- 2.300 volumi) e da alcuni cimeli. blicato an- 5 Per il funzionamento di tutti i prototiche il volu- pi di Antonio Pacinotti si veda: C. me “Antonio Luperini, T. Paladini, Ho costruito il Pacinotti. A seguente apparecchietto. Antonio cento anni Pacinotti, manoscritti e strumenti, Edidalla morte”, zioni ETS, Pisa, 2007 e C. Luperini, primo nume- Antonio Pacinotti e la trazione elettroro de “I qua- magnetica, in Quaderni di Storia derni della della Fisica numero 15, ed. SIF BoloFondazione”. gna, 2009, pp. 47-73.

Figura 3 – La macchinetta di Pacinotti


N. 04ƒ ;2012 MR8875 è il nuovo registratore multicanale con memoria per registrazioni di lunga durata, progettato da HIOKI (e distribuito in Italia da ASITA) appositamente per verifiche manutentive su impianti e applicazioni di registrazione e controllo nel settore automazione, automotive e mezzi di trasporto in generale. È uno strumento flessibile, che permette l’alloggiamento di 4 unità di ingresso multicanale a scelta tra 4 differenti modelli: MR8901 (unità analogica a 4 canali), MR8902 (unità tensione/temperatura a 15 canali), MR8903 (unità strain a 4 canali), MR8904 (unità CAN). A seconda del tipo di unità di ingresso installato, lo strumento consente registrazioni contemporanee di tensione corrente, vibrazioni, celle di carico, temperatura e misure su sistemi CAN. La possibilità di scelta tra le varie unità di ingresso ne rende possibile l’utilizzo nei più svariati campi di applicazione. Tramite sonde o p z i o n a l i , MR8875 permette inoltre di verificare segnali logici e impulsivi. Il nuovo registratore è robusto, progettato per resistere a vibrazioni e a temperature estreme da -10°C a +50°C e queste caratteristiche lo rendono ideale a eseguire misure on-board su veicoli. Il grande schermo touch screen da 8,4“ a colori e l’interfaccia grafica estremamente intuitiva ne permettono il semplice utilizzo in campo. Grazie alla memoria interna da 32 Mwords e al salvataggio delle misure in tempo reale su memoria SD da 2 GB, è possibile eseguire prove di lunga durata. I dati possono essere successivamente trasferiti su PC tramite l’interfaccia USB e LAN.

NUOVO STRUMENTO DI MISURA E REGISTRAZIONE ANCHE SU SISTEMI CAN

NEWS

IMPOSTAZIONE DEGLI UTENSILI E ISPEZIONE SU MACCHINA UTENSILE CON SONDE MULTIPLE

Applicazioni principali – Trasporti e automotive: MR8875 acquisisce i dati durante le prove su autoveicoli per il trasporto o durante le prove in laboratorio; può misurare tensione, corrente, temperatura e uscite CAN. Il suo design modulare fornisce la flessibilità di combinare moduli di ingresso in base all’applicazione. – Valutazione di dispositivi automatici (meccatronica): MR8875 misura contemporaneamente tensione, corrente, celle di carico, temperatura, segnali logici, segnali da trasduttori ad alta velocità; queste caratteristiche lo rendono ideale per la valutazione di sistemi di automazione. – Servizi di manutenzione-prove di durata su sistemi: l’elaborazione simultanea e continuativa di vibrazioni, temperature e uscite analogiche, permette registrazioni storiche di lunga durata. MR8875 può essere equipaggiato con batteria ricaricabile, in modo da proteggere l’integrità dei dati nel caso di improvvise mancanze di alimentazione.

Il nuovo sistema di trasmissione radio a sonde multiple Renishaw utilizza un unico ricevitore per installazioni che comprendano sonde da mandrino e sonde di presetting utensile, permettendo di realizzare una integrazione rapida in un ambiente libero da cavi. Il sistema si integra facilmente su un’ampia gamma di centri di lavoro e macchine utensili a controllo numerico per automatizzare il presetting e la verifica dell’integrità degli utensili, la preparazione e la verifica dei pezzi lavorati. L’intero potenziale della nuova interfaccia di trasmissione radio RMI-Q Renishaw si realizza quando sono in funzione sulla stessa macchina quattro sonde a trasmissione radio e questo la qualifica come la scelta migliore per centri di lavoro a controllo numerico o macchine con tavole rotanti o a doppio pallet. È possibile realizzare una moltitudine di combinazioni di configurazioni di tastatura, che comprendono tipicamente il nuovo sistema di presetting utensile radio RTS in parallelo alla sonda radio da mandrino Renishaw RMP60, RMP40 o RMP600, da selezionare in base ai requisiti dell’applicazione specifica. La nuova interfaccia RMI-Q è utilizzata per attivare la sonda da mandrino oppure la sonda di presetting montata sulla tavola della macchina e dà una indicazione visiva del dispositivo attivato. Utilizza il consolidato sistema di trasmissione a salto di frequenza su spettro diffuso a 2,4 GHz, che permette funzionamento non interrotto negli ambienti di officina, sempre più saturi di segnali radio. Il sistema è adatto ad applicazioni che non abbiano una linea visiva sempre disponibile tra la sonda e il ricevitore e il suo campo di lavoro di quindici metri lo rende particolarmente adatto alle macchine di grandi dimensioni. La nuova sonda è un dispositivo compatto e senza cavi che non limita il movimento della tavola e combina la verifica dell’integrità utensile con una misura dell’utensile rapida e accurata. Il suo design la rende particolarmente adatta a macchine con doppio pallet o tavola rotante, che hanno sempre reso complicata l’installazione di sonde cablate. La sonda RTS è un dispositivo radio per il presetting utensile e la verifica dell’integrità dell’utensile. Comunica utilizzando una trasmissione radio che la rende ideale per macchine di grandi dimensioni o in cui non ci sia una linea visiva tra la sonda e il ricevitore. La sonda radio è progettata per rispettare le regolamentazioni radio in tutto il mondo e utilizza una comunicazione radio a salto di frequenza su spettro diffuso sulla banda 2,4 GHz. La sonda RTS può misurare sia diametro sia lunghezza di frese e punte.

Per ulteriori informazioni: www.asita.com

Per ulteriori informazioni: www.renishaw.it

T_M ƒ 319


T U T T O _ M I S U R E Anno XIV - n. 4 - Dicembre 2012 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Bruno Andò, Filippo Attivissimo, Alfredo Cigada, Domenico Grimaldi, Claudio Narduzzi, Marco Parvis, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Alfredo Cigada Le pagine degli IMP: Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla), CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Alberto Carpinteri, Paolo Vigo, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli) Videoimpaginazione: la fotocomposizione - Torino Stampa: La Grafica Nuova - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/5/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.

NEL PROSSIMO NUMERO • Misure per l’Industria • Tavola Rotonda virtuale: le miusure senza contatto • Sensori di pressione in nanocomposito E molto altro ancora

T_M

N.

ABBIAMO LETTO PER VOI

La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)

MODERN GAS-BASED TEMPERATURE AND PRESSURE MEASUREMENTS Franco Pavese e Gianfranco Molinar Min Beciet 650 pp. – Springer, New York, USA (2013) ISBN 978-1-4419-8282-7 www.springer.com/physics/applied+%26+technical+physics/book/978-1-4419-8281-0

Prezzo: Hardcopy version: € 207,95 – e-book: € 189,99 Questo libro, alla sua seconda edizione (la prima è uscita nel 1992), contiene sostanziali revisioni in ogni singolo capitolo, con gli aggiornamenti scientifici necessari, e anche un nuovo capitolo (Cap. 11) sull’impatto del MRA sulle misure di temperatura e di pressione in mezzo gassoso e per i campi di misura d’interesse del libro, oltre alla sostanziale revisione di tutte le Appendici. Indice dei contenuti – The concept of temperature – Gas-based fixed points for thermometry – Gas thermometry between 0.5 K and 273.16 K – Vapor-pressure thermometry – Thermometry based on the melting line of 3He – Cryostats for thermometry and gas-based temperature control – Primary standards for pressure measurements – Pressure transducers for gaseous media – Gas based pressure fixed points – The thermomolecular pressure difference effect – The Mutual Recognition Arrangement and its implementation in Temperature and Pressure – Appendix A – The international Temperature Scale of 1990 – Appendix B – List of temperature and pressure fixed points – Appendix C – Reference data on gases – Appendix D – Vapor pressure equations – Appendix E – Reference data for liquid-column manometers – Appendix F – Reference data for pressure balances – Appendix G – The text of the Mutual Recognition Arrangement – Appendix H – General terminology in measurements – INDEX. Gli Autori – Franco Pavese e Gianfranco Molinar Min Beciet sono ricercatori dell’Istituto Metrologico Nazionale (I.N.Ri.M.).

LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AEP Transducers p. 242 Affidabilità & Tecnologie p. 246-247 Asita p. 319 Aviatronik 4a di cop Bocchi p. 244 CAM 2 p. 288 Cibe p. 292 DGTS p. 252 HBM p. 288-306-312 Hexagon Metrology p. 282-284 IC&M p. 298 Instrumentation Devices p. 266

4/12 ƒ 320

Keyence Kistler Italia Labcert LMS Italiana LTTS Luchsinger Mager Mitutoyo Italiana PCB Piezotronics Physik Instrumente Renishaw Rupac

p. 241-314 p. 314 p. 254 p. 256-284 p. 267 p. 274-300 p. 300 3a di cop p. 280-298 p. 258 p. 270-319 2a di cop-308


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.