Tutto_Misure 02/2012

Page 1




TUTTO_MISURE

ANNO XIV N. 02 ƒ 2012

IN QUESTO NUMERO Moduli inerziali e Sensor Fusion per il rilevamento del movimento umano Inertial modules and sensor fusion to detect human movement I. Aleo, C. Brigante

97 Misure d’illuminamento con Multi-luminanzometro Illuminance measurements from a multi-luminance meter P. Fiorentin, A. Scroccaro

111 La valutazione della competenza nei laboratori di prova e taratura Competence evaluation in Test and Calibration Laboratories M. Lanna

131 Misurare l’affidabilità: l’importanza di conoscere il processo di degradazione Measuring reliability: the importance of knowing the degradation process M. Catelani, L. Cristaldi, M. Lazzaroni

142

Editoriale: Incubatori e altro ancora (F. Docchio) 85 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 87 Il tema: Controlli e misure Sensori e soluzioni innovative: stato dell’arte e future evoluzioni (a cura di M. Mortarino) 89 Gli altri temi: Misure MEMS Moduli inerziali e Sensor Fusion per il rilevamento del movimento umano (I. Aleo, C. Brigante) 97 Gli altri temi: Misure per la Diagnosi Energetica Incrementare il valore degli edifici industriali (a cura di P. Vigo, M. Dell’Isola, M. Mosca) 103 Gli altri temi: Misure meccaniche Misuratore di prossimità per la sicurezza attiva di motoseghe e attrezzi da taglio (M. Norgia, C. Svelto) 107 Gli altri temi: Misure per l’Illuminazione Misure d’illuminamento con Multi-luminanzometro: un errore? Una complicazione? … O una possibile soluzione? (P. Fiorentin, A. Scroccaro) 111 Gli altri temi: Misure per la Salute dell’Uomo Un nuovo sensore attivo per il monitoraggio del gas Radon (L. Rovati, G.F. Dalla Betta, A. Bosi, F. Cardellini) 115 Gli altri temi: Misure a Microonde Riflettometria a microonde per l’individuazione di perdite in condotte idriche interrate (A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto) 121 Gli altri temi: Psicologia e Misure Da Fechner a Luce, la misura in psicologia – Prima parte (S. Noventa, G. Vidotto) 127 Gli altri temi: I Laboratori di Prova La valutazione della competenza nei laboratori di prova e taratura: un metodo per valutare la competenza del personale (M. Lanna) 131 Gli altri temi: Energia e Misure Politiche energetiche e sistemi di monitoraggio – Seconda parte (A. Di Nisio, M. Savino, M. Spadavecchia) 135 Campi e Compatibilità Elettromagnetica Strumentazione di base nelle misure di Compatibilità Elettromagnetica: il ricevitore EMI di radiodisturbi Prima parte (C. Carobbi, M. Cati, C. Panconi) 138 I Seriali di T_M: Misure e Fidatezza Misurare l’affidabilità: l’importanza di conoscere il processo di degradazione (M. Catelani, L. Cristaldi, M. Lazzaroni) 142 Le Rubriche di T_M: Metrologia legale Autovelox & Co.: strumenti di misura? (V. Scotti) 145 Le Rubriche di T_M: Lettere al Direttore Sul sistema SI: risposta all’articolo di Sergio Sartori sul Sistema Internazionale (W. Bich) 147 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi (F. Docchio, A. Cigada, A. Spalla, S. Agosteo) 148 Lo spazio degli IMP Un algoritmo per la misura ottica dello spessore di film spessi (G.B. Picotto, F. Moro, V. Giaccone) 150 Manifestazioni, Eventi e Formazione 2012-2013: eventi in breve 154 Commenti alle norme: la 17025 Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte terza (N. Dell’Arena) 155 Commenti alle norme Guida alla valutazione dell’incertezza nelle misure EMC: IEC/TR 61000-1-6 (C. Carobbi) 157 Abbiamo letto per voi 160 News 96-102-110-114-116-118-120-122-125-126-130-136-159

T_M

N.

2/12 ƒ 83



Franco Docchio

EDITORIALE

Incubatori e altro ancora

Incubators and more Cari lettori! L’edizione 2012 di Affidabilità e Tecnologie ha confermato il trend di crescita di quelle precedenti, come numero sia di espositori sia di visitatori. Numerosi seminari e convegni si sono succeduti nelle due giornate di evento: due di questi sono stati dedicati, rispettivamente, alla Visione e alla Fotonica. Con una soddisfacente partecipazione di pubblico, sono stati entrambi occasioni per uno stato dell’arte delle affascinanti evoluzioni di componentistica, tecnologie e applicazioni di queste discipline. Da Presidente del Comitato Scientifico e Industriale, oltreché da “cultore della materia” delle due discipline, ringrazio tutti per la partecipazione. L’evento mi ha dato lo spunto per l’argomento di questo editoriale. Una brezza (“ventata” sarebbe esagerato) di entusiasmo sembra scuotere il mondo della ricerca congiuntamente al mondo imprenditoriale: l’industrializzazione e la diffusione dei prodotti della ricerca. Nei convegni e negli stand erano presenti relazioni e prodotti high-tech di start-up universitarie. Colleghi docenti e ricercatori proponevano i loro prototipi, più o meno ingegnerizzati, con un piglio sorprendente di “commerciali”, che mascherava una qualche timidezza. In aggiunta, anche in questo numero della rivista compare un articolo che presenta un prodotto di una start-up universitaria (il sensore di Radon). Aria nuova anche in Italia? Da me intervistati, quasi tutti i responsabili delle start-up mi hanno detto di aver trovato sede presso incubatori. Attenzione: non negli incubatori “istituzionali” (quelli realizzati da consorzi pubblici che includono l’Università madre), bensì nei cosiddetti incubatori privati! È proprio questa la novità, che saluto con piacere. I “vecchi” centri di trasferimento tecnologico, gestiti pubblicamente, stanno mostrando i loro limiti dovuti a una gestione di tipo pubblicistico, che spesso complica la vita alla neonata azienda invece di semplificarla. La mancanza di stimoli all’innovazione e la tendenza al conservatorismo da parte di molti dei consigli di amministrazione di questi centri li fa spesso diventare (come dice un amico imprenditore) una pura operazione immobiliare fatta di “gusci vuoti”. Diverso è l’approccio del privato. Ad esempio nel Bresciano, per quanto sto osservando, sta aumentando da parte degli imprenditori la voglia di realizzare incubatori, magari associata alla nuova sede di un’impresa o dentro la ristrutturazione di un immobile di proprietà. Qual è la motivazione del-

l’imprenditore (o del gruppo d’imprenditori) a realizzare incubatori che ospitino industrie high-tech provenienti dall’Università? In primis, il desiderio di attrarre nuovi ricercatori e dottori di ricerca, offrire loro alloggio e servizi a prezzi concorrenziali e, nello stesso tempo, monitorarli e “fiutare” una possibile sinergia, acquisizione o semplice partecipazione se la start-up “funziona”. In secondo luogo, è evidente l’ambizione a qualificarsi di fronte al loro mercato di riferimento, e alla cerchia dei loro fornitori e clienti, come fautori dell’innovazione e promotori di nuove tecnologie. Tutto ciò è positivo? Che il privato si affianchi e anzi “rivaleggi” in efficienza con il pubblico è sicuramente un dato positivo, a due condizioni: la prima è che si eviti l’italica tendenza alla frammentazione (nulla sarebbe più dannoso di una miriade di microincubatori non coordinati tra di loro). La seconda, a mio avviso, è che queste iniziative non siano il pretesto per l’accesso sfrenato a fondi pubblici: in caso contrario, saremmo al punto di prima. Il ruolo di questa rivista come Forum di discussione su temi “caldi” relativi alle misure e alla metrologia si sta rafforzando. Un esempio è dato dal “botta e risposta” (la “botta” di Sergio Sartori sul numero precedente, la “risposta” di Walter Bich nelle Lettere al Direttore di questo numero) riguardo alle conseguenze della Rivoluzione del Sistema Internazionale. Un altro esempio è la seconda parte dell’articolo di Mario Savino e collaboratori, sulle misure per l’energia. Il commento che posso fare in questo caso è quello che, in molti settori della vita di tutti i giorni, le attività umane sono sempre più “distribuite” e “delocalizzate” (nella produzione di energia così come nell’automazione industriale, nella sensoristica come nel “cloud computing”, e così via). Paradossalmente, in questo universo di relazioni sempre più “liquide” il vero legante sembra essere la misura. Aspetto, questo, che emerge forte nell’articolo di Stefano Noventa e Giulio Vidotto sulle Misure in psicologia. Prosegue infine la serie delle Tavole Rotonde “virtuali” fra esperti di misure. La seconda Tavola Rotonda è dedicata a Sensori e soluzioni innovative per Testing e Misure. Buona lettura! E, mi raccomando, continuate a contribuire numerosi alla rivista, inviate notizie e articoli (quest’invito è rivolto particolarmente alle imprese, piccole e grandi, vecchie e nuove che si occupano di misure)! Franco Docchio

p.s.: Data l’abbondanza dei contributi pervenuti, alcuni articoli e la Rubrica di “Visione artificiale” sono stati rimandati al prossimo numero.

T_M

N.

2/12 ƒ 85



COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)

Notizie nel campo delle misure e della strumentazione

NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of relevant news of Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. TRASFERIMENTO TECNOLOGICO A BRESCIA: NUOVO SENSORE BIOMETRICO

misurazione del battito, esistono in varie versioni (per iPhone, per Android, ecc.) proprio a causa dell’incompatibilità di supporto dei profili Bluetooth da parte dei diversi sistemi operativi. L’idea sviluppata a Brescia è quindi di utilizzare l’universalità dei microfoni Bluetooth per portare informazioni biometriche quando non è in atto una chiamata. I segnali biometrici, nel caso specifico un segnale fotopletismografico, sono opportunamente modulati e convogliati sull’ingresso audio del modulo Bluetooth, dove viene normalmente portato il segnale del microfono in caso di accettazione della chiamata. Il bassissimo consumo della soluzione ideata permette di realizzare nuove generazioni di dispositivi biometrici con interfaccia universale Alcuni studenti di Laurea e di Dottora- per qualsiasi tipo di smartphone, to di ricerca del Dipartimento di Inge- tablet o PC. gneria dell’Informazione dell’Università di Brescia, coordinati dalla Prof.ssa Alessandra Flammini, hanno ideato COLLABORAZIONE un nuovo tipo di sensore biometrico. Il TRA IL GRUPPO GMEE sensore, il cui brevetto è stato deposi- DELL’UNIVERSITÀ DELL’AQUILA tato dall’Università stessa, è in grado ED ENERGETICA ITALIA SRL di utilizzare il profilo audio Handsfree PER LA CARATTERIZZAZIONE di Bluetooh e supererà i limiti d’in- E IL COLLAUDO compatibilità d’interfaccia verso D’IMPIANTI FOTOVOLTAICI smartphone con diverso sistema ope- DI MEDIA E GRANDE TAGLIA rativo. Al momento, infatti, i dispositivi biometrici, come ad esempio di Energetica Italia srl ha avviato nel

2011 una collaborazione con i docenti dell’Unità GMEE della Facoltà di Ingegneria dell’Università dell’Aquila per quanto concerne le tematiche di collaudo e di caratterizzazione degli impianti fotovoltaici di media e grande taglia. È stato sviluppato un sistema automatico di misura in grado di acquisire simultaneamente 20 canali analogici con frequenza di campionamento fino a 500 kSample/s, a 16 bits per l’acquisizione delle forme d’onda di correnti e tensioni continue e alternate, nonché dei parametri ambientali quali irraggiamento, temperatura dell’aria e dei pannelli fotovoltaici. I trasduttori utilizzati consentono la misura di correnti fino a 2 kA e tensioni fino ad 1 kV. Il software di misura e di elaborazione dei dati è stato sviluppato in ambiente NI LabVIEW. Il sistema è stato utilizzato per il collaudo dell’impianto da 842 kWp denominato “Cupello 1”, nel Comune di Cupello (CH). SCUOLA DI FISICA E TECNOLOGIA DELLA MATERIA A OTRANTO

Il CNR organizza la prima edizione della Scuola di Fisica e Tecnologia della Materia che si terrà a Otranto dal 16 al 22 Settembre 2012. I Diret-

T_M

N.

2/12 ƒ 87


N. 02ƒ ; 2012

COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE

Il Collega Prof. Bruno Andò comunica l’elenco dei progetti di ricerca finanziati al Dipartimento di Ingegneria Elettrica Elettronica e Informatica dell’Università di Catania, dalla Regione Sicilia su fondi comunitari. Chiunque fosse interessato può contattare il Prof. Andò all’indirizzo bruno. tori Scientifici sono il Prof. Mataloni ando@dieei.unict.it. (Università Sapienza) e il Prof. Fazio (Scuola Normale Superiore di Pisa). Progetti finanziati nell’ambito La Scuola, rivolta a studenti PhD e del POR FESR Sicilia-4.1.1.1 post-doc, verterà quest’anno sul con- RESIMA: “REti di Sensori Intelligenti e cetto di coerenza visto nei vari aspet- Mobilità Assistita per anziani e sogti, dalla fisica del laser all’ottica e al- getti svantaggiati” l’informazione quantistica, al magne- SECESTA: “Reti di SEnsori per il monitismo e alla spintronica, supercondut- toraggio delle CEneri vulcaniche nella tività, BEC, mentre per l’anno prossi- Sicurezza del Trasporto Aereo” mo si pensa già a una tematica che SENTINELLA: “Sistemi multisensoriali includa i sensori. per il monitoraggio di pannelli fotoIl sito web della Scuola è disponibile voltaici: efficienza energetica e antiall’indirizzo www.dmd-sptm.it. taccheggio” Nelle prossime settimane sarà reso SVI.SI.S.CA.: – SVIluppo di un Sistepubblico anche il programma, che in- ma Intelligente per la Salute a CAsa cluderà sia seminari sia dibattiti scien- SEAMED: Satellite Emergency Assitifici alla presenza di esperti nei suc- stance for MEDiterranean Region citati campi della fisica. VERIficatore CHIMico – VERICHIM Ricerca e Sviluppo di Trasduttori Elastomerici intelligenti per gli impieghi RICERCA A PALERMO industriali Monitorabili da remoto SU FONDI COMUNITARI testati su Applicazioni volte alla diagnostica strutturale – STEMA Advanced High performance inTeRactive Egse: un “Ground Segment” innovativo per il testing, la simulazione avanzata e il controllo di sistemi e apparati spaziali – HERA.

sorta di pièce teatrale dedicata alle misure elettriche, rappresentato il 14 Maggio scorso presso l’Università di Milano Bicocca, nell’ambito della cerimonia delle premiazioni delle Olimpiadi della Fisica 2012. La trama è semplice: si parte da un modernissimo iPad e si fa un lungo flash back al momento in cui il danese Oersted, nel 1819, appoggiando sopra una bussola un filo elettrico percorso da corrente, si accorse che il passaggio della corrente nel filo influenza la posizione dell’ago magnetico. Da quel momento, in cui il magnetismo e l’elettricità si sono in qualche modo unificati, sebbene del tutto empiricamente, diversi sono i passi che ci hanno portato fino ai moderni strumenti analogici di misure elettriche. Una serie di strumenti della Collezione Misurando dell’Ing. Oronzo Mauro, opportunamente selezionati, si “denudano” e si presentano per le loro caratteristiche, per i loro limiti, per le modalità con cui potevano essere utilizzati. La curiosità di vederli in azione è stata assecondata con un concreto tuffo nell’elettricità ottocentesca! Bussole delle Tangenti, Galvanometri di Nobili, di Deprez e d’Arsonval, di Thompson e indicatori Weston si sono accesi e si sono mostrati in tutte le loro fattezze. La comunicazione è stata unica nel Progetto finanziato suo genere perché ha permesso ai dalla comunità europea FP7 TIRAMISU: Toolbox Implementation partecipanti di correre sui binari del for Removal of Anti-personnel Mines tempo scoprendo insieme l’astuzia e le capacità costruttive di uno dei Submunitions and UXO. periodi della nostra storia tra i più ricchi d’innovazione tecnologica e scientifica. PIECE TEATRALE CON STRUMENTI DI MISURA

“Misurare la luce con la luce: ma… Per informazioni: iniziamo dall’iPad” è il titolo di una oronzo.mauro@tiscali.it.

T_M ƒ 88


CONTROLLI E MISURE

IL TEMA

a cura di Massimo Mortarino

Sensori e soluzioni innovative: stato dell’arte e future evoluzioni Tavola rotonda “virtuale” con autorevoli esperti

SENSORS AND INNOVATIVE TOOLS FOR CONTROLS AND MEASUREMENTS Encouraged by the appreciation of the readers for this kind of “editorial inquiry”, Tutto_Misure organized a second “virtual” Round Table, focused on “Sensors and innovative tools for controls and measurements”: an important topic for all manufacturers who wish to increase the value of their offer to be competitive. Our aim is to focus the state of art, the possible evolution and the real advantages for all manufacturers who wish to approach controls and measurements as an opportunity, making reasoned and informed choices for a true competitive improvement. In the next issues, Tutto_Misure will propose two other interesting Round Tables: Tests and calibration to ensure reliability – Legal metrology. RIASSUNTO Confortata dall’apprezzamento dei lettori per questa forma di approfondimento editoriale, Tutto_Misure ha organizzato una seconda Tavola Rotonda “virtuale” focalizzata questa volta su “Sensori e soluzioni innovative per controlli e misure”, argomento estremamente attuale e importante per tutte le aziende manifatturiere impegnate ad aumentare il valore della propria offerta per essere competitive. Il nostro obiettivo è quello di delineare lo stato dell’arte, le possibili evoluzioni e i vantaggi per tutte le imprese manifatturiere mirate ad approcciare a controlli e misure come a reali opportunità, compiendo scelte ragionate e informate per un vero miglioramento competitivo. Nei prossimi numeri Tutto_Misure proporrà altre due interessanti Tavole Rotonde: Prove e tarature a garanzia dell’affidabilità – Metrologia legale CONTROLLI E MISURE: SENSORI E SOLUZIONI INNOVATIVE

Si è da poco conclusa (18/19 aprile scorso, a Torino, presso Lingotto Fiere) la sesta edizione di AFFIDABILITÁ & TECNOLOGIE (www.affidabilita.eu), la manifestazione italiana focalizzata sui Metodi, Soluzioni e Tecnologie per l’Innovazione Competitiva, che ha ospitato al proprio interno la più importante mostra di strumenti, soluzioni e servizi nell’ambito delle Misure, Prove e Controlli. Un approfondimento obbligato, in considerazione della notevole evoluzione in atto da tempo in questi ambiti fra loro sempre più integrati e sinergici, che ha suscitato l’interesse di migliaia di decisori e responsabili tecnici di aziende manifatturiere, intervenuti all’evento per individuare le miglio-

ri soluzioni innovative di supporto alle loro esigenze in termini di miglioramento competitivo. Da anni gli esperti evidenziano che le aziende che gestiscono i controlli e le misure come “opportunità”, non come mero “obbligo”, possono godere di vantaggi importanti in termini di qualità, affidabilità, flessibilità dei propri prodotti e processi. Ma in quali termini, a livello concreto? A quali condizioni? Con quale impegno, a livello organizzativo ed economico? Per tentare di rispondere a questi e altri interrogativi, fondamentali per moltissime imprese manifatturiere interessate ad avvicinarsi a soluzioni innovative in quest’ambito, in funzione di specifiche problematiche per le quali trovare le risposte più efficaci e più competitive, abbiamo interpellato i rappresentanti di

alcune realtà primarie operanti nell’ambito dei sensori e delle soluzioni innovative per controlli e misure, chiedendo loro di tracciare uno “stato dell’arte” delle tematiche in questione e anticiparne le possibili future evoluzioni. Nelle loro risposte sono contenute informazioni puntuali e aggiornate per chi deve indirizzare e governare i progetti di cambiamento all’interno delle nostre aziende manifatturiere, presentando il reale valore di soluzioni ancora poco diffuse (o, comunque, adottate più per accontentare il committente che a fronte di una scelta d’investimento consapevole e ragionata), a causa di una scarsa specifica cultura da parte dell’utenza e, a volte, della rapida evoluzione delle proposte presentate sul mercato. Hanno partecipato a questa Tavola Rotonda Virtuale: • Roberto Vegliach (KISTLER Italia – Direttore Tecnico) • Giovanni Martoccia (ATEQ Systèmes Analitiques Italia – Responsabile Commerciale) • Gianni Reinaudo (AVL Italia – Affiliate Business Unit Manager Instrumentation & Test System Combustion, Consumption & Emission Measurement) • Paolo Ambrogioni (BIMAL – Responsabile Commerciale & Marketing Estero) • Angelo Marchini (CATE – Presidente) • Gianluca Marengo (HBM Italia – Responsabile Marketing Italia) D: Come giudica il livello di attenzione, da parte delle aziende manifatturiere italiane, nei confronti delle soluzioni innovative mirate a garantire l’affidabilità della propria pro-

mmortarino@affidabilita.eu

T_M

N.

2/12 T_M ƒ 89



Roberto Vegliach

Giovanni Martoccia Gianni Reinaudo

duzione, anche rispetto alla realtà dei competitor esteri? (Marengo – HBM) HBM è presente in Italia da 40 anni, e da sempre segue il trend di costante crescita del gruppo a livello mondiale. L’industria italiana comprende aziende ed enti di eccellenza in molti settori, che hanno consentito questa crescita di HBM nel mercato italiano. L’affidabilità e l’innovazione sono caratteristiche che contraddistinguono l’industria italiana da molti anni e gli investimenti fatti recentemente da molte aziende anche nel campo del testing, della misura e nei controlli della produzione fanno ben sperare che le aziende italiane sapranno competere anche in futuro in un mercato sempre più globale e che richiede il rispetto di standard internazionali. Tuttavia, leggendo i dati degli investimenti in ricerca e sviluppo sulla percentuale del PIL, risulta che in Italia si potrebbe e si sarebbe potuto fare molto di più se aziende ed enti del settore privato e pubblico avessero investito nella ricerca quanto la media delle omologhe realtà di altri Paesi europei. (Vegliach – KISTLER) Kistler è da sempre all’avanguardia per quanto riguarda il controllo della qualità nei processi produttivi e nel montaggio finale e il mercato italiano è sempre più teso a garantire una qualità all’altezza di quanto propongono i produttori tedeschi e francesi. Gli investimenti in questo campo sono sempre più in crescita e la tendenza è positiva: vediamo che per ogni nuovo prodotto che l’industria mette in produzione viene sempre messa in atto una politica molto stretta di controllo di qualità totale. (Martoccia-ATEQ) Persa la battaglia dei prezzi, l’unico campo nel quale si può essere vincenti, rispetto ai propri competitor esteri, è quello dell’affidabilità e della qualità del prodotto. Sempre più aziende, non solo di grandi dimensioni, hanno fatto propria questa politica e in tal senso investono. Una delle priorità è la qualità, ambito nel quale il nostro ruolo e la nostra responsabilità sono molto importanti: in particolare nell’ottica di garantire la qualità che viene richie-

Paolo Ambrogioni

sta. I risultati che stiamo ottenendo ci convincono del fatto che questa è la strada da percorrere: ricerca della qualità e affidabilità, per poter offrire un prodotto di eccellenza. (Reinaudo – AVL ITALIA) Investire per crescere e per essere affidabili: questo è indubbiamente un metodo consolidato. Le nuove normative e i limiti sempre più restrittivi costringono i nostri clienti all’investimento. Il prodotto finale sarà affidabile e di alta qualità tanto quanto il produttore sarà stato in grado di sfruttare al meglio l’investimento. Per questo motivo, il supporto applicativo al cliente risulta nuovamente essere l’arma vincente. (Ambrogioni – BIMAL) L’attività di realizzare banchi di prova per il controllo e miglioramento della qualità, iniziata oltre 25 anni fa dalla Bimal, rappresenta una sfida ampiamente vinta. Nel corso dei primi anni di attività solo poche aziende investivano in questo settore, mentre ora la qualità è un importante cavallo di battaglia per sconfiggere la concorrenza. L’Italia è sicuramente fra i paesi che credono maggiormente in questa tipologia d’investimento; le riduzioni d’investimento di questi ultimi periodi sono solo legate alla generalizzata crisi economica in atto. (Marchini – CATE) La nostra esperienza ci dice che le aziende con una chiara visione della loro strategia aziendale investono, nella consapevolezza che non farlo significa decretare la fine della propria impresa. Non tutte però hanno questa chiara visione del futuro: alcune vedono ancora l’investimento in un banco di collaudo o in una sala prove come un costo da affrontare solo se pagato da un finanziamento, se necessario per legge o perché imposto dai propri clienti. Alcuni hanno anche difficoltà oggettive a investire, a causa della stretta economica e delle condizioni di mer-

Angelo Marchini

Gianluca Marengo

cato. Ma le aziende che hanno progettato di crescere e, soprattutto, quelle che vogliono aumentare la loro competitività sui mercati globali stanno investendo in maniera importante nella qualità, sia in fase di progetto sia in quella del testing. Con un occhio attento al costo, ma senza rinunciarvi. D: L’offerta in quest’ambito varia a seconda della sensibilità delle singole aziende manifatturiere e delle richieste degli specifici mercati: che cosa propone la vostra azienda di realmente distintivo/competitivo all’interno di questo vastissimo panorama? (Marengo – HBM) I nostri sistemi di acquisizione dati sono concepiti per fornire al cliente efficienza e affidabilità nelle misure in ogni ambiente operativo, puntando sulla specializzazione delle caratteristiche della strumentazione in funzione delle applicazioni e fornendo catene di misura complete e perfettamente accordate, dal sensore al software. Per questo motivo il compito del team di HBM Italia è quello di consigliare l’utilizzatore nella scelta dello strumento più idoneo per l’applicazione e poi di garantire la formazione del cliente e il supporto post vendita. Che si tratti di prove con un numero contenuto o elevato di canali, basse o alte frequenze di campionamento, impieghi in laboratorio, su veicolo, macchinari di produzione o in ambienti ostili e gravosi, HBM ha l’acquisitore dati dedicato all’applicazione specifica. Qualunque sia l’hardware prescelto, il software di acquisizione è unico per tutti, Catman AP, consentendo quindi all’utilizzatore di ridurre i tempi di apprendimento e ottenere in modo



semplice e rapido i risultati di misura. (Vegliach – KISTLER) La filosofia di Kistler è quella di proporre soluzioni sviluppate per risolvere al meglio le applicazioni per le quali, da più di 50 anni, propone i suoi sensori. In particolare, Kistler ha recentemente investito per mettere a disposizione di chi sviluppa e calibra motori a combustione interna un prodotto innovativo, che rappresenta di sicuro un notevole salto tecnologico. Il sistema KiBox mette a disposizione direttamente in vettura e in maniera molto semplice e intuitiva tutto quanto serve per conoscere i diversi parametri di funzionamento di un motore, tutto questo anche in regime fortemente transitorio. Il successo di questo prodotto, che copre una nicchia di mercato ben precisa e definita, conferma la validità della filosofia di sviluppo di Kistler. (Martoccia – ATEQ) Noi di Ateq ci occupiamo di leak testing dal 1975. I nostri strumenti si collocano in maniera trasversale nell’intero panorama produttivo. La capacità non solo di progettare e costruire strumenti di misura performanti, ma anche di ascoltare e molto spesso anticipare le necessità dei nostri clienti, ci consente oggi di essere leader nel settore e di poter offrire un prodotto flessibile. Non solo strumenti, ma un sistema modulare completo cucito, come un abito su misura, sulle esigenze del cliente. E infine il nostro valore aggiunto: il know-how. Oltre 35 anni di esperienza a disposizione dei nostri clienti, che vengono affiancati passo dopo passo, dal progetto alla realizzazione finale. (Reinaudo – AVL ITALIA) La sempre maggiore spinta verso alte performance dei sistemi di misura e controllo coincide con l’aumento della complessità d’uso dei prodotti stessi. Per questa ragione, da circa un paio d’anni, AVL ha creato un team di Applicazione atto a favorire la fase di start-up, di training on the job e di supporto costante al cliente. L’utiliz-

IL TEMA

zo non appropriato di uno strumento genera malcontento da parte del cliente e spesso sfocia in un abbandono dello stesso, con conseguente perdita dell’investimento e del business da parte del fornitore. Aumentare l’efficienza del sistema cliente è per AVL un’azione obbligata sulla quale crediamo e ci impegniamo a perseguire. (Ambrogioni – BIMAL) La Bimal si caratterizza per l’ampio know-how sulle tecnologie inerenti le attrezzature per il testing. La sua struttura di circa 65 persone è in grado di supportare grandi aziende per svariate esigenze di testing su componenti fluidici o meccanici. (Marchini – CATE) La nostra società, presente sul mercato da 33 anni, progetta e realizza banchi di collaudo e sale prova proponendo ai propri clienti soluzioni fortemente personalizzate, chiavi in mano. Non costruendo prodotti standard, ci distinguiamo per la disponibilità a collaborare con il singolo cliente nell’analisi del problema, fino a ottenere la soluzione a lui più congeniale. CATE è molto competente nella personalizzazione del software d’interfaccia e controllo dei banchi di test, che sviluppa con tecnologie National Instruments di cui è Silver Partner. Oltre alle proprie risorse può mettere a disposizione importanti competenze nel settore meccanico, oleodinamico e impiantistico, grazie alla collaborazione con partnership consolidate formate da piccole imprese, caratteristica e vanto della regione Emilia in cui opera. Questo tipo di organizzazione ci permette di garantire competenze specializzate e qualificate per ogni diverso problema, pur mantenendo costi competitivi. Ma, soprattutto, siamo un’azienda che svolge ancora il proprio lavoro con grande passione.

neficiare delle Vostre proposte? E quali sono le esigenze (prestazioni, prezzi, ecc.) alle quali i clienti vi chiedono maggiormente di rispondere? (Marengo – HBM) HBM punta principalmente su applicazioni nei campi della ricerca e sviluppo, prove e misure e controlli di produzione e processo. I settori di applicazione vanno dall’automotive all’aerospaziale, dal ferroviario al navale, dall’ingegneria dei materiali a quella civile, dal settore energetico ai laboratori di taratura. I clienti ci chiedono innanzitutto competenza nelle applicazioni, oltre a strumenti che rispondano a criteri di “usability” e affidabilità, e sempre di più ci coinvolgono con spirito di partnership nei progetti, affidandoci consulenze tecniche e misurazioni. (Vegliach – KISTLER) Le proposte attuali di Kistler coprono, oltre al già menzionato mercato dello sviluppo dei motori endotermici, il mercato dello stampaggio a iniezione delle materie plastiche. Il sistema CoMo Injection garantisce la possibilità di avere un controllo in tempo reale della qualità dei pezzi stampati con investimenti estremamente contenuti e la possibilità di controllo fino a 24 canali. Un terzo settore che Kistler copre con una nuova serie di prodotti è l’automazione dei sistemi di montaggio automatico, grazie a sistemi di assemblaggio innovativi che prevedono assi elettrici da 100 N a 300 kN con visualizzazione della forza di assemblaggio e verifica dei limiti in tempo reale. Ultimo nato, infine, è il sistema MaXYmo che consente il controllo dei processi di piantaggio con controllo forza vs. spostamento a un prezzo particolarmente interessante, mettendo a disposizione diverse interfacce elettriche come ProfiBus, Ethernet, USB, Digital I/O. (Martoccia – ATEQ) Come già detto, i nostri strumenti trovano collocazione nell’intero panorama produttivo: automotive, aerospaziale, medicale, elettronico, gas, valvolame, fonderie, elettrodomestici e molti altri. Le esigenze alle quali siamo chiamati a rispondere sono un mix di prestazioni, prezzo, D: Quali sono, oggi, i settori qualità, assistenza. È fondamentale che possono maggiormente be- per noi fornire tutto questo al meglio.

T_M ƒ 93


Mai come oggi la qualità e la tempestività di ciò che viene fornito fa la differenza tra vendere e non vendere. (Reinaudo – AVL ITALIA) Il rapporto prestazioni/prezzi rappresenta da sempre una sfida che coinvolge non solo le singole aziende fornitrici, bensì tutti i concorrenti dello specifico settore. Occorre CONOSCERE per PROPORRE! Solo se si conosce la reale necessità di un cliente si è davvero in grado di proporre il miglior prodotto. Con “miglior prodotto” non si intende sempre, in assoluto, il best top della gamma, bensì ciò che realmente potrebbe dare valore aggiunto al lavoro del cliente senza eccedere oltre alle reali necessità. La concorrenza è una giusta competizione, grazie alla quale tutti siamo costretti a crescere in qualità e prestazioni mantenendo il giusto rigore sui costi che determinano i prezzi finali. (Ambrogioni – BIMAL) Le aziende, nel passato, tendevano a realizzare al proprio interno tutte le attrezzature di prova. Oggi vi è stata una forte inversione di tendenza, in quanto i produttori tendono a dedicarsi al 100% al loro core business demandando all’esterno tutte le attività complementari. Nel nostro caso, i settori di maggiore interesse sono i grossi costruttori di componentistica meccanica o idraulica (cambi, trasmissioni, freni, motori/pompe idrauliche, tubazioni e raccordi, filtri, ecc.). (Marchini – CATE) CATE ha sviluppato molte esperienze, anche uniche, nel settore delle pompe da acqua, da quelle più piccole con misure di portata a peso fino a quelle in alta pressione; ma tutto il settore della fluidodinamica, quindi aria e olio, e degli organi di trasmissione, con prove a fatica e prove torsionali, ci ha visti protagonisti di esperienze originali. La nostra peculiarità, tuttavia, è quella di saper lavorare in partnership su soluzioni speciali; quindi i settori che possono maggiormente avvantaggiarsi del nostro lavoro sono quelli che non vogliono o non possono affidarsi a un banco di collaudo standard ma necessitano di una piccola azienda che sappia proporre loro sistemi di test realizzati in totale sinergia e secondo precise specifiche. Le aziende investono anche in progetti innovativi e

T_M ƒ 94

N. 02ƒ ; 2012

IL TEMA

per valutarli hanno bisogno di sistemi flessibili e competitivi, da utilizzare prima di predisporre una produzione e facili da utilizzare. CATE ha investito per produrre e mettere a disposizione un software, il “CAMALEONTE”, sempre sviluppato in LabVIEW con tecnologia NI, in grado di essere programmato autonomamente dal Cliente e quindi facilmente modificabile per adattarsi alle modifiche di progetto. D: Dal Suo punto di vista, quali saranno gli scenari futuri (evoluzione delle tecnologie, nuovi ambiti di applicazione, nuovi mercati)? (Marengo – HBM) Limitando la riflessione al nostro settore di competenza, riteniamo che “misurare e provare per conoscere” sia un principio che sarà sempre più adottato dall’industria e dagli enti, in considerazione soprattutto dei materiali innovativi che trovano maggiori e nuovi settori d’impiego, delle energie alternative, dei nuovi tipi di propulsori. Pensiamo anche che in futuro le prove e le misure sperimentali saranno sempre più integrate con misure e prove virtuali. Per poter soddisfare meglio la necessità d’integrare la prova fisica con quella virtuale, HBM ha acquisito negli anni scorsi aziende altamente specializzate in software di trattamento segnali, analisi dati e simulazione, come il caso di nCode. (Vegliach – KISTLER) In sostanza, crediamo che quanto è stato fatto dalle industrie di punta, automotive e medicali in primo luogo, verrà sempre più richiesto e trasferito anche in altri ambiti. Kistler sarà sempre più in prima fila per proporre soluzioni adatte ad esigenze diverse e tesa a offrire sistemi al passo con le nuove tecnologie dei diversi e nuovi bus di campo con la possibilità nativa di storicizzare la produzione. (Martoccia – ATEQ) Mai come negli ultimi anni le dinamiche dei mercati sono diventate imprevedibili: da qui la grande difficoltà nel poter delineare scenari futuri. Dal nostro canto cerchiamo di essere attenti osservatori e di cogliere le nuove esigenze. Non temiamo di esplorare nuovi settori e proporre le nostre soluzioni e le nostre idee. (Reinaudo – AVL ITALIA) Sicura-

mente l’Elettrificazione rappresenta un traguardo che all’orizzonte pare essere prossimo. AVL è fortemente impegnata in questa direzione e negli ultimi anni ha effettuato molteplici investimenti in quest’ambito a livello globale: nuove strutture di ricerca, nuovi team strutturati e, non ultimo, un’intensa collaborazione con alcuni key customer. (Ambrogioni – BIMAL) Lo sforzo di Bimal è quello di mantenersi sempre al passo con tutte le nuove tecnologie, che vengono poi impiegate nelle nostre attrezzature. Gli scenari futuri sono quelli di un mercato sempre più allargato e anche in questo, penso, abbiamo lavorato con forte impegno; a oggi le nostre vendite hanno raggiunto percentuali di export fino al 70%. I banchi prova Bimal sono oggi in funzione in tutta Europa, negli Stati Uniti, in Australia e Nuova Zelanda, in Cina e in India. (Marchini – CATE) Rispondo con una considerazione che mi è venuta alla mente un po’ di tempo fa: “L’unica cosa certa del futuro è che non sarà mai come te lo immagini”. Vera o sbagliata essa sia, questo particolare periodo storico sembra darmi ragione. In questo contesto CATE cerca di essere attenta ai cambiamenti, investendo essa stessa in qualità e formazione e, soprattutto, ascoltando il Cliente. D: Secondo Lei, è necessaria una maggiore cultura in materia? Quali strumenti di divulgazione suggerisce? (Marengo – HBM) La formazione ricopre un ruolo fondamentale per diffondere l’impiego corretto di tecnologie di prova e misura. Da diversi anni HBM investe molto nella divulgazione e nella formazione degli utilizzatori, sia attraverso seminari tecnici e corsi dedicati sia potenziando la propria struttura con application engineer e figure dotate di solido background tecnico. I forum e i seminari tematici nelle manifestazioni specialistiche rappresentano un veicolo di divulgazione molto apprezzato, così come la comunicazione via internet, ad esempio i webseminar. (Vegliach – KISTLER) Riteniamo che la migliore divulgazione venga fatta tramite seminari tecnici e la proposta di soluzioni tecniche “ad hoc”


N. 02ƒ ;2012

network oppure di forum dedicati. (Reinaudo – AVL ITALIA) Nel corso dell’ultimo ventennio abbiamo assistito a un incremento della richiesta di cultura anche nell’ambito della sperimentazione. Con l’avvento di modelli multidimensionali, l’essere umano si è trovato di fronte a situazioni non gestibili da chi, come noi, ragiona al massimo sulle tre dimensioni. La cultura in questo ci aiuta, ad esempio integrando in tool di ottimizzazione metodologie DOE, grazie alle quali la cultura viene messa a disposizione dell’utente finale. La cultura è ciò che ci permette di comprendere la difficoltà e studiarne o individuarne la soluzione. (Ambrogioni – BIMAL) Secondo noi, le informazioni sono ampiamente disponibili attraverso vari canali di divulgazione e la mentalità dei destinatari è sufficientemente ricettiva; quello che forse manca è un forte sostegno finanziario a questo settore. Tanto per essere chiari, occorrerebbe-

durante fiere e congressi tematici. Inoltre, la stampa settoriale riveste sempre un ruolo importante per portare all’attenzione dei possibili clienti le soluzioni più all’avanguardia, permettendo una prima conoscenza di quanto il mercato propone. (Martoccia – ATEQ) In materia di cultura nel testing e acquisizione dati, tanto è stato fatto ma molto resta ancora da fare. Penso sia auspicabile una maggiore divulgazione in tal senso. Nel contempo è evidente che tale opera richiede un impegno che spesso non è ripagato dai risultati. Ho notato, tuttavia, che negli ultimi anni sono aumentate le iniziative (seminari, incontri, forum, ecc.) organizzate nell’ambito di fiere ed esposizioni conclamate, che hanno ottenuto favorevoli apprezzamenti da parte dei partecipanti. Altro mezzo, che vedo molto apprezzato, sono le newsletter di divulgazione, dedicate ai singoli settori produttivi. Una nuova strada, che forse potrebbe essere sfruttata, è l’utilizzo dei social

IL TEMA

ro importanti finanziamenti, accompagnati tuttavia dalla certezza che i soldi ricevuti per ricerca e sviluppo vengano utilizzati per gli scopi ufficialmente dichiarati, non certo assorbiti dalle difficoltà quotidiane di produzione, come spesso accade. (Marchini – CATE) Esistono molti mezzi di divulgazione e non sempre si può avere il tempo per seguirli con l’attenzione che meritano. Il problema invece è come e cosa comunicare. A tale proposito, credo che molto potrebbero fare il mercato e il confronto: il primo perché sceglie i prodotti che maggiormente danno soddisfazione; il secondo perché potrebbe mettere in risalto la differenza di risultati tra aziende che investono in qualità e testing e quelle che non lo fanno, tra le diverse politiche economiche dei governi nei confronti delle imprese. I mezzi di divulgazione potrebbero quindi portare a conoscenza questi elementi di confronto, le scelte fatte, i risultati, gli errori e i successi.

Successo per AFFIDABILITÀ & TECNOLOGIE 2012! 198 Società espositrici – 5812 Visitatori (+15% rispetto alla scorsa edizione) 700 marchi esposti, 15 Seminari, 10 Convegni, 3 Laboratori mobili esterni La sesta edizione di AFFIDABILITÀ & TECNOLOGIE ha chiuso i battenti lo scorso giovedì 19 aprile, con forte affluenza di pubblico qualificato: un successo auspicato, in controtendenza e quindi ancora più gradito. I dati a consuntivo mostrano un ulteriore rafforzamento del trend di crescita registrato, anno dopo anno, dalla manifestazione, a livello sia di espositori sia di visitatori, nonostante l’attuale difficile contesto economico e produttivo. Gli affollati corridoi del padiglione espositivo hanno provocato commenti decisamente positivi da parte dei presenti. Uno per tutti (sentito più volte durante le due giornate), certamente particolare: “Che piacere partecipare a una manifestazione nella quale si respira un clima diverso dal solito, insieme a tante persone che hanno ancora voglia di combattere…!”. AFFIDABILITÀ & TECNOLOGIE 2012, in effetti, ha offerto ai partecipanti un programma di assoluto interesse per le migliaia di partecipanti, soprattutto decisori d’impresa e responsabili tecnici di aziende di ogni dimensione e settore produttivo, alla ricerca d’indicazioni concrete per poter aumentare la competitività delle proprie imprese, ma anche di stimoli e suggerimenti per approcciare a metodi, strumenti e tecnologie in grado di elevare il contenuto delle proprie offerte ai committenti e clienti. La “formula” della manifestazione ha saputo ancora una volta distinguersi con l’offerta di contenuti ad alto livello specialistico e soddisfare le esigenze di un pubblico qualificato e sempre più attento alle proposte concrete e applicabili che la manifestazione è in grado di offrire loro, rinnovandosi anno dopo anno. Ciò grazie al prezioso contributo di autorevoli esperti, operanti nell’ambito di aziende private e pubbliche, associazioni ed enti di ricerca, che hanno messo le loro conoscenze ed esperienze al servizio degli intervenuti. La settima edizione di AFFIDABILITÁ & TECNOLOGIE si svolgerà, sempre a Torino, il 17/18 aprile 2013. Vi aspettiamo!

T_M ƒ 95


N. 02ƒ ; 2012 ACCELEROMETRO PIEZOELETTRICO TRIASSIALE Gli accelerometri LIVM (denominati anche IEPE) sono sensori piezoelettrici che integrano un’elettronica che converte il segnale a elevata impedenza generato dal cristallo piezoelettrico in un segnale a bassa impedenza avente un’eccellente immunità al rumore e compatibilità per l’uso con cavi lunghi. I cristalli piezoelettrici sono in materiale ceramico disposti in configurazione al taglio (shear mode). La serie Dytran 3023 comprende una gamma completa di accelerometri triassiali con un eccellente rapporto prezzo/prestazioni. L’accelerometro Dytran mod. 3023A è saldato e sigillato con il laser in una custodia leggera di titanio del peso di soli 3 g e dimensioni di 9,1 x 9,1 x 9,1 mm3. La sua sensibilità nominale è di 10 mV/g per ogni asse (x, y e z) per un campo di misura di 500 g e una risposta in frequenza fino a 10.000 Hz. Il montaggio è adesivo, ma è disponibile anche una versione con montaggio a vite 5-40. In opzione è disponibile una versione che include un circuito TEDS (Transducer Electronic Data Sheet) che consente di memorizzare informazioni in formato digitale nel sensore stesso, quali modello, numero di serie e dati relativi alla taratura. Per ulteriori informazioni: www.luchsinger.it

OLTRE 30 NUOVE FUNZIONALITÀ PER CAM2 GAGE 2.2, SOFTWARE PER LA MISURA A CONTATTO CAM2 (Gruppo FARO Technologies), ha recentemente rilasciato la nuova versione CAM2 GAGE 2.2, software per i dispositivi di misura portatili a contatto CAM2 Gage e CAM2 Arm. Trenta nuove funzionalità fanno di questo software una delle soluzioni CAM2 più complete per veloci misurazioni a contatto a elevata precisione. La funzionalità QuickTools consente agli utenti di importare e utilizzare programmi QuickTools generati in CAM2 Measure 10. Codici a barre possono ora essere creati direttamente e salvati con i dati dei piani d’ispezione tramite un semplice clic: ciò assicura un’eccezionale velocità per tutte le attività di misura quotidiane ripetute con frequenza. Un ulteriore elemento di novità è costituito dalla nuova sonda che misura la temperatura dei componenti durante l’attività di misurazione: si tratta di un elemento molto importante poiché le variazioni della temperatura possono avere effetti negativi sulla precisione delle misure. Monitorando e compensando automaticamente queste variazioni, il software CAM2 GAGE garantisce risultati consistenti e di elevata precisione nonostante il cambiamento delle condizioni di misura. “Il software CAM2 GAGE 2.2 presenta nuove funzionalità che accelerano e semplificano le attività di misurazione. CAM2 è impegnata a migliorare costantemente le proprie soluzioni software di misura” afferma Markus Grau, Product & Business Development Manager CAM2 Gage di CAM2. “Con questa nuova release abbiamo raggiunto un altro importante traguardo: offrire il software di misura più semplice e intuitivo disponibile sul mercato”. Per ulteriori informazioni: www.cam2.it

T_M ƒ 96


GLI ALTRI TEMI

MEMS Ignazio Aleo 1, Carmen Brigante 2

Moduli inerziali e Sensor Fusion per il rilevamento del movimento umano Una tuta sensorizzata per l’analisi dei movimenti del corpo

INERTIAL MODULES AND SENSOR FUSION TO DETECT HUMAN MOVEMENT The opportunity to have a smart human motion tracking systems represents an interesting tool in a wide range of advanced applications, such as gaming, augmented reality, telemedicine, rehabilitation and many other human machine interaction applications. This paper presents a modular architecture to develop a wearable system for real-time human motion capture. The system is based on a network of smart inertial measurement units (IMUs) distributed on the body. Each of these modules is provided by a 32bit RISC microcontroller (MCU) and miniaturized MEMS sensors: 3-axis accelerometer, 3-axis gyroscopes and 3-axis magnetometer. The MCU collects measurements from the sensors and implements the sensor fusion algorithm. RIASSUNTO I sistemi intelligenti per il tracciamento del movimento del corpo umano rappresentano uno strumento interessante in una vasta gamma di applicazioni: dai videogiochi, alla realtà aumentata, alla telemedicina e al monitoraggio del paziente durante la riabilitazione. In particolare, architetture basate su moduli inerziali consentono di sviluppare sistemi modulari e facilmente indossabili per l’acquisizione in tempo reale del movimento del corpo umano. Il sistema proposto si basa su una rete di moduli inerziali (Inertial Measurement Unit, IMU) distribuiti sul corpo. Ogni modulo è dotato di un microcontrollore a 32 bit (MCU) e di sensori MEMS (un accelerometro triassiale, un giroscopio triassiale e un magnetometro triassiale). La MCU raccoglie le misure dei sensori e implementa un algoritmo di sensor fusion. LE NUOVE FRONTIERE DEI SISTEMI MOCAP

Negli ultimi anni i sensori MEMS hanno avuto ampia diffusione nel mercato automobilistico e nel campo dell’elettronica di consumo grazie alla loro continua miniaturizzazione e alla loro crescente precisione e accuratezza. Solo recentemente, con lo sviluppo di algoritmi di sensor fusion avanzati, si stanno schiudendo nuove frontiere applicative orientate alla medicina, allo sport, alla realtà aumentata e alla robotica. In particolare la possibilità di utilizzare e integrare diverse tipologie di sensori MEMS, quali accelerometri, giroscopi e magnetometri, sta consentendo lo sviluppo di piattafor-

rilevazione che siano di supporto agli anziani o a soggetti con problemi motori. Inoltre, nella medicina sportiva e nello sport in generale, potrebbero essere facilmente valutate le prestazioni degli atleti e monitorati i progressi. L’atleta (come il paziente) avrebbe a disposizione uno strumento in grado di registrare la storia del proprio movimento con l’enorme vantaggio d’individuare in modo specifico e mirato le eventuali correzioni necessarie per il miglioramento della prestazione. Inoltre architetture di sensori distribuiti per il MOtion CAPture (MOCAP) disposte su diverse strutture robotiche, come manipolatori industriali, sarebbero in grado di fornire una ridondanza nelle misure e conseguentemente aumentare la sicurezza e migliorare l’interazione uomo-macchina e macchina-ambiente. Da anni sono già disponibili sul mercato diverse tecnologie di MOCAP. Esistono, ad esempio, sistemi ottici, meccanici, magnetici e acustici. Questi metodi non risultano, tuttavia, ottimizzati per coprire tutte le applicazioni di cui discusso. I sistemi ottici sono, in questo momento, il riferimento in termini di precisione e affidabilità. Questi sistemi utilizzano, marcatori passivi che riflettono la luce infrarossa emessa da diodi emettitori disposti a corona intorno all’obiettivo di ogni telecamera. La posizione esatta dei marcatori nello spazio viene calcolata dal confronto e dalla sovrapposizione delle immagini registrate di tutte le telecamere

me in grado di monitorare il movimento con alta precisione e affidabilità. Queste piattaforme multi-sensore, comunemente chiamate IMU (Inertial Measurement Unit), possono rappresentare l’elemento base di una rete sensoriale per il monitoraggio del movimento di architetture complesse come il corpo umano o un braccio robotico. Tale possibilità apre nuovi scenari nel campo della sanità, dalla riabilitazione alla medicina sportiva, così come nel campo dei videogiochi con nuovi sviluppi verso la realtà aumentata. (1) Università di Catania Sistemi di tracciamento e misura del movimento del corpo umano consen- ialeo@dieei.unict.it tono di ottenere terapie di riabilita- (2) STMicroelectronics, Catania zione più efficaci e costruire reti di carmen.brigante@st.com

T_M

N.

2/12 ƒ 97


con metodi di triangolazione. Tale approccio, pur offrendo ottima affidabilità e precisione, è costoso ed è difficilmente trasportabile: necessita di un ambiente strutturato e identifica un volume utile al tracciamento la cui grandezza è inversamente proporzionale alla precisione ottenuta (alte precisioni spesso si ottengono in volumi ridotti). Altre soluzioni basate sull’elaborazione delle immagini che utilizzano tecniche di computer vision, spesso si basano su forti ipotesi sulla struttura cinematica tracciata (es. il corpo umano) e su considerazioni tipiche di studi sulla visione stereoscopica. Questi approcci sono molto semplici da un punto di vista hardware (e quindi poco costosi) ma sono meno precisi. Le tecniche basate su sistemi meccanici richiedono esoscheletri da indossare che possono risultare poco comodi e la persona non ha piena libertà di movimento. Ad esempio risulta inutilizzabile in soggetti con problemi motori. I sistemi acustici utilizzano il tempo di volo di un segnale audio per calcolare la posizione degli indicatori, ma la direzionalità dei trasmettitori/ricevitori influenza fortemente le prestazioni del dispositivo. I sistemi inerziali rappresentano una frontiera molto promettente per i sistemi di rilevamento del movimento perché coniugano ottime caratteristiche in termini di precisione, vestibilità, dimensioni e costi. Il principale limite di questi sistemi è stato finora la loro eterogeneità, e il livello d’integrazione di vari sensori. È infatti necessario associare accelerometri, giroscopi e magnetometri (bussole) per avere tutte le informazioni necessarie al ritrovamento dell’orientamento spaziale di un oggetto. ARCHITETTURA DEL SISTEMA

L’aspetto fondamentale per ricostruire correttamente il movimento umano risiede nel modello cinematico del corpo utilizzato, la sua precisione si riflette nei risultati finali. Partendo da un modello realistico del corpo u-

T_M ƒ 98

N. 02ƒ ; 2012

GLI ALTRI TEMI

mano, è stata progettata una tuta sensorizzata nella quale sono distribuite le IMU lungo i tratti fondamentali del corpo. Ogni IMU ha il compito di calcolare l’orientamento e la direzione di un segmento, e trasferire queste informazioni a un’unità centrale (CU). In questo modo, la ricostruzione del movimento viene effettuata applicando relazioni cinematiche dirette (Fig. 1).

alla realizzazione di un sistema indossabile. D’altro canto è necessario aver a disposizione algoritmi di sensor fusion che riescano a calcolare con precisione e affidabilità l’orientamento della IMU. La coniugazione di questi due aspetti si attua pienamente nel modulo inerziale iNEMO™ sviluppato da STMicroelectronics.

Figura 1 – Sistema di flusso di dati: ogni IMU calcola l’orientamento del segmento relativo e invia queste informazioni al CU per la ricostruzione del movimento

Nel modello considerato, per garantire la ricostruzione dell’interno corpo umano, con tutte le sue articolazioni, sono necessarie almeno 10 IMUs (Fig. 1), 14 includendo la mobilità di piedi e mani oppure 15 se si considera anche la testa. Nell’architettura presentata il numero di nodi è facilmente configurabile ed espandibile. Le problematiche progettuali si concentrano attorno alla piattaforma inerziale e all’algoritmo di calcolo dell’orientamento dei singoli nodi. iNEMO™ la piattaforma inerziale La progettazione della piattaforma inerziale deve tenere in conto in pari misura sia le caratteristiche hardware che software. Da una parte è necessario l’utilizzo di una soluzione che integri i migliori sensori, un processore con sufficiente potenza di calcolo, e dimensioni e peso adatti

La piattaforma iNEMO™ è dotata di un sistema di sensori a 9 gradi di libertà costituito da un accelerometro triassiale, un giroscopio triassiale, e un magnetometro triassiale in soli 0,6 grammi di peso. ll sistema nel suo complesso può essere facilmente visto come un dispositivo a montaggio superficiale (SMD), che dispone di 28 pin nelle ridotte dimensioni di soli 13 x 13 x 2 mm3. Tutti i componenti sono montati sul lato superiore e ai suoi margini aree metallizzate realizzano il pin out del modulo. In questo modo il modulo può essere montato direttamente nel sistema dell’utente come unico componente, senza particolari esigenze di saldatura. La piattaforma iNEMO è costituita da un microcontrollore (MCU) a 32-bit, un modulo geomagnetico digitale (che integra accelerometro e magnetometro triassiale) e un girosco-


N. 02ƒ ;2012 Figura 2 – Modulo iNEMO e relativo schema a blocchi

pio triassiale digitale (Fig. 2). Mentre la comunicazione interna al modulo (ossia tra la MCU e i sensori) viene gestita tramite i bus seriali I2C e SPI, la comunicazione con il mondo esterno (ossia la Central Unit, nel caso particolare) può essere implementata attraverso diverse interfacce (USART, SPI, I2C, CAN). Nel caso specifico è stato scelto il bus seriale RS-485. Il microcontrollore scelto è un STM32F103 della STMicroelectronics ed è dotato di un core ARM Cortex M3. Il giroscopio è il L3G4200D (anch’esso di ST), un sensore a 16-bit digitale con fondo scala e banda selezionabile dall’utente: il primo è tra ± 250°/s, ± 2000°/s, mentre la seconda tra i 100 Hz e 800 Hz. Il modulo geomagnetico è l’LSM303DLH (da ST) che integra in un unico package sia accelerometro che magnetometro: il primo con fondo scala variabile da ±2g a ±16g, il secondo tra ±1,3 e ±8,1 gauss. Sensor Fusion: il Filtro di Kalman Esteso Ciascuno dei sensori integrati nell’iNEMO di per sé può fornire informazioni riguardanti l’orientamento: il giroscopio fornisce le variazioni di orientamento attraverso l’integrazione delle velocità angolari misurate, l’accelerometro e magnetometro forniscono informazioni sull’orientamento attraverso le proiezioni delle componenti del vettore accelerazione di gravità e campo magnetico terreste nel sistema di riferimento considerato. Tuttavia queste informazioni, prese singolarmente, non garantiscono precisione e affidabilità; numerosi errori dovuti tra l’atro ai problemi d’integrazione numerica e alla rumorosità dei dati ne inficiano i risultati. È necessario che ogni singolo nodo elabori e combini le misurazioni delle diverse tipologie di sensori per fornire dati di orientamento assoluto del singolo nodo alla CU. Questa elaborazione è ottenuta attraverso un filtro di Kalman Esteso (EKF), implementato nella MCU integrata (Fig. 3). La procedura algoritmica itera per cicli, ciascuno di essi può essere facilmente diviso in due parti principali: la fase di predizione e la fase di correzione. Come mostrato in Fig. 3, dopo la fase di predizione nella quale lo stato viene aggiornato utilizzando il modello del processo, l’uscita viene corretta attraverso le misure e il calcolo del guadagno di Kalman. Le misure del

43. verticale Azienda leader di strumenti e sistemi di misura...

se cercate la soluzione giusta per risolvere qualsiasi problema di misura e controllo, voltate pagina! T_M ƒ 99


N. 02ƒ ; 2012

GLI ALTRI TEMI

tempo necessario per una completo ciclo predizione-correzione), per una frequenza di aggiornamento teorico massimo del filtro di 250 Hz. I dati raccolti hanno mostrato che questa soluzione si presta bene agli scopi precedentemente descritti: essa infatti, oltre che a precisione e affidabilità, è flessibile e facilmente indossabile, e soprattutto non vincola i movimenti. CONCLUSIONI

Il sistema presentato è basato sull’integrazione di più moduli iNEMO per il tracciamento del movimento di corpi rigidi o approssimabili a tali. L’errore compiuto in questa stima è contenuto ed è in valore assoluto tale da permetFigura 3 – Struttura del filtro di Kalman terne l’utilizzo in molte applicazioni. La presenza di una potente giroscopio vengono utilizzate per unità di calcolo programmal’integrazione (strap-down) in fase di bile (MCU a 32bit) unita alle predizione, mentre accelerometro e dimensioni ridotte di questo magnetometro sono utilizzati per modulo saldabile lo rendocompensare la deriva d’integrazione no, infatti, adatto a probledella velocità angolare nella fase di matiche molto diverse, modicorrezione. ficando elettronica e meccaIl filtro implementato utilizza i quaternionica di contorno. ni q = [q0, q1, q2, q3] come rappresenIl crescente numero di nodi, tazione dell’orientamento per garantire, normalmente presente in una allo stesso tempo, la mancanza di sincatena cinematica complesgolarità cinematica tipica degli angoli sa, non si ripercuote su una di Eulero Roll, Pitch e Yaw (RPY), e un Figura 4 – Serie temporali degli angoli di Eulero crescente complessità comcalcolati dal modulo iNEMO™: efficace strumento matematico per ottiputazionale grazie alla distriRoll (rosso), Pitch (blu) and Yaw (verde) mizzare la complessità computazionale. buzione delle capacità di Senza un adeguato algoritmo di sensor calcolo. Nel presente lavoro fusion, ossia considerando solo misure è, ad esempio, evidente la separatamente e indipendentemente semplicità realizzativa di un l’una dall’altra, come normalmente sistema di monitoraggio dei avviene nelle applicazioni commerciali, movimenti del corpo umano la stima di orientamento è spesso noterealizzando un bus di comuvolmente errata. nicazione ed utilizzando da Il sistema iNEMO fornisce i dati di orien10 a 15 moduli inerziali. tamento in forma di quaternioni, matrice Infine, l’utilizzo di sensori e di rotazione o RPY. Alcuni esempi di microcontrollori tipici del stima angoli RPY ottenuti in un test di mercato dell’elettronica di moto preliminari sono riportati in Fig. 4. consumo mantiene i costi Gli errori del sistema sono stati stimati a ridotti, allargando ulteriorFigura 5 – Confronto tra l’orientamento calcolato circa ± 0,5° per gli angoli di Pitch e Roll mente il campo applicativo da un sistema MOCAP di tipo ottico (linea tratteggiata) e ± 2º su Yaw in quasi-statica condizio- e il sistema inerziale basato su iNEMO™ (linea continua) della soluzione proposta e ne, mentre ± 1,5° in Pitch e angoli di pone le basi necessarie ad Roll e ± 4º in Yaw in movimento libero un miglioramento continuo e (per movimenti rientranti nei full scale) calcolo e della complessità dell’algo- veloce: sensori più accurati e precisi, (esempio in Fig. 5). ritmo implementato portano a un microcontrollori più potenti e consumi Un’analisi preliminare dei tempi di tempo d’iterazione di 4⋅10-3s (cioè il in rapida discesa.

T_M ƒ 100


N. 02ƒ ;2012 RIFERIMENTI BIBLIOGRAFICI N. Abbate, A. Basile, A. Brigante, C. Faulisi, S. Sessa “Towards miniaturization of a MEMS based wearable motion capture system” IEEE Trans. on Industrial Electronics. vol. 58, n. 8, Agosto 2011. N. Abbate, I. Aleo, A. Basile, A. Brigante, C. Faulisi “Design of an Inertial Motion Module”, IEEE ICRA Communication, Maggio 2011. iNEMO data brief. Available: www.st.com/inemo G. Bishop, G. Welch, “An Introduction to the Kalman Filter” presentato al SIGGRAPH course notes, 2001. A. M. Sabatini, “Quaternion-based extended Kalman filter for determining orientation by inertial and magnetic sensing” IEEE Trans. Biomed. Eng., vol. 53, pp. 134656, Luglio 2006. Ignazio Aleo è dottorando presso la Facoltà di Ingegneria dell’Università di Catania. Si occupa di sistemi inerziali, robotica e interazione uomo-macchina. È attualmente coinvolto in progetti di ricerca congiunti con STMicroelectronics. Carmen Brigante si è laureata in Ingegneria Informatica nel 2007 presso l’Università degli Studi di Catania. Da cinque anni lavora per STMicroelectronics nel gruppo di Automation, Robotics and Trasportation. Le sue attività di ricerca sono focalizzate allo sviluppo di applicazioni healthcare, interazione uomo-macchina e robotiche.

... la soluzione giusta è

Abbonarsi ORA per 2 anni a TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”

CONVIENE!!!

66 euro (anziché 72) L’abbonamento biennale Vi offre 8 numeri cartacei + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, telefonare al n° 011/0266700 o inviare una e-mail a: metrologia@affidabilita.eu

Dal micrometro alle Macchine di Misura Ottiche e Multisensore 3D.

Da oltre 50 anni la soluzione giusta. www.rupac.com Via Alamanni, 14 - 20141 Milano - tel 02.53.92.212 r.a. - fax 02.56.95.321

vendite@rupac.com


N. 02ƒ ; 2012 LA TECNOLOGIA MADE IN ITALY VINCE NEGLI STATES La Corte d’Appello Federale di Washington riconosce a Coop Bilanciai la validità della propria tecnologia inerente i dispositivi di pesatura digitali (celle di carico)

Coop Bilanciai ottiene negli Usa un’importante vittoria legale in una causa brevettuale intentata dalla multinazionale Mettler Toledo Inc., colosso mondiale nel settore degli strumenti per la pesatura, che accusando Coop Bilanciai di aver violato con questa tecnologia i propri brevetti Mettler Toledo aveva chiesto un risarcimento di 20 milioni di dollari. L’oggetto del contenzioso era rappresentato dalle celle digitali, componenti fondamentali degli strumenti di pesatura che Cooperativa Bilanciai progetta e produce all’interno dello stabilimento di Campogalliano e distribuisce su larga scala a livello internazionale. La battaglia legale ha inizio nel 2006, quando la multinazionale Mettler Toledo chiama in causa Coop Bilanciai attraverso la propria filiale USA B-Tek con l’accusa di violazione di brevetti, inerenti appunto la tecnologia per la pesatura digitale. Dopo aver ottenuto la vittoria in primo grado, nel gennaio 2009, con la sentenza emessa dalla giuria del Tribunale di Beaumont in Texas, l’8 febbraio 2012, con la sentenza definitiva della Corte d’Appello Federale di Washington, viene riconosciuta a Coop Bilanciai in modo incontrovertibile e indiscutibile la validità delle proprie tecnologie. Coop Bilanciai ha così vista premiata la propria scelta di non accettare eventuali patteggiamenti e di affrontare la causa contro un gruppo così importante, forte dell’alta professionalità profusa per la ricerca e lo sviluppo di questo progetto. Questo riconoscimento ottenuto negli USA, che in assoluto è il paese più autorevole e il più forte difensore della proprietà brevettuale, dimostra che un’azienda italiana non deve temere il sistema giuridico americano. Quando l’azienda si presenta seria e preparata, ha fiducia in se stessa e ha la forza per non cedere e per difendere la propria reputazione, una giuria statunitense non ha pregiudizi. Si tratta di un risultato estremamente importante per la credibilità e l’impatto del made in Italy sui mercati, in un momento in cui Coop Bilanciai sta promuovendo e proponendo la sua innovativa tecnologia su scala mondiale. Coop Bilanciai è stata assistita dall’avvocato Charles Bernardini dello studio Ungaretti & Harris di Chicago.


GLI ALTRI TEMI

MISURE PER LA DIAGNOSI ENERGETICA A cura di Paolo Vigo 1, Marco Dell’Isola 2, Mario Mosca 1

Incrementare il valore degli edifici civili e industriali Il valore dell’affidabilità delle misure e prove nella Diagnosi Energetica

THE VALUE OF MEASUREMENT AND TESTING FOR THE ENERGETIC DIAGNOSIS OF CIVIL AND INDUSTRIAL BUIDINGS ACCREDIA, the national accreditation body in Italy, has launched a project to analyze, from a technical, operational and legal viewpoint, the issue of the energetic diagnosis of buildings. This is crucial in the context of Energy Certification and wishes to actively involve all stakeholders, and direct them toward the fulfilment of norms using reliable methods. To this aim, measurement and testing tools and services play a primary role. This article contains a sinthesis of the Meeting held in Turin on April 18th, within Affidabilità & Tecnologie 2012. RIASSUNTO ACCREDIA, ente unico di accreditamento in Italia, ha avviato un progetto volto ad analizzare, in chiave tecnica, operativa e legale, il tema della diagnosi energetica degli edifici, d’importanza fondamentale in ottica di Certificazione Energetica, allo scopo di coinvolgere fattivamente tutte le parti in causa e orientare l’adempimento della normativa verso metodi certi e affidabili, nei quali gli strumenti e i servizi di misura e prova giocano un ruolo primario. Ecco una sintesi degli interventi presentati durante il Convegno svoltosi a Torino il 18 aprile scorso, nell’ambito della sesta edizione di Affidabilità & Tecnologie. IL CONVEGNO

Nel workshop “Incrementare il valore degli edifici civili e industriali: Il valore dell’affidabilità delle misure, prove e certificazioni nella Diagnosi Energetica”, tenutosi a Torino il 18 aprile 2012 su iniziativa di ACCREDIA (l’Ente Unico di Accreditamento in Italia) nell’ambito dell’evento “Affidabilità & Tecnologie“, sono state discusse e affrontate le problematiche connesse alla misura e certificazione delle prestazioni energetiche degli edifici e ai risvolti economici collegati. I numerosi relatori intervenuti, mode-

rati dal prof. Paolo Vigo (vicepresidente di ACCREDIA), hanno analizzato i diversi aspetti connessi alla misura delle prestazioni energetiche degli edifici, quali l’analisi delle metodiche di misura disponibili, la relativa riferibilità metrologica, l’accreditamento e certificazione dei sistemi di gestione dell’energia, delle misure e prove e infine, non ultimo per importanza, la qualificazione del personale. Particolare enfasi è stata dedicata alle ricadute delle diagnosi e certificazioni nella pratica edilizia e all’impatto di tutto questo nel mondo delle professioni, con il punto di vista dell’ANCE e dell’Ordine degli Ingegneri.

si e certificazioni energetiche. Ciò è dovuto alla forte accelerazione che tali argomenti hanno avuto in Italia negli ultimi tempi, diventando tematiche protagoniste negli scenari dell’edilizia residenziale e industriale, ma senza che questo sia stato preceduto da una concertazione efficace, né da una chiara standardizzazione operativa. Questo scenario, da un lato svilisce le tante professionalità coinvolte, dall’altro rischia di indurre un danno valoriale al patrimonio edilizio esistente non percepito dai non addetti. GLI INTERVENTI

Il prof. Marco Dell’Isola (Università di Cassino e del Lazio Meridionale) ha illustrato le ”Tecniche di misura dell’energia e dei flussi energetici in campo”. Nell’intervento è stata evidenziata l’importanza della consapevolezza delle performance energetiche ai fini della riduzione dei consumi e delle tecniche di misura in campo, necessarie a una sua affidabile quantizzazione. Sono state quindi descritte (i) le tecniche di misura necessarie a un “asset rating” del sistema edificioimpianto (ovvero una valutazione nelle condizioni standard), come ad esempio le misure dimensionali del-

L’INTRODUZIONE

Nell’intervento introduttivo il prof. Paolo Vigo, nel sottolineare l’interesse di ACCREDIA a proporsi quale luogo di confronto e di sintesi in tema- (1) Accredia tiche di largo spettro quale quella in m.mosca@inrim.it esame, ha sinteticamente evidenziato (2) Università di Cassino e del Lazio le criticità che gli addetti ai lavori Meridionale percepiscono nel settore delle diagno- dellisola@unicas.it

T_M

N.

2/12 ƒ 103


l’involucro, della trasmittanza termica, della permeabilità all’aria, della termografia e dell’analisi dei fumi; (ii) le tecniche di misura necessarie a un “tailored rating” (ovvero una valutazione adattata all’utenza), come ad esempio le misure delle condizioni climatiche esterne e delle modalità di utilizzo del sistema; (iii) le tecniche di misura necessarie a un “operational rating” (ovvero una valutazione nelle condizioni di esercizio) in cui la diffusione degli smart meter rende oggi potenzialmente possibile una diagnosi energetica in tempo reale. I problemi evidenziati, connessi a una ridotta propensione alla diagnosi e alle misure in campo, sono: • una limitata riferibilità metrologica

T_M ƒ 104

delle misure; • tempi e metodi mediamente lunghi e complessi; • elevati costi della strumentazione e delle prove; • una scadente preparazione specifica dei tecnici in merito ai metodi sperimentali. Le soluzioni percorribili possono essere così identificate: • il ricorso diffuso alla taratura della strumentazione e al potenziamento dell’accreditamento dei centri di taratura e prova; • l’automazione delle misure (Smart meter); • la messa a punto di metodi di misura semplificati; • la promozione di campagne di misura su tipologie standard/intero edificio; • la formazione e la certificazione del personale. L’ing. Luigi Iacomini (I.N.Ri.M.) ha analizzato le “Problematiche di misu-

ra in campo e di riferibilità delle misure”. Come esempio, è stata svolta una sintetica analisi delle problematiche di misura dei termoflussimetri, per sottolineare la necessità di garantire la riferibilità metrologica delle misure che vengono eseguite in campo ai fini della diagnosi energetica. Proprio riguardo a quest’ultima, le principali criticità evidenziate sono state: a) il fatto che le analisi effettuate con i sistemi di certificazione non trovino un’adeguata validazione di tipo sperimentale; b) la difficoltà di ottenere misure affidabili in campo per le grandezze ritenute critiche nella valutazione delle prestazioni energetiche; c) la difficoltà di effettuare misure efficaci e tra loro confrontabili.


N. 02ƒ ;2012 Particolare enfasi è stata data alla realizzazione del campione nazionale per la taratura di termoflussimetri, prossimo alla conclusione, che garantirà la riferibilità delle misure di flusso termico e renderà possibile il confronto di misure di trasmittanza termica eseguite in campo. A seguire sono state illustrate le catene di riferibilità della temperatura dell’aria e dell’umidità relativa, della trasmittanza termica e dell’energia primaria, grandezze indispensabili da misurare nella diagnosi energetica. In conclusione è stata fatta una panoramica dei principali progetti I.N.Ri.M. connessi alle problematiche energetiche: a) Energy C-Box (misura riferibile delle prestazioni energetico-ambientali degli edifici con strumentazione certificata); b) Reteattiva H2Q (rete d’impresa per la competitività del sistema nazionale di gestione e la contabilizzazione certificata di portata idrica ed energia termica); c) Ecothermo (progettazione, realizzazione e caratterizzazione metrologica di un sistema di Wireless Building Automation per il risparmio energetico); d) Eco-innovation (uso di tecnologie innovative per il risparmio energetico su edifici esistenti con sistema centralizzato). L’ing. Mario Mosca (ACCREDIA) ha poi approfondito il tema del “Ruolo dei servizi di certificazione, prova e taratura nella diagnosi energetica degli edifici”. Le conoscenze degli Organismi di valutazione della conformità (CAB) sono a disposizione del mercato per produrre misure, prove e certificazioni utili nella Diagnosi Energetica degli edifici. ACCREDIA accredita CAB che rilasciano certificazioni di SISTEMI DI GESTIONE DELL’ENERGIA in conformità a UNI CEI EN ISO 50001:2011 “Sistemi di gestione dell’energia – Requisiti e linee guida per l’uso“. Ad oggi ACCREDIA ha rilasciato accreditamenti di Organismi di certificazione di prodotto e Organismi di ispezione per attività inerenti la filiera delle costruzioni, nonché un accreditamento specifico che riguarda la certificazione del personale (ISO 17024) del “Tecnico Certificatore Energetico”, quindi rivolta ai tecnici che effettuano la valutazione energetica degli edifici. Non sono invece pervenute domande di accreditamento

per Organismi di certificazione di prodotto e/o ispezione che operino a fronte di specifici “requisiti energetici”. Un’ulteriore attività connessa è il protocollo ITACA-ACCREDIA, che nasce allo scopo di promuovere la certificazione della sostenibilità energetica e ambientale degli edifici, al fine di sperimentare forme e modalità di definizione e gestione di un sistema di certificazione unitario e coordinato. Molto importante è, infine, l’ambito relativo ai prodotti che vengono impiegati nell’edilizia, ad esempio quello per la coibentazione (pannelli, serramenti, ecc.) e quello relativo all’impiantistica (sistemi di riscaldamento e condizionamento). Il prof. Vincenzo Corrado (Politecnico di Torino) ha illustrato i “Fattori d’incertezza nella certificazione energetica”. Nell’intervento si è analizzata l’influenza della qualità dei dati di input nella certificazione energetica attraverso un approccio probabilistico. Facendo riferimento alla normativa europea UNI EN 15603 si è sottolineato che il risultato di una valutazione energetica non può mai rappresentare i consumi di energia dell’edificio in modo esatto, bensì una stima che presenta un errore dipendente dall’incertezza dei dati di input (i.e. le caratteristiche del sistema fabbricato - impianti, le condizioni climatiche e le modalità di utilizzo dell’edificio). In altre parole, intorno al valore di consumo calcolato è possibile definire un intervallo di confidenza, che rappresenta l’intervallo entro il quale e con una data probabilità (es. 95% o 99%) si trova il valore reale di consumo. Particolare enfasi è stata data a una ricerca, effettuata presso il Politecnico di Torino, che valuta attraverso il metodo Montecarlo la stima delle performance energetiche in un appartamento-tipo di Torino, nelle condizioni standard e di esercizio, al variare dei diversi fattori di influenza (temperatura interna, orientamento delle superfici, portata d’aria per infiltrazioni e per ventilazione artificiale, tempo di utilizzo, consumi elettrici, numero di occupanti, area, volume, perimetro, lunghezze, spessori, trasmittanza termica, trasmittanza termica lineare, coefficiente di assorbimento, remissività, fattore telaio, fattore di ombreggia-

mento, capacità termica della struttura, rendimenti impiantistici). Il dott. Nicola Massaro (ANCE) ha approfondito le “Esigenze delle imprese edili in ottica di garanzia delle performance energetiche degli edifici e miglioramento dei protocolli operativi”. La memoria ha presentato il punto di vista dei costruttori in merito alle ricadute tecniche ed economiche della certificazione energetica sul mercato delle nuove costruzioni e delle ristrutturazioni residenziali. In particolare è stata sottolineata una marcata differenza tra costruzioni nuove ed esistenti: nelle prime, infatti, i nuovi vincoli energetici legislativi hanno prodotto un risultato sicuramente efficace dal punto di vista tecnico (in cui si segnala addirittura un fenomeno di saturazione verso edifici in classe A o B), ma meno dal punto di vista economico (in cui la performance energetica viene quasi pretesa dall’utenza); nell’esistente, invece, la contingenza di operare quasi sempre su edifici di proprietà multipla, unitamente ai numerosi vincoli architettonici e impiantistici, rende poco praticabile il retrofit energetico non solo per le difficoltà tecniche, ma anche e soprattutto per ragioni economiche. Nell’intervento inoltre viene rappresentata l’esigenza di condividere i protocolli operativi evitando l’introduzione di strumenti “balzello” che deprimono il mercato invece di contribuire al suo miglioramento e sviluppo. La Dott.ssa Anna Moreno (ENEA UTT-LEARN) ha illustrato il tema “Fonti rinnovabili di energia, efficienza energetica e certificazione delle professionalità: un trinomio imprescindibile”. Nell’intervento sono state presentate le direttive europee, di nuova stesura, che prevedono la certificazione delle figure professionali che intervengono nell’installazione o nei miglioramenti energetici degli edifici. Da queste direttive si è passati alla presentazione dei progetti europei che prevedono la messa a punto di un sistema di qualifica che sia

T_M ƒ 105


N. 02ƒ ; 2012

GLI ALTRI TEMI

accettato in tutta Europa, elevando il livello di conoscenza attuale e gettando le basi per la libera circolazione dei professionisti in Europa. L’obiettivo è quello di: • analizzare l’attuale situazione riguardante l’accertamento delle performance energetiche del patrimonio edile esistente (in gran parte costruito parecchi decenni fa): questo accertamento ricorre ancora in modo insufficiente a sistemi di misura e di diagnosi affidabili e riferibili e, pertanto, non sempre garantisce il rispetto dei parametri definiti dalle apposite normative; • promuovere e diffondere la cultura della misura, della diagnosi e dell’efficientamento energetico presso il mondo degli “addetti ai lavori”, delle imprese edili e degli impiantisti, ma anche presso quello delle aziende e degli utenti; • analizzare i problemi connessi alla riferibilità metrologica in campo energetico edilizio e promuovere efficaci servizi metrologici e di certificazione e prova; • stimolare indagini di settore per la riduzione dei costi della diagnosi energetica, certificazione e gestione dei sistemi energetici; • promuovere un confronto tra i costruttori di strumenti, ricercatori e certificatori per stimolare la soluzione e il superamento delle criticità del mercato, ovvero cercare di definire protocolli operativi che partendo da dati certi garantiscano uno sviluppo al settore consono alle ricadute che certificazione e diagnosi possono avere sul valore del patrimonio edilizio. L’ing. Michele Fazzini (Ordine degli Ingegneri di Torino) ha portato “Il parere degli “addetti ai lavori”, esprimendo una posizione fortemente critica in merito alla divisione del compito del “certificatore energetico”, quando concepito separato da quello di “esperto in energetica”. La complessità della problematica energetica non consente di acquisire le competenze necessarie a una certificazione tramite corsi di 40-80 ore. Non è inoltre corretto certificare e proporre soluzioni correttive quando non si possiedono competenze caratteristiche di progettazione di elevate professionalità. Una posizione altrettanto critica è stata manifestata in merito sia alla complessità della normativa energetica, sia alla presenza di vincoli legislativi prescrittivi. Un approccio più corretto dovrebbe infatti essere rivolto alla definizione di vincoli prestazionali e non prescrittivi. Il dibattito finale ha visto l’intervento degli addetti ai lavori, i quali hanno sottolineato l’utilità di questi momenti di incontro, sia per “tarare” la normativa e la legislazione sulle reali esigenze del mondo produttivo, sia per prevenire fenomeni di devianza che depauperano il valore del certificato energetico riducendolo a un mero strumento burocratico fine a se stesso. In particolare, si è ribadita la necessità che la certificazione energetica sia valorizzata dalle strutture di accreditamento che possono garantire la qualità del servizio in termini di: terzietà e qualificazione del personale; riferibilità della strumentazione di prova e misura impiegata; validazione delle metodologie di certificazione e diagnosi energetica.


GLI ALTRI TEMI

MISURE MECCANICHE Michele Norgia, Cesare Svelto

Misuratore di prossimità per la sicurezza attiva di motoseghe e attrezzi da taglio

A PROXIMITY METER FOR ACTIVE SAFETY OF CHAIN SAWS AND CUTTING TOOLS We developed a proximity measurement system that stops the chain of a chain saw in case of danger. The sensor measures the electrical capacitance between the handle and the blade. If the blade of the saw gets too close to the operator, the capacitance increases and when it exceeds a predefined threshold value (self-regulating depending on the usage conditions) it sets the intervention of a mechanical brake acting on the chain saw. RIASSUNTO È stato sviluppato un sistema di misura di prossimità che blocca la catena di una motosega in caso di pericolo. Il sensore misura la capacità elettrica tra l’impugnatura e la lama. Se la lama della motosega si avvicina eccessivamente all’operatore, la capacità elettrica aumenta e, quando supera un valore di soglia predefinito (autoregolante a seconda delle condizioni di lavoro), il sistema determina l’intervento di un freno meccanico sulla catena della motosega. L’ESIGENZA DI SICUREZZA

In svariati ambiti lavorativi vengono impiegati attrezzi taglienti imbracciati da operatori al fine di effettuare le operazioni richieste (come ad esempio motoseghe, lame rotanti, flessibili, ecc.). L’impiego di questa tipologia di strumenti comporta spesso un notevole rischio per l’operatore stesso. Infatti chi si trova a lavorare con tali attrezzi o macchinari dovrebbe indossare indumenti protettivi corredati di zone anti-taglio o imbottiture nei punti maggiormente esposti al rischio di subire traumi o ferite. Va però osservato che queste protezioni operano in modo completamente passivo, cioè possono solo limitare i danni fisici dell’eventuale contatto, ma non sono in grado di offrire un adeguato controllo della situazione di rischio. In altre parole, gli indumenti e le protezioni sui macchinari non sono in grado di annullare o rendere innocua la reale fonte di rischio degli infortuni, ma si limitano ad attenuare i danni derivanti dal contatto della lama con l’operatore. Inoltre gli indumenti di protezione spesso

non vengono indossati a causa del fastidio che possono creare, o anche solo per noncuranza. Il problema è molto sentito anche in ambito lavorativo: infatti, solo nel triennio 20052007 sono stati oltre 83.000 gli infortuni indennizzati da INAIL in Italia per incidenti nell’uso di motoseghe e altre attrezzature da taglio. Allo scopo di corredare di una sicurezza attiva i sistemi di taglio, presso il Dipartimento di Elettronica e Informazione del Politecnico di Milano è stato sviluppato un sistema di misura in grado di attivare un freno meccanico in caso di pericolo. L’indicazione di pericolo si ha in caso di eccessiva prossimità della lama al corpo dell’operatore, misurata attraverso un sensore capacitivo [1]. Il sistema di messa in sicurezza è stato applicato a diversi modelli di motoseghe ed elettroseghe, ottenendo in maniera sistematica il blocco della catena quando la lama arriva a pochi centimetri di distanza dal corpo dell’operatore. Il buon funzionamento dei primi prototipi ha portato alla nascita di Redcap Technology, una start-up ospitata pres-

T_M

so l’Acceleratore d’Impresa del Politecnico di Milano, che si occupa dell’evoluzione del sistema e della sua commercializzazione (il dispositivo realizzato, chiamato Angel Inside, è stato brevettato con brevetto internazionale [2]). L’interesse sul sistema di sicurezza ha coinvolto anche INAIL e Fondazione Politecnico di Milano (uniti da un programma comune per promuovere iniziative di prevenzione degli infortuni sul lavoro, nonché da percorsi di ricerca per lo sviluppo e l’impiego di nuove tecnologie), che hanno deciso di sostenere il progetto Redcap finalizzato alla validazione sul campo del sistema Angel Inside. SISTEMA ELETTRONICO DI MISURA DI PROSSIMITÀ

La tecnica elettromagnetica utilizzata per rivelare la prossimità della lama alla persona che impugna l’attrezzo consiste nel misurare una variazione di capacità elettrica. Il sistema di misura di capacità è interamente montato all’interno dell’attrezzo, con due contatti: uno sulla lama e uno sull’impugnatura. La capacità misurata è quindi tra questi due contatti, come descritto in Fig. 1. Per realizzare la protezione attiva, il corpo del lavoratore deve essere posto in connessione elettrica con il contatto presente sull’impugnatura, come normalmente avviene tenendo l’attrezzo in mano. In questo modo la capacità C misurata dal sistema coincide con la capacità tra il corpo dell’operatore e la lama (Fig. 2).

Politecnico di Milano, Dip. Elettronica e Informazione norgia@elet.polimi.it

N.

2/12 ƒ 107


N. 02ƒ ; 2012

GLI ALTRI TEMI

Figura 1 – Capacità equivalente misurata dal sistema

Figura 2 – Schema del principio di funzionamento

La connessione elettrica tra operatore e contatto sull’impugnatura si può ottenere in vari modi. Si è scelto di realizzare una connessione diretta attra-

verso una piastra metallica posta sull’impugnatura della motosega, che tocca direttamente la mano dell’operatore. La connessione elettrica tra l’o-

T_M ƒ 108

peratore e il contatto del sistema elettronico di misura può anche essere di tipo capacitivo: in questo modo il funzionamento del sistema non è compromesso dall’impiego di un guanto. Per mantenere le corrette distanze d’intervento è però importante che l’impedenza (capacitiva o resistiva che sia) tra l’operatore e il contatto sull’impugnatura sia inferiore all’impedenza capacitiva tra operatore e lama, calcolata alla distanza di scatto desiderata (altrimenti il sistema perde di sensibilità e quindi di affidabilità). Dopo alcune prove di laboratorio [2], per il funzionamento del sistema si è scelto di non misurare valori assoluti di capacità, che dipendono notevolmente dall’ambiente d’impiego, dalle dimensioni dell’operatore e anche dalla modalità d’impugnatura dell’attrezzo. Si è preferito fornire un segnale di allarme in caso di aumento improvviso di capacità rispetto ad un


N. 02ƒ ;2012 Figura 3 – Esempio di variazione della capacità misurata con la distanza lama-corpo dell’operatore

Il circuito elettronico che misura la capacità può essere realizzato con diversi metodi. Il sistema che si è rivelato più adatto alla particolare applicazione impiega un circuito integrato per sistemi touch-sensors. Tale circuito misura la capacità iniziale alla sua accensione e attiva un segnale di uscita digitale nel momento in cui tale capacità aumenta di una quantità prefissata, chiamata “sensibilità” in Fig. 3. In un contesto reale di operatore che impugna una motosega, la capacità iniziale misurata è dell’ordine di alcuni pF, mentre la sensibilità vale frazioni di pF. Nella specifica applicazione, all’accensione dell’utensile o del sistema di protezione si utilizza la capacità iniziale, e questa è a sua volta utilizzata come riferimento per calcolare la soglia di scatto. Nel caso di motoseghe a scoppio, l’accensione del sistema è comandata da un interruttore posto sotto la leva di sicurezza (quella posta sulla parte superiore dell’impugnatura, che abilita l’acceleratore). Il segnale di allarme è generato quando la capacità aumenta di un

valore prefissato rispetto all’accensione. La Fig. 3 mostra come la caratteristica iperbolica della capacità renda intrinsecamente sicuro il sistema, anche quando questo viene acceso con la lama già in prossimità dell’operatore: con valori ragionevoli si mostra come un’accensione del sistema a 30 cm di distanza comporti lo scatto a 15 cm, mentre un’accensione a 7 cm porta lo scatto a 5 cm. In ogni caso, all’approssimarsi della lama al corpo dell’operatore il valore di capacità diverge, portando allo scatto immediato il sistema di allarme. Il segnale di allarme generato viene infine utilizzato per comandare lo stop dell’utensile, attraverso l’attivazione di un freno meccanico. Il tempo di risposta del sistema elettronico è di pochi millisecondi, praticamente istantaneo per l’operatore. L’integrato che gestisce il sistema di messa in sicurezza è montato su una scheda elettronica d’ingombro minimo, facilmente inseribile all’interno della motosega stessa. L’alimentazione del circuito è presa direttamente dalla motosega, tramite circuiti che prelevano la potenza necessaria dalla bobina; nel caso di elettrosega, invece, l’alimentazione è fornita dalla rete elettrica.

valore iniziale misurato all’accensione: l’intervento si ha quando la variazione della capacità supera un valore di soglia prefissato. Infatti, in caso di avvicinamento della lama al corpo, la capacità cresce con un andamento all’incirca iperbolico con la distanza. Un tipico andamento teorico della capacità in funzione della distanza della lama dal corpo è riportato in Fig. 3.

GLI ALTRI TEMI

che per il freno meccanico è stato depositato un brevetto ancora in fase di verifica). Nella motosega elettrica il freno meccanico agisce anche su un interruttore che toglie l’alimentazione al motore. L’intero sistema meccanico ha dimostrato un tempo di scatto molto breve: il tempo d’intervento meccanico, misurato tra l’impulso di abilitazione e lo scatto dell’interruttore di spegnimento (posto a fine corsa del freno), è di circa 25 ms. In Fig. 4 è mostrata la foto di un prototipo di motosega con circuito frenante realizzato in collaborazione con la ditta ACTIVE srl.

Figura 4 – Motosega prototipale della ACTIVE srl con freno meccanico. Il contatto elettrico verrà sostituito dalla leva di sicurezza superiore realizzata direttamente in metallo

PROTOTIPI REALIZZATI

CONCLUSIONI E PROSSIME PROVE SUL CAMPO

Il sistema di messa in sicurezza è stato inizialmente montato su una elettrosega, comandando con un relé la sua alimentazione elettrica. All’approssimarsi della lama all’operatore, si otteneva lo spegnimento del motore elettrico, ma la catena continuava ad avere una sua inerzia. Numerose prove hanno confermato l’affidabilità del sistema e spinto a progettare un sistema di freno meccanico comandato elettricamente, che si appoggia al freno già esistente sulle motoseghe (freno anti-kick back). Attraverso un magnete permanente viene mantenuto un fermo su una molla di attivazione che trattiene la cinghia di frenata. Inviando un impulso a 24 V al magnete, si sblocca il fermo e viene tirata la cinghia sulla campana solidale all’ingranaggio che muove la catena (an-

Il dispositivo di messa in sicurezza proposto si basa sulla misura di una variazione di capacità elettrica tra la lama della motosega e il corpo dell’operatore, attraverso un touch-sensor montato all’interno della motosega e due contatti elettrici verso l’esterno, quello sulla lama e quello sull’impugnatura. Il sistema (chiamato Angel Inside) si attiva quando l’operatore è in connessione elettrica con il contatto posizionato sull’impugnatura della motosega: in questo caso la capacità elettrica tra i due contatti coincide con la capacità tra il corpo dell’operatore e la lama (l’impedenza del corpo è trascurabile). Se la lama della motosega si avvicina eccessivamente all’operatore la capacità elettrica aumenta, e quando la sua variazione rispetto a un valore iniziale che dipende

T_M ƒ 109


NUOVO REGISTRATORE MULTIFUNZIONALE COMPATTO RM1100 è il nuovissimo acquisitore / registratore dati portatile di NECAvio, distribuito in Italia da Instrumentation Devices Srl. Robusto, compatto, leggero, versatile; secondo la versione scelta supporta 4 o 8 ingressi per segnali discreti, impulsivi e in frequenza e 4 o 8 ingressi isolati per tensioni, correnti, temperature. Mediante appositi adattatori è possibile collegare diversi tipi di trasduttori, quali ad esempio accelerometri, estensimetri e in generale sensori a ponte di misura. È particolarmente adatto per impieghi portatili e mobili (ad esempio, per test in ambito automobilistico) ma trova efficace applicazione in svariati settori dell’industria: sperimentazione elettrica e meccanica, collaudo, manutenzione, ecc. Include un display ad alta risoluzione per la visualizzazione grafica in tempo reale dei segnali di misura, offre campionamento programmabile fino a 1 MS/s per canale e può essere alimentato tra 8,5 e 24 VDC oppure provvisto di batterie ricaricabili incorporate. Piccolo (28 x 15 x 9 cm3) e leggero (≈1,5 kg), resiste a urti, cadute e vibrazioni continue secondo le specifiche MIL-STD-810G 514.5C-1, può operare nel range di temperatura -20 ÷ +60 °C e in ambienti umidi e polverosi. È possibile scegliere tra diverse modalità di acquisizione: –“Memory mode”, per la registrazione di segnali ad alta frequenza; – “Filing mode”, per la memorizzazione dei dati su memoria SD, anche per lunghi periodi di tempo; – “Real-time mode” per la stampa grafica diretta su carta continua, sia in forma “Yt”, secondo vari modi di rappresentazione, sia in “XY”. Il software Unifizer e il collegamento a PC tramite Ethernet consentono il setup della configurazione, la registrazione dati su PC e la post analisi (operazioni aritmetiche, calcolo e funzioni trigonometriche, FFT ...). Per ulteriori informazioni: www.instrumentation.it

T_M ƒ 110

N. 02ƒ ; 2012

NEWS

GLI ALTRI TEMI

dalle condizioni di lavoro supera un valore di soglia predefinito, il circuito elettronico determina l’intervento di un freno meccanico che blocca la catena della motosega. L’arresto è sostanzialmente istantaneo: il tempo complessivo di risposta meccanica del sistema è infatti inferiore a 30 ms. Numerose prove hanno dimostrato la buona affidabilità del sistema, che consente all’operatore di lavorare senza ingombri aggiuntivi e garantendo comunque il normale funzionamento dell’attrezzo da taglio. A fine luglio 2011 vi è stato il lancio dell’iniziativa di promozione di questa tecnologia, con la presentazione organizzata da INAIL presso la sua sede lombarda dei primi prototipi di motoseghe portatili equipaggiate con il dispositivo. Le motoseghe prototipali sono state realizzate in collaborazione con due costruttori italiani del settore (EMAK SpA e ACTIVE srl). Attualmente è in fase di sviluppo una pre-serie di attrezzi da taglio che, una volta superati i test di laboratorio, verranno provati sul campo. In primavera 2012 è infatti prevista la sperimentazione a cura del Corpo dei Vigili del Fuoco, per testare il buon funzionamento del sistema anche nelle condizioni operative più difficili. Numerosi sono i potenziali impieghi di questa nuova tecnologia, sviluppata più in generale per aumentare il livello di sicurezza di attrezzature di lavoro anche in altri settori produttivi, quali l’edilizia, l’agroforestale e il metalmeccanico. Ciò avrà notevole impatto su diversi settori del mercato e ricadute pratiche (ingegneristiche, commerciali, di sicurezza e miglioramento della qualità della vita) piuttosto rilevanti. RIFERIMENTI BIBLIOGRAFICI

[1] J. Fraden, “Handbook of Modern Sensors” Sec. Ed., Springer-Verlag, New York, 2001. [2] M. Norgia, C. Svelto, G.A. Rossi, P. Cappellari, “Device for protection from accidents”, brevetto n. WO2007060698, international Application n. PCT/IT2005/000694. [3] M. Norgia, C. Svelto, “Capacitive proximity sensor for chainsaw safety”, pp. 433-436 in Sensor and Microsystems, Series: Lecture Notes in Electrical Engineering (LNEE), Springer, 2009 Vol. 54. Michele Norgia è Ricercatore in Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e Informazione del Politecnico di Milano. I suoi principali filoni di ricerca riguardano le misure ottiche, la sensoristica e la strumentazione elettronica di misura. Cesare Svelto è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettronica e Informazione del Politecnico di Milano. I suoi principali filoni di ricerca riguardano le misure ottiche e optoelettroniche, nuovi sensori e strumenti di misura.


GLI ALTRI TEMI

MISURE PER L’ILLUMINAZIONE Pietro Fiorentin, Alessandro Scroccaro

Misure d’illuminamento con Multiluminanzometro Un errore? Una complicazione? ... O una possibile soluzione?

poter quantificare in modo preciso i contributi delle diverse sorgenti. Ogni misura d’illuminamento, effettuata con diverso orientamento del luxmetro, è influenzata dalla luce che proviene da ogni direzione. Per selezionare i raggi luminosi associati a direzioni prossime a quella ortogonale alla superficie sensibile, è possibile porre a un’opportuna distanza davanRIASSUNTO ti al luxmetro uno schermo con un’aLa misura dell’illuminamento definisce la quantità totale di luce che ragpertura come rappresentato in Fig. 1: giunge una superficie, ma non permette di distinguere le direzioni dalle questo blocca la maggior parte dei quali la luce proviene. D’altra parte, questa informazione è importante per raggi luminosi diretti verso il luxmetro, qualificare un sistema d’illuminazione o progettare sue modifiche e migliolasciando passare solo quelli prossimi ramenti. L’uso di un multi-luminanzometro permette di risolvere il problema alla direzione selezionata. Con quemettendo in evidenza i contributi all’illuminamento prodotti da ogni sorsta apertura (diaframma), per ogni gente, primaria o secondaria, presenti nella scena. punto delle sorgenti luminose (primarie o secondarie, di dimensioni trascurabili o estese) si identifica un anMISURE D’ILLUMINAMENTO E mente presenti nell’ambiente analiz- golo solido e i raggi luminosi presi in DIREZIONALITÀ DELLA LUCE zato. Ad esempio, può essere impor- considerazione sono solo quelli che si tante separare gli effetti dovuti da una trovano al suo interno. Lo strumento dedicato alla misurazione sorgente di luce primadell’illuminamento, il luxmetro, quando ria rispetto a quelli proriceve la luce non permette di discrimi- dotti da riflessioni semnarne la direzione: esso deve quantifi- plici o multiple su supercare la luce ricevuta per unità di area fici presenti nell’ambienche giunge complessivamente su un te, come il pavimento, le punto di una superficie. Quando la sua pareti, ecc. Un caso inrisposta spaziale è corretta (anche per teressante si ha quando mezzo di un’ottica posta di fronte all’e- è richiesta la qualificalemento sensibile) esso tiene in conto la zione dell’illuminazione, direzione dei raggi pesando i diversi sia negli ambienti interni contributi con il coseno dell’angolo che esterni, con la valud’incidenza rispetto alla normale, in tazione dell’abbagliaaccordo con la definizione d’illumina- mento. mento. Quindi, raggi più radenti alla Ruotare la superficie superficie distribuiscono la potenza su ricevente del luxmetro un’area maggiore di quella interessata può permettere di avere da raggi ortogonali nello stesso punto. indicazioni di massima Un luxmetro fornisce un valore d’illumi- sui contributi delle diverFigura 1 – Misura dell’illuminamento namento che è prodotto da tutta la luce se sorgenti. Raggi più con selezione della direzione che giunge nel punto considerato, som- radenti, provenienti da mando tutti i contributi provenienti sorgenti laterali, sono dalle diverse direzioni. meno importanti nel definire il valore È frequente la necessità di distinguere dell’illuminamento, ma è evidente che Università di Padova, i contributi dovuti a diverse sorgenti il lobo di sensibilità di un luxmetro Dip. Ingegneria Industriale che possono essere contemporanea- non è sufficientemente marcato da pietro.fiorentin@unipd.it ILLUMINANCE MEASUREMENTS FROM A MULTI-LUMINANCE METER Illuminance measurement provides information about the total amount of light reaching a surface, but it provides no detail on the position of the light sources. On the other hand, identifying the contribution of each source to the scene allows to qualify and to improve a lighting system. These data can be obtained by using a multi-luminance meter, which can deal with small framed portions separately.

T_M

N.

2/12 ƒ 111


L’ampiezza dell’angolo solido ∆ΩS è definita dall’area del diaframma e dalla sua distanza dalla sorgente, ovvero, se si vuole che il flusso luminoso coinvolga tutta l’area del sensore, da quest’ultima ∆AD e dalla distanza r che separa la sorgente “puntata” e il luxmetro. L’operazione che così si esegue riproduce quella utilizzata per la valutazione dell’intensità luminosa (I) secondo l’espressione: I=

dΦ ∆Φ ∆Φ 2 ≈ = ⋅r = E ⋅r2 dΩS ∆ΩS ∆AD

dove ∆Φ è il flusso luminoso associato ai raggi luminosi nell’angolo solido ∆ΩS ed E è l’illuminamento misurato, anche se ora non è nota la distanza r. Per conoscere poi l’illuminamento prodotto dalla singola sorgente considerata nelle effettive condizioni si deve

T_M ƒ 112

N. 02ƒ ; 2012

GLI ALTRI TEMI

moltiplicare la misura d’illuminamento ottenuta per il coseno dell’angolo di rotazione della superficie ricevente del luxmetro. ILLUMINAMENTO E LUMINANZA: DUE GRANDEZZE TRA LORO LEGATE

Quando si presenta nella scena un numero elevato di sorgenti luminose, valutare tutti i contributi all’illuminamento può diventare troppo dispendioso in termini di tempo se si usa il metodo sopra descritto (peraltro di non facile applicazione al di fuori di un laboratorio). Può quindi diventare interessante pensare all’utilizzo di un altro tipo di strumentazione. In particolare, lo strumento denominato “luminanzometro” seleziona i raggi luminosi emessi da una sorgente e racchiusi all’interno di un ben definito

angolo solido. Esso è quindi un ottimo mezzo per analizzare la direzionalità della luce, anche se considera la luce emessa dalla sorgente e non quella ricevuta dalla superficie di nostro interesse, come invece ci servirebbe. Facendo riferimento alla Fig. 2, vale la pena ricordare la definizione di luminanza, come rapporto tra l’intensità luminosa emessa da una porzione elementare di superficie in una direzione di osservazione e l’area apparente della porzione di superficie emittente, dalla stessa direzione di osservazione. Ricordando il legame tra intensità luminosa e illuminamento già visto, e considerando quantità piccole ma non infinitesime, si può scrivere che il contributo elementare ∆ED all’illuminamento, ortogonale alla direzione d’illuminazione, nel punto in cui è posto il rivelatore, legato a tale intensità luminosa è:


N. 02ƒ ;2012 ∆I ∆I ∆AS = = LS ⋅ ∆ΩD r2 ∆AS r 2

dove ∆ΩD è l’angolo solido sotteso dall’areola sulla sorgente, con vertice sul rivelatore posto a una distanza r. È dunque possibile ottenere il contributo all’illuminamento di una porzione di sorgente conoscendo la sua luminanza e l’angolo solido sotteso da quella superficie, con vertice sull’osservatore.

Figura 2 – Schizzo della geometria nelle definizioni di luminanza e illuminamento Sempre prendendo in considerazione il caso più semplice, quando l’osservatore considera il raggio luminoso uscente ortogonalmente dalla superficie emittente, come illustrato in Fig. 2, e mettendo in evidenza il flusso luminoso in gioco, si può scrivere la seguente relazione: LS =

∆2Φ ∆2Φr 2 ∆2Φ = = ∆ΩS ∆AS ∆AD ∆AS ∆ΩD ∆AD

considerando un angolo solido ∆ΩS piccolo ma non infinitesimo, sotteso dalla superficie del misuratore di area ∆AD, posto a una distanza r, e una porzione di superficie emittente di area ∆AS. ∆2Φ è il flusso luminoso emesso dalla porzione della superficie emittente analizzata, ma è anche il flusso luminoso ricevuto dal rivelatore di area ∆AD; pertanto, il rapporto tra tale flusso e quest’area è pari al

contributo elementare ∆ED all’illuminamento nel punto in cui è posto il rivelatore, fornito dal flusso emesso dalla porzione di superficie della sorgente: ∆E D =

∆2Φ = LS ∆ΩD ∆AD

ritrovando così quanto già visto. Se non si considera l’illuminamento orientando la superficie del rivelatore in modo ortogonale al raggio luminoso, il flusso luminoso sarà distribuito su una superficie maggiore seguendo la legge del coseno dell’angolo di rotazione. Identificando il valore di luminanza di ogni sorgente emittente, e conoscendo l’estensione di ogni sorgente, è possibile identificare il contributo all’illuminamento che essa fornisce nel punto in cui è posto l’osservatore. Si fa notare che non è necessario conoscere le dimensioni fisiche della sorgente, ma solamente la sua estensione come angolo solido, o, in termini più intuitivi, come angolo di vista. L’angolo di vista esprime inoltre anche il fatto che conta l’estensione apparente della sorgente: se la superficie è vista secondo una direzione radente la sua estensione sarà ridotta. L’angolo di vista, o di campo, coperto da un oggetto nell’inquadratura di una scena può essere facilmente ricavato dalle proprietà del sistema ottico utilizzato nell’osservazione (il nostro occhio o l’obiettivo di una macchina fotografica o telecamera). Inoltre sia la retina del nostro occhio, sia il sensore (pellicola, sensore CCD, ecc.) di una telecamera o fotocamera sono sensibili alla luminanza degli oggetti inquadrati. Se poi l’uscita del sensore è tarata direttamente in termini di luminanza, il rivelatore diventa un multi-luminanzometro: ogni pixel del sensore è associato a una estensione angolare e a una luminanza di una piccola porzione della scena inquadrata. Da queste

∆E D =

GLI ALTRI TEMI

due informazioni è possibile ricavare, tenendo conto anche della direzione dei raggi luminosi, quanto sia il contributo dell’illuminamento prodotto da ogni oggetto davanti all’osservatore, eventualmente selezionando i termini di nostro interesse e eliminando quelli forniti da sorgenti di disturbo. UN POSSIBILE ESEMPIO DI APPLICAZIONE

La Fig. 3 mostra un’immagine acquisita da un multi-luminanzometro in una galleria stradale. Da essa è possibile conoscere i valori di luminanza sul manto stradale per una qualificazione illuminotecnica dell’efficacia dell’impianto d’illuminazione sia come valore medio che come loro variabilità longitudinale e trasversale. La stessa immagine inquadra anche gli apparecchi utilizzati per l’illuminazione; i loro valori di luminanza possono essere selezionati e utilizzati per valutare il parametro “incremento di soglia” (TI) che fornisce un’indicazione quantitativa sull’abbagliamento introdotto dallo stesso impianto d’illuminazione. Tale parametro è determinabile dalla luminanza media della superficie stradale (Lave), luminanza di sfondo per l’osservatore-guidatore, e dalla luminanza di velo equivalente (Lv), secondo la seguente equazione: TI =

65 ⋅ Lv Lave

%

La luminanza di velo equivalente de-

Figura 3 – Immagine di luminanza (cd m-2) in uscita a un multi-luminanzometro


N. 02ƒ ; 2012

scrive quantitativamente l’effetto di velatura dell’immagine percepita che, in modo più o meno importante, riduce la visibilità degli oggetti quando nel campo dell’osservatore sono presenti oggetti particolarmente brillanti (con luminanza elevata), quali potrebbero essere, ad esempio, le lampade o gli apparecchi dell’illuminazione stradale, così come un’insegna pubblicitaria luminosa, o un faro di un’illuminazione privata posta a lato della strada. L’abbagliamento dipende dalla quantità di luce che tali sorgenti inviano verso l’occhio, quantificabile con l’illuminamento in tale posizione, e dalla direzione dalla quale la luce proviene. Infatti sorgenti luminose poste frontalmente all’osservatore producono maggiore disturbo di sorgenti poste lateralmente. Si comprende quindi come la luminanza di velo equivalente possa avere la seguente espressione:

CONCLUSIONI

Valutare l’illuminamento attraverso misure di luminanza realizzate con un multi-luminanzometro permette di evidenziare i contributi delle diverse sorgenti luminose, primarie o secondarie, presenti nella scena, identificando la loro reciproca importanza e azione, sia nel fornire l’illuminazione necessaria ed efficace per la corretta visione, sia nel generare eventuali disturbi nello svolgimento del compito visivo. Ove necessario, cioè se si dovessero presentare disturbi che compromettessero lo svolgimento del compito visivo o ne rendessero difficile lo svolgimento, il corretto riconoscimento dei ruoli delle varie sorgenti di luce, e quindi di quelle eventualmente dannose, è il necessario punto di partenza per un efficace intervento. RIFERIMENTI BIBLIOGRAFICI

n

Lv = 10 ∑

Ek

k=1 θ k

dove Ek è il contributo all’illuminamento su un piano ortogonale alla linea di vista nella posizione dell’occhio del guidatore prodotto dalla k-esima sorgente luminosa, θk l’angolo (in gradi) tra la linea di vista e la linea congiungente l’occhio dell’osservatore e il centro della sorgente luminosa. Nell’esempio presentato in Fig. 3 la luminanza equivalente di velo può essere ottenuta da un’elaborazione dei valori di luminanza degli apparecchi, e tenendo in debito conto le loro posizioni relative rispetto a quella dell’osservatore. I contributi all’illuminamento sull’occhio del guidatore dovuti ad altre superfici emittenti luce in modo diretto o indiretto possono in questo modo essere eliminati nella valutazione. In alternativa è possibile determinare quale contributo all’incremento di soglia produca un’ulteriore sorgente luminosa che dovesse apparire all’interno del campo visivo, non facendo parte dell’impianto d’illuminazione.

T_M ƒ 114

C. De Cusatis, “Handbook of applied photometry”, AIP Press, Woodbury, NY, 1997. European Standard, EN 13201-4, Road lighting – Part 3: Calculation of performance, 2003 CIE 117-1995 Discomfort glare in interior lighting. G. Smith, Measurement of luminance and illuminance using photographic (luminance) light meters, 1982, The Australian Journal of Optometry, Volume 65, Issue 4, pagg. 144-146, Luglio 1982.

Alessandro Scroccaro è progettista e docente di elettronica. Collabora inoltre, in qualità di libero professionista, con il Laboratorio di Fotometria e Illuminotecnica del Dipartimento di Ingegneria Industriale dell’Università di Padova occupandosi di misure elettriche ed elettroniche, misure fotometriche, spettrometriche, radiometriche e colorimetriche su apparecchi e sorgenti luminose.

Pietro Fiorentin è Professore Associato di Misure Elettriche ed Elettroniche presso l’Università di Padova. Si occupa di misure elettroniche, misure fotometriche, spettrometriche, radiometriche e colorimetriche su sorgenti e superfici. È responsabile del Laboratorio di Fotometria e Illuminotecnica dell’Università di Padova.

NEWS

GLI ALTRI TEMI

NUOVO BRACCIO DI MISURA: PRECISIONE +23%! Hexagon Metrology ha recentemente presentato alla fiera Control di Stoccarda (8-11 maggio 2012) l’ultima versione del suo noto braccio di misura portatile ROMER Absolute Arm, che offre una precisione ancora più elevata (fino al 23% in più rispetto alla precedente versione). Con valori di ripetibilità a partire da 0,016 mm, si tratta del braccio di misura portatile più preciso che Hexagon Metrology abbia mai prodotto. È disponibile in sette lunghezze diverse, da 1,5 m a 4,5 m. “Grazie ai miglioramenti progettuali, la nuova rielaborazione consente soprattutto ai bracci più lunghi precisioni notevolmente maggiori rispetto al passato” afferma Pirmin Bitzi, Product Manager dei Bracci di Misura Portatili. Un’assoluta novità presente all’interno di ROMER Absolute Arm è rappresentata da SmartLock, meccanismo di bloccaggio che ferma il braccio in posizione di riposo per una maggiore sicurezza e consente all’utente di bloccare il braccio stesso in qualunque posizione intermedia per la misura in spazi ristretti. Hexagon Metrology sta anche per rilasciare una nuova variante specifica del ROMER Absolute Arm per le applicazioni di verifica di tubi piegati. Questi bracci hanno un volume di misura da 2,5 o 3,0 m, uno speciale ammortizzatore a gas e un supporto per la misura dedicato per rendere più semplice possibile la misura dei tubi. Per ulteriori informazioni: www.hexagonmetrology.com


GLI ALTRI TEMI

MISURE PER LA SALUTE DELL’UOMO Luigi Rovati 1, Gian Franco Dalla Betta 2, Andrea Bosi 3, Francesco Cardellini 4

Un nuovo sensore attivo per il monitoraggio del gas Radon Rivelare la presenza di un nemico invisibile

A NEW ACTIVE SENSOR FOR RADON GAS MONITORING This article describes a new electronic sensor capable of monitoring Radon gas. This device is the result of a University technology transfer based on the activation of a new spin-off company (RSens srl). Thanks to modern electronic technologies and a custom semiconductor detector, this measuring instrument represents an important novelty in the world of environmental monitoring. RIASSUNTO L’articolo descrive un nuovo un sensore elettronico per il monitoraggio del gas Radon. Questo dispositivo commerciale è frutto di un’operazione di trasferimento tecnologico universitario basata sull’attivazione di uno spin-off universitario (RSens srl). Grazie alla moderna tecnologia elettronica e a un rivelatore a semiconduttore custom, questo strumento di misura rappresenta un’importante novità nel mondo del monitoraggio ambientale.

Figura 1 – Il sensore RStone ha dimensioni contenute (160x160x100 mm3), è facilmente trasportabile e non richiede particolari accorgimenti per l’installazione

LA MISURAZIONE DEL GAS RADON ne wireless (SimpliciTI™, Texas Instru- della camera di misura (sfruttando le E LO STRUMENTO RSTONE ments). Risulta quindi possibile, attraver- correnti convettive) e quindi favorire la

Il Radon (222Rn) è un gas particolarmente insidioso per la salute umana. Questo gas è considerato il secondo fattore di rischio per l’insorgenza del tumore al polmone [1]. La pericolosità di questo elemento risiede nel lungo tempo di dimezzamento (3,82 giorni): infatti in questo tempo, prima di decadere, il Radon può percorrere lunghe distanze, partendo dal sottosuolo fino ad arrivare a contatto diretto con i tessuti dell’apparato respiratorio, dove le cellule dell’epitelio bronchiale rappresentano il bersaglio più critico per eventuali modificazioni cancerose. La prevenzione per questo rischio ambientale può solo basarsi su un attento e continuo monitoraggio della concentrazione di Radon negli ambienti domestici, lavorativi e di svago. Recentemente RSens srl (www.rsens.it) ha sviluppato un sensore elettronico innovativo, basato su un rivelatore di particelle alfa, in grado di monitorare in modo continuo la concentrazione del gas Radon. Tale dispositivo, visibile in Fig. 1, può essere utilizzato sia in modalità stand-alone che in modalità remota, sfruttando un protocollo di comunicazio-

so l’utilizzo di un personal computer e di una chiavetta wireless appositamente sviluppata, programmare in remoto il sensore e scaricare le informazioni di misura. I dati relativi alla concentrazione di gas Radon sono corredati da informazioni relative alla pressione, temperatura ed umidità registrate all’interno della camera di misura. Il dispositivo di misura, denominato commercialmente RStone, è in grado di funzionare sia alimentato tramite una presa di corrente che mediante le batterie ricaricabili installate all’interno del dispositivo stesso. Le batterie sono in grado di consentire un funzionamento ininterrotto per 15-20 giorni.

diffusione del Radon. Grazie a questo accorgimento strutturale, la concentrazione di Radon nella camera di misura eguaglia quella dell’ambiente in tempi rapidi senza dover ricorrere a dispositivi attivi di campionamento dell’aria (pompe, ventole, ecc.) che graverebbero sui consumi e sugli ingombri. Come mostrato in Fig. 2, la camera di misura, contenente al suo interno il rivelatore di particelle alfa, si sviluppa lungo l’asse verticale del dispositivo ed è dotata di un’apertura inferiore e di una superiore. La raccolta elettrostatica dei prodotti di decadimento del Radon è ottenuta applicando tra le pareti della camera e il rivelatore un’elevata differenza di potenziale.

IL SISTEMA DI MISURA Il sistema di misura del Radon RStone è costituito da un unico dispositivo di dimensioni contenute (160x160x100 mm3), facilmente trasportabile, che non richiede particolari accorgimenti per l’installazione. La struttura interna del sistema è stata progettata per massimizzare il ricircolo dell’aria all’interno

T_M

(1)

Università di Modena e Reggio Emilia, Dip. Ingegneria dell’Informazione (2) Università di Trento, Dip. Ingegneria e Scienze dell’Informazione (3) Rsens srl, Modena (4) Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti-ENEA luigi.rovati@unimore.it

N.

2/12 ƒ 115


N. 02ƒ ; 2012

NEWS

ERGONOMIA CON LO STEREO MICROSCOPIO LYNX Chi lavora al microscopio, spesso assume una postura forzata: questo può provocare una serie di disturbi, tra cui mal di schiena, mal di collo, disturbi visivi, a volte dolori ai polsi. I maggiori problemi si hanno con microscopi scarsamente o per nulla adattabili alle esigenze individuali, poveri di ergonomia, che portano ad affaticare gli occhi e tutto il corpo, soprattutto quando l’operatore svolge un lavoro ripetitivo e su turni. Con un maggiore affaticamento, l’operatore lavora con meno attenzione e con minore precisione. I progettisti e i designer dello stereo microscopio Lynx di Vision Engineering hanno fissato nuovi standard nella semplicità di utilizzo e nella produttività, attraverso il design ergonomico di altissimo livello, basato su quattro punti principali: – Ottica senza oculari. Permette di avere un’immagine stereo chiara e ridurre lo sforzo degli occhi dell’operatore attraverso una corretta visione;

T_M ƒ 116

– Tecnologia multi-lenticolare. Massimizza la libertà di movimento della testa, grazie al sistema brevettato di pupilla a uscita allargata del microscopio; – Comandi a portata di mano, posizionati in modo che l’operatore possa comandare il microscopio con operazioni intuitive, senza perdite di tempo e di attenzione; – Le dimensioni e le proporzioni di Lynx sono state ideate in modo che l’operatore possa stare in una posizione che riduce l’affaticamento. La tecnologia di visione senza oculari (Dynascope), brevettata da Vision Engineering per offrire agli operatori una maggiore ergonomia, elimina le restrizioni date dai tradizionali microscopi binoculari: gli operatori che necessitano di correzioni visive possono indossare liberamente gli occhiali da vista o le lenti a contatto mentre stanno utilizzando il microscopio. Per migliorare l’ambiente di lavoro, inoltre, Lynx è equipaggiato da un’illuminazione a LED regolabile di intensità, che permette di bilanciare in modo chiaro e semplice la differenza tra l’intensità dell’immagine e le condizioni ambientali, riducendo gli sforzi e garantendo un maggiore rendimento e accuratezza. Per ulteriori informazioni: www.visioneng.it


N. 02ƒ ;2012

Il sistema dispone di un microcontrollore principale che opera acquisendo il segnale all’uscita dell’elettronica di lettura [3] e comparando i dati di carica ricevuti con una soglia prefissata. Un valore di carica superiore a tale soglia determina la classificazione di un evento ionizzante. Quando ciò avviene, il microcontrollore memorizza la carica rilasciata e il relativo istante temporale (grazie all’ausilio di un real-time clock) provvedendo ad aggiornare, secondo un apposito algoritmo, il dato relativo alla concentrazione di Radon. Il sistema è dotato di una memoria interna, di tipo non volatile, particolarmente capiente; è infatti possibile la memorizzazione di 100 misure della durata massima di un anno ciascuna. L’interfaccia wireless a 2,4 GHz implementata sulla scheda elettronica garantisce allo strumento numerose funzionalità aggiuntive. Grazie a un apposito dongle-USB e al software esso abbinato è possibile connettere lo strumento a qualsiasi personal computer per la programmazione remota di una misura, la visualizzazione delle misure acquisite mediante grafici e tabelle e la loro esportazione per post-elaborazioni, analisi e salvataggio. Oltre alle funzioni d’interfacciamento al singolo strumento, il dongle-USB consente l’interconnessione di più sensori in rete, rendendo possibili operazioni quali il monitoraggio contemporaneo di ambienti diversi o di aree critiche. La capacità di controllo remoto dello strumento viene ulteriormente estesa da un approccio “cloud-sensor” sfruttando le potenzialità di internet e di un dispositivo sensor-web appositamente sviluppato da Rsens, in grado d’interconnettersi con più sensori in modalità remota e trasferire il controllo e le informazioni di misura alla rete internet. I dati forniti dai vari sensori sono quindi disponibili su un portale web dedicato e facilmente consultabile da tutti gli utenti autorizzati. Le misure acquisite possono essere visualizzate sia attraverso un browser internet sia attraverso applicativi appositamente sviluppati per dispositivi mobili (iOS o Android). Inoltre è possibile impostare il sistema per inviare messaggi (sms) agli utenti nel caso di superamento di soglie impostabili.

GLI ALTRI TEMI

zionale). La misurazione accurata di questo parametro è estremamente critica e prevede l’uso di uno stimolo ripetitivo, variabile e affetto da basso rumore. A questo scopo è stato allestito un banco di misura che sfrutta una sorgente LED per stimolare il rivelatore. Per generare i diversi pacchetti di carica di valore noto e ripetibile, tra LED e rivelatore sono stati interposti filtri ottici neutri ad attenuazione nota e certificata. Per ciaFigura 2 – La camera di misura scun valore della carica è (rappresentata dal cilindro color rosso) è stata progettata stata acquisita una popoper massimizzare il ricircolo dell’aria (sfruttando le correnti convettive) favorendo, in questo modo, lazione di mille campioni. La media campionaria in la rapida diffusione del Radon all’interno dello strumento corrispondenza dei differenti valori di attenuazione ottica PRESTAZIONI E TARATURA rappresenta il valore atteso della carica generata nel rivelatore, menLa capacità del sistema di discrimi- tre la deviazione standard di ciascunare un evento ionizzante dal ru- na popolazione è correlata alla more di fondo è strettamente legata ENC. Per definizione, la ENC può alla carica equivalente di rumore essere stimata come il limite della (Equivalent Noise Charge: ENC. deviazione standard campionaria NdR: Nell’ambito della Fisica Nu- per un valore atteso di carica genecleare la ENC è espressa convenzio- rata nullo. Tale stima è stata eseguita nalmente in cariche elementari: per quattro differenti tempi d’integra1 e= 1,60217653 10-19 C. La cari- zione T. La Fig. 3 mostra l’andamenca elementare come l’unità di ener- to di ENC in funzione di T. È stato gia elettronvolt, simbolo eV nel testo, osservato un valore minimo di ENC è un’unità atomica accettata per inferiore a 500 e, nell’intervallo di essere usata con il Sistema Interna- tempi d’integrazione 5-10 ms.

Figura 3 – Carica equivalente di rumore (ENC) espressa in numero di elettroni efficaci in funzione del tempo di formatura (T)

T_M ƒ 117


CALIBRATORE MULTIFUNZIONE E COMUNICATORE DA CAMPO DI NUOVA GENERAZIONE Danetech srl, azienda milanese specializzata nella fornitura di strumenti e sistemi dedicati alle tarature di strumentazione di misura industriale, presenta un’importante novità della propria rappresentata Beamex: MC6, il calibratore multifunzione e comunicatore da campo di nuova generazione, che stabilisce un nuovo punto di riferimento per il settore. In seguito alla richiesta di misurazioni sempre più stabili e precise e a trasmettitori sempre più sofisticati, strumentisti e tecnici di taratura sono costretti a utilizzare un numero maggiore di dispositivi di misurazione e di conseguenza è aumentata la domanda di dispositivi di misurazione automatizzati e intuitivi. Inoltre, le aziende sono alla ricerca di nuove soluzioni per ridurre il costo di gestione dei dispositivi di misurazione e sostituire diversi singoli dispositivi con un dispositivo multifunzione. Il nuovo Beamex MC6 rappresenta la soluzione ideale per i requisiti dell’industria di processo moderna: calibratore in campo e comunicatore evoluto ad alta precisione, offre la possibilità di tarare segnali di pressione, temperatura e vari segnali elettrici. Inoltre, MC6 comprende un comunicatore fieldbus completo per strumenti HART, FOUNDATION Fieldbus e Profibus PA. Le sue caratteristiche principali sono la praticità e facilità d’uso, grazie al grande touch-screen a colori da 5.7” e all’interfaccia multilingua. Il robusto involucro con classe di protezione IP65 (a prova di acqua e polvere), il design ergonomico e il peso ridotto lo rendono un dispositivo di misurazione ideale per l’uso in campo in vari settori (farmaceutico, energetico, gas e petrolio, alimenti e bevande, assistenza, nonché chimico e petrolchimico). MC6 ha cinque modalità operative: misurazione, taratura, documentazione, registrazione dati e comunicazione fieldbus. Inoltre, in combinazione con il nuovo software di taratura Beamex CMX, lo strumento consente taratura e documentazione completamente automatiche e senza documentazione cartacea. Per ulteriori informazioni: www.danetech.it

T_M ƒ 118

N. 02ƒ ; 2012

NEWS

GLI ALTRI TEMI

Per valutare la qualità del processo di discriminazione, questo valore dev’essere confrontato con la carica rilasciata da un evento ionizzante. Essendo l’energia delle particelle alfa emesse durante il processo di decadimento del Radon compresa nell’intervallo 5-7 MeV, per simulare gli eventi ionizzanti è stata utilizzata una sorgente radioattiva composta da Americio (241Am). Questo elemento è in grado di emettere particelle alfa con energia pari a circa 5,5 MeV. La Fig. 4 mostra un tipico spettro di carica rivelata esponendo il sensore alla sorgente radioattiva. Questa misurazione è stata eseguita impostando un tempo d’integrazione pari a 7 ms. Da questo spettro si evince come la carica rilasciata (al netto del guadagno del rivelatore) da particelle alfa con energia pari a 5,5 MeV vale circa 105 e. Confrontando questo valore con la ENC, si osserva l’ampio intervallo di sogliatura possibile per la discriminazione; questo aspetto rende il sistema particolarmente robusto nei confronti di falsi conteggi. Si noti inoltre che il basso valore di ENC consentirebbe di sfruttare lo strumento per eseguire analisi spettroscopiche della radiazione rivelata. Questa funzione, in fase d’implementazione, apre nuove e affascinanti possibilità di utilizzo di RStone.

Figura 4 – Istogramma di carica registrato esponendo il rivelatore a una sorgente radioattiva composta da Americio (241Am). La distanza sorgente-rivelatore è 16 mm

Un dispositivo RStone è stato sottoposto a taratura presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti. Il dispositivo RStone da tarare è stato alloggiato con il monitore di riferimento (AlphaGuard® mod. PQ200) in una camera Radon del volume di 1.000 l. Le misure del monitore AlphaGuard sono riferibili al campione nazionale di attività di 222Rn operante presso l’INMRI-ENEA [4]. Visto l’ampio intervallo di misura di RStone, in accordo con la procedura standard prevista per la taratura degli strumenti attivi (monitori) [3], sono state effettuate due misurazioni di taratura della durata di 24 ore ciascuna, a due diverse concentrazioni di attività di Radon: (i) 1,5 kBq/m3 (vicina ai valori riscontrabili in campo) e (ii) 28 kBq/m3 (tipica per monitori da usare nelle camere Radon per esposizione dei dosimetri).


N. 02ƒ ;2012

Luigi Rovati è professore Associato di Misure presso la Facoltà di Ingegneria “Enzo Ferrari” dell’Università di Modena e Reggio Emilia. La sua attività scientifica verte sullo studio, la progettazione e la realizzazione di strumentazione ottica ed elettronica a elevate prestazioni. Svolge inoltre attività di trasferimento tecnologico e valorizzazione dei risultati della ricerca anche mediante società di Startup. Dal Novembre 2010 è vicedirettore del Dipartimento di Ingegneria dell’Informazione. Figura 5 – Tracciati registrati dal monitore di riferimento (● ●) e da RStone (■ ■) durante la taratura. La concentrazione nominale di Radon nella camera di misura è 28 kBq/m3

Nei due casi i due strumenti hanno fornito le seguenti letture medie: (i) Lettura monitore di riferimento: 1,55 kBq/m3, lettura RStone: 18,3 mHz e (ii) Lettura monitore di riferimento: 28,39 kBq/m3, lettura RStone: 340,9 mHz. A titolo di esempio, si riportano in Fig. 5 i tracciati registrati dai due strumenti durante la seconda prova. Il fattore di taratura desunto da queste misure è 1,2·10-2 mHz·Bq-1·m3. L’incertezza relativa associata a questo valore è stata stimata in circa 3%. Oltre al contributo derivante dall’incertezza sul fattore di taratura, l’incertezza associata alla misura fornita da RStone è funzione dell’incertezza sul conteggio. Questa può essere stimata in prima analisi ipotizzando una statistica poissoniana di eventi. Applicando il modello di Poisson, lo scarto tipo coincide con la radice quadrata del valore medio del conteggio. Quindi, assumendo una concentrazione pari alla soglia di allarme (200 Bq/m3), per ottenere uno scarto tipo del 10% sarà necessario aprire una finestra di conteggio di durata pari a circa 12 h (circa 100 conteggi).

son e C.F. Lynch, “Residential Radon Gas Exposure and Lung Cancer”, Am. J. Epidemiol., vol. 151, pp. 10921102, 2000. [2] L. Rovati, S. Bettarini, M. Bonaiuti, L. Bosisio, G.-F. Dalla Betta, V. Tyzhnevyi, G. Verzellesi e N. Zorzi, “Alpha-particle detection based on the BJT detector and simple, IC-based readout electronics”, Journal of Instrumentation, vol. 4(11), p. P11010, 2009. [3] F. Cardellini, “Il sistema di taratura dell’INMRI-ENEA”, Tutto Misure N. 3, pp. 229-233, 2011. [4] P. De Felice e Xh. Myteberi, “The 222Rn Reference Measurement System Developed at ENEA”, Nucl. Instr. and Meth. in Phys. Res. A, vol. 369, pp. 445-451, 1996.

Andrea Bosi si è laureato in Ingegneria Elettronica nel 2008 presso la Facoltà di Ingegneria “Enzo Ferrari” dell’Università di Modena e Reggio Emilia (Laurea) e in Ingegneria Elettronica nel 2010 presso il medesimo ateneo (Laurea Magistrale). Dal 2011 è RIFERIMENTI BIBLIOGRAFICI socio fondatore di RSens srl dove dirige le attività di ricerca e sviluppo. Collabora attivamente con il laboratorio Optolab [1] R.W. Field, D.J. Steck, B.J. Smith, dell’Università di Modena e Reggio EmiC.P. Brus, E.L. Fisher, J.S. Neuberger, lia per lo studio di reti di sensori wireless C.E. Platz, R.A. Robinson, R.F. Wool- per applicazioni industriali.

Gian Franco Dalla Betta è professore Associato di Elettronica presso la Facoltà di Ingegneria dell’Università di Trento. La sua attività di ricerca riguarda lo sviluppo di sensori ottici e di rivelatori di radiazioni integrati in silicio e della relativa elettronica di lettura per applicazioni scientifiche, mediche e ambientali. Dal maggio 2008 è Associate Editor della rivista IEEE Transactions on Nuclear Science.

Francesco Cardellini è laureato in fisica, ricercatore presso l’ENEA, ha lavorato nel campo della scienza dei materiali specializzandosi sulle reazioni a stato solido e sulle tecniche di analisi mediante diffrazione di raggi X e calorimetria. Dal 2003 lavora presso l’INMRI, nel settore della metrologia del Radon. In questo ambito è responsabile dello sviluppo e mantenimento del campione primario e del servizio di taratura della strumentazione utilizzata per il monitoraggio del radon.

T_M ƒ 119


N. 02ƒ ; 2012

NEWS

PMX: IL NUOVO STANDARD INDUSTRIALE PER LA TECNOLOGIA DI MISURA Un sistema di amplificatori sviluppato apposita- Progettata per ambienti critici di produmente per l’impiego nell’industria: potente, pre- zione ciso, affidabile e altamente efficiente, dotato di Particolare valore è stato dato alla struttura e tutte le moderne caratteristiche che gli amplifi- alla configurazione elettrica per l’immunità dai catori moderni devono possedere. disturbi. Ciò significa che la PMX fornisce semQueste sono le doti principali di PMX, la tecno- pre valori di misura stabili e sicuri, anche in eserlogia di misura all’avanguardia che HBM ha cizio vicino a potenti generatori o in ambienti progettato per conseguire risultati ottimali nella con forti vibrazioni prodotte da macchinari. produzione. Dove utilizzare la PMX Con la PMX, gli utenti dispongono di diverse soluzioni, applicabili in produzione, nei banchi prova industriali, nei banchi prova qualità. In ambito produzione, la piattaforma è ideale nel monitoraggio dei processi di stampaggio e giunzione (laminazione, punzonatura e taglio dei metalli, piantaggio di cuscinetti e bronzine) e mostra la propria potenza anche nel controllo qualità di presse veloci per pastiglie, conio di monete o grandi presse multicanale con funzioni matematiche di controllo integrate e calcolo in tempo reale del segnale. La funzione “Monitoraggio Condizione” della PMX è importante nel controllo e miglioramento dell’efficienza di grandi e complessi impianti e macchinari, rilevando in tempo reale gli stati critici e comunicandoli all’unità di controllo. Nei banchi prova industriali, inclusi i banchi prova con installazione fissa ma PMX s’inserisce perfettamente nei processi di modulare, con compiti di verifica chiaramenproduzione e consente di rilevare le più comu- te definiti, la PMX è in grado di misurare ed ni grandezze di misura: Forze, Coppie, Vibra- elaborare grandezze di misura meccaniche zioni, Pressioni, Deformazioni, Temperature, quali forze, pressioni, temperature, portate, Impulsi o segnali di Encoder. Mediante una po- coppie e tempi. L’automazione viene effettuatente gestione, i segnali di misura possono es- ta dai segnali di uscita analogici e dei comsere ulteriormente elaborati. Le uscite e segna- paratori di allarme oppure di EtherCAT, con lazioni possono poi essere trasmesse mediante velocità fino a 10 kHz. Grazie alla capacità ingressi e uscite digitali oppure tramite moder- multiclient della PMX, il salvataggio dei dati ne interfaccia Fieldbus o Ethernet in tempo può avvenire in parallelo mediante Ethernet. reale. La piattaforma è altrettanto utile nei banchi prova qualità, per il controllo qualità profesFlessibile ed espandibile Il concetto modulare delle schede di misura con- sionale e il miglioramento della qualità durante sente di sviluppare nuovi inserti per le future e dopo il processo di produzione, adatta per grandezze di misura. Ciò risulta importante diverse tipologie di sensori e segnali e per diffeallorché gli impianti di produzione esistenti renti compiti di misura. Queste prove funzionali devono essere aggiornati o ampliati; anche in riferite al prodotto necessitano sovente di numecaso di manutenzione o riparazione le schede- rosi sensori e canali di misura. Si possono sininserto possono essere semplicemente sostituite, cronizzare i valori di misura di più unità PMX, dato che ogni scheda dispone della propria ta- aumentando così il numero di canali disponibili. ratura. Come integrare la PMX nel sistema di automazione Precisa, accurata e affidabile La PMX è progettata per la misurazione dei Dotata di interfaccia Ethernet industriali, la PMX segnali normalizzati dei sensori. La rilevazione dei valori di misura avviene con elevata risoluzione (24 Bit) e precisione (0,1% o superiore), anche per i campi parziali di carico che sono comunemente presenti nella produzione, rappresentando dati di misura ancora significativi. Nucleo più potente Notevole attenzione è stata posta all’elevata potenza interna dei processori di segnale, al fine di garantire anche la post-elaborazione dei segnali di misura alla massima velocità. Da sottolineare la possibilità di rilevare i valori di picco e calcolare i segnali fino al circuito di regolazione. Con tale intelligenza distribuita vengono alleggeriti i controlli dell’impianto, aumentandone così la fruibilità.

T_M ƒ 120

supporta i più diffusi sistemi e protocolli di comunicazione utilizzati nell’automazione industriale. Oltre ai noti Fieldbus, qui vengono impiegati anche i moderni sistemi Ethernet in tempo reale come Ethercat o Profinet. Con essi, i valori di misura e i segnali di diagnosi vengono trasferiti in tempo reale con velocità fino a 10 kHz. Pertanto la PMX è inseribile universalmente e l’utente si avvantaggia della massima cadenza di trasferimento dei dati e della minima complessità del circuito di regolazione. Innovazioni Un obiettivo prioritario degli ingegneri HBM, in fase di sviluppo della PMX, era quello di consentire alla piattaforma di servire, con la massima rapidità ed efficienza, un grande sistema. Per raggiungere tale obiettivo è stata utilizzata una nuova tecnologia Web Server, mai prima d’ora impiegata in questo campo: la GWT Google-Web-Technology, nota finora solo nel campo degli Smartphone e dei PC Tablet, dove ha ottenuto un riconoscimento mondiale per la sua facilità d’impiego. L’utilizzo di questa tecnologia nella PMX apre possibilità del tutto nuove: per il controllo è ora sufficiente un software Panel o un dispositivo che possegga un Web Browser. Il resto è fornito dalla PMX, che esegue le istruzioni sempre nello stesso modo eliminando la necessità di installare un gravoso software operativo per PC. Inoltre, si possono gestire numerosi dispositivi fino allo Smartphone. Mediante l’implementazione di altre interfaccia, quali Ethernet, USB e CAN, si aprono numerose ulteriori possibilità applicative. Tramite interfaccia USB si possono collegare strumenti periferici, come il lettore di codice a barre o la memoria di massa per salvare i dati, con grandi vantaggi in ambito di controllo qualità e documentazione. La possibilità di visualizzare e registrare i dati di misura è altrettanto essenziale anche per la messa in funzione e per l’assistenza (service). Tutto sulla PMX nel sito www.hbm.com/en/pmx


GLI ALTRI TEMI

MISURE A MICROONDE Andrea Cataldo 1, Giuseppe Cannazza1, Egidio De Benedetto 1, Nicola Giaquinto 2

Riflettometria a microonde per l’individuazione di perdite in condotte idriche interrate

MICROWAVE REFLECTOMETRY TO MONITOR BURIED WATER PIPE LOSSES This paper describes an innovative system for accurate, non-invasive detection of water leaks in underground pipes. The proposed system, based on microwave reflectometry, allows to effectively detect leaks with a dramatic reduction of inspection times. For the method and the related measurement apparatus, an international patent application has been filed. RIASSUNTO In questo articolo viene descritto un sistema innovativo per l’individuazione accurata di perdite in condotte idriche interrate, operante in modalità non invasiva. Questo sistema, che si basa sulla riflettometria a microonde, consente una più efficace rivelazione delle perdite, oltre che una notevole riduzione dei tempi d’ispezione rispetto a quelli richiesti dalle tecniche tradizionali. Il metodo e l’apparato di rivelazione, per la cui validazione si è eseguita una vasta sperimentazione sul campo, sono oggetto di un brevetto internazionale. IL PROBLEMA DELLA RICERCA PERDITE NELLE CONDOTTE

La rivelazione delle perdite idriche è un tema di rilevante interesse pratico nel settore della distribuzione idrica. Un recente studio dell’ISTAT ha evidenziato che la percentuale di acqua mediamente dispersa in rete è pari a circa il 47% dell’acqua immessa in rete [1]. Le maggiori dispersioni si osservano in Puglia, Sardegna, Molise e Abruzzo (regioni in cui, per ogni 100 litri di acqua erogata, ne sono immessi in rete circa 80 litri in più). Questi dati dimostrano chiaramente quanto sia importante, ai fini dell’ottimizzazione dello sfruttamento delle risorse idriche, l’individuazione e la riparazione delle perdite lungo le condotte. I mezzi d’indagine che vengono tradizionalmente adoperati per la ricerca delle perdite lungo condotte interrate si basano, prevalentemente, su metodi elettroacustici (es. geofoni o aste d’ascolto amplificate). Oltre a tali apparati, viene spesso impiegata strumentazione più sofisticata (e più

costosa), il cui funzionamento si basa sul metodo correlativo. Tuttavia, le tecniche elettroacustiche, per il principio stesso su cui si basano, presentano caratteristiche che ne limitano l’efficacia. Innanzitutto esse richiedono una notevole esperienza da parte degli operatori. Inoltre l’esecuzione di una campagna di ricognizione, ad esempio in un tratto di rete urbana, richiede tempi piuttosto lunghi (orientativamente, per ispezionare 1 km di rete occorre almeno una giornata di lavoro per due unitàuomo). Infine, nonostante le tecniche elettroacustiche siano da tempo largamente adottate, sussistono ancora problematiche per la corretta interpretazione dei dati di misura, l’incertezza sulla localizzazione e sull’entità del guasto, la scarsa applicabilità in impianti realizzati in materiale plastico e, soprattutto, la scarsa sensibilità in condizioni di pressione idrica non elevata. Proprio questi limiti applicativi hanno motivato l’interesse scientifico verso la ricerca e lo sviluppo di tecniche d’indagine alternative, in grado di rende-

T_M

re più efficienti le campagne di ricerca-perdite. A tal fine, è stato sviluppato un nuovo sistema ricerca-perdite, basato sulla riflettometria nel dominio del tempo (time domain reflectometry, TDR), in grado di localizzare velocemente ed efficacemente le perdite su tratti di condotta interrata, lunghi anche diverse centinaia di metri [2]. Con riferimento particolare al contesto di possibile utilizzo, il sistema prevede due principali categorie applicative: 1) condotte idriche in materiale metallico già esistenti; 2) condotte idriche e fognarie di futura posa in opera e realizzate in qualsiasi materiale. Nel seguito viene fornita una sintetica descrizione delle caratteristiche tecnico-funzionali del sistema e dei benefici previsti. Attualmente, grazie ad una collaborazione tra l’Università del Salento e l’Acquedotto Pugliese SpA, si sta procedendo alla messa a punto finale del sistema descritto. DESCRIZIONE DEL SISTEMA

Il sistema di rivelazione perdite realizzato è basato sull’utilizzo della TDR, una tecnica basata su principi intrinsecamente diversi rispetto a quelli dei tradizionali metodi ricerca-perdite. Il metodo diagnostico prevede l’invio

(1)

Università del Salento, Dip. Ingegneria dell’Innovazione, Lecce e MoniTech srl, spin-off Università del Salento (2) Politecnico di Bari, Dip. Elettrotecnica ed Elettronica andrea.cataldo@unisalento.it

N.

2/12 ƒ 121


NEWS

RISOLVERE IN MODO RAPIDO E SEMPLICE I PROBLEMI ACUSTICI IN 3D La risoluzione dei problemi acustici è un processo impegnativo, ma essenziale, in molti campi dell’industria. Con la soluzione brevettata LMS SoundBrush, LMS lancia uno strumento rivoluzionario e completo che aiuta a visualizzare ciò che si sente. Si tratta della prima tecnologia in grado di visualizzare il campo sonoro in 3D durante la campagna di acquisizione. Il principio fondamentale della soluzione SoundBrush è la tecnologia brevettata a tracciamento ottico, combinata con un microfono di pressione sonora o un sensore di intensità 3D. Lo strumento rende il suono visibile: quando si sposta la sonda liberamente intorno all’oggetto di prova, con qualsiasi orientamento e posizione, il campo sonoro viene imme-

diatamente visualizzato sullo schermo in 3D. Il rilevamento automatico della posizione facilita l’interpretazione del campo sonoro 3D che viene visualizzato insieme al modello 3D dell’oggetto di prova. Visto che questo accade in tempo reale, non è necessario alcun postprocessamento. Iniziare a utilizzare LMS SoundBrush è un gioco da ragazzi: basta abilitare l’antenna con il sensore acustico sulla sonda, connettere la sonda USB e la fotocamera al PC e avviare il software. Il sistema riconosce automaticamente il tipo di antenna. Non è richiesta alcuna operazione di calibrazione. Inoltre, il software segue un flusso di lavoro intuitivo, che guida l’operatore attraverso passaggi logici dall’installazione al report finale. Gli utenti sono immediatamente operativi, senza formazione, in quanto la rappresentazione in 3D dei dati consente un’interpretazione rapida e precisa dei dati misurati. Nessuna perdita di tempo nella configurazione o nella manipolazione del sistema: ci si può concentrare esclusivamente sulla prova e dunque sulla soluzione del problema acustico. Per ulteriori informazioni: visitare il sito web www.lmsitaly.com o contattare alessandra.fabiani@lmsintl.com

WIKA ITALIA È IL NUOVO DISTRIBUTORE ESCLUSIVO PER L’ITALIA DEI PRODOTTI ASL

Dallo scorso 25 Novembre 2011, WIKA Italia è ufficialmente responsabile delle promozione e distribuzione dei prodotti ASL per il territorio italiano. Da oltre 40 anni, ASL (Automatic Systems Laboratory) fornisce apparecchiature di qualità superiore per la calibrazione di temperatura in ambito metrologico e industriale. La gamma dei prodotti include ponti di misura primari e secondari, termometri di elevata precisione, calibratori di temperatura, sonde campione e resistori. Dopo l’acquisizione della DH-Budenberg di alcuni mesi fa, l’accordo con ASL rafforza ulteriormente la posizione di leadership WIKA nella calibrazione di pressione e temperatura. Le informazioni tecniche sui prodotti ASL sono disponibili sul sito www.aslltd.co.uk Per ulteriori informazioni: www.wika.it

T_M ƒ 122


N. 02ƒ ;2012 sono alla base di entrambi i casi applicativi. Nello specifico, per il caso applicativo 1) (condotte metalliche già esistenti), il segnale di test viene fatto propagare attraverso il terreno che si trova tra la condotta e un cavo metallico disteso sul manto stradale, parallelamente alla condotta stessa (v. Fig. 1). Il contatto elettrico con la condotta è garantito attraverso un comune punto di accessibilità (tipicamente attraverso l’asta di manovra delle saracinesche). L’analisi del segnale riflesso permette di ricavare il profilo del coefficiente di riflessione (ρ) in funzione della distanza apparente (L), potendo analizzare anche diverse centinaia di metri con una singola misura. Come si evince dalla figura, lo schema generale dell’apparato di rivelazione per il caso 1) si compone di una parte relativa alla strumentazione elettronica, comprendente acquisizione, elaborazione dati e software di gestione (con possibilità di effettuare misure automatiche in remoto e di teletrasmissione dei dati), e di una parte relativa alle componenti fisiche di sensing e agli accessori per le connessioni. Per quanto riguarda il caso applicativo 2) (impianti di nuova installazione), sfruttando lo stesso principio di rivelazione, è possibile implementare un sistema per la localizzazione di perdite in condotte sia idriche sia fognanti, da porre in opera sottoterra e realizzate con Figura 1 – Schematizzazione dell’apparato qualsiasi tipo di per la ricerca perdite e del corrispondente riflettogramma materiale (anche

lungo la condotta di un segnale a microonde e l’analisi del corrispondente segnale riflesso (eco). Tale segnale si assesterà a un valore pressoché costante qualora tutto il tratto di rete sotto analisi sia in condizioni fisiche “normali”, ovvero senza guasti o perdite. Al contrario, in corrispondenza di una perdita (con conseguente fuoriuscita di acqua), il segnale subirà una variazione significativa. Ciò che si ottiene in pratica è un riflettogramma come quello schematizzato in Fig. 1, ovvero una curva del coefficiente di riflessione (sull’asse verticale) in funzione della distanza (tempo) dal punto in cui si sta effettuando l’ispezione (asse orizzontale). Infine, attraverso un algoritmo appositamente sviluppato, è possibile ricavare automaticamente la posizione della perdita. I principi appena descritti

GLI ALTRI TEMI

plastico), potendo effettuare, in pratica, un monitoraggio periodico e su vasta scala degli impianti. Rispetto al caso precedentemente descritto, la metodologia e la strumentazione diagnostica restano invariate; differiscono soltanto le componenti fisiche di sensing e gli accessori per le connessioni, alloggiati durante la fase di posa in opera dell’impianto. Di conseguenza, tramite questo “accorgimento” semplice ed economico, è possibile eseguire il controllo dello “stato di salute delle condotte” con una qualsiasi periodicità ed un’elevata affidabilità. PERDITE SU CONDOTTE GIÀ ESISTENTI

Il sistema ricerca-perdite descritto è stato impiegato per l’ispezione sistematica di diversi tratti di condotte idriche su cui erano state segnalate possibili perdite, individuate tramite le tecniche tradizionali. Il 70% delle ispezioni ha riguardato perdite in corrispondenza di aste di manovra, mentre il restante 30% è stato fatto su tronchi principali di condotta. Ai fini di validazione funzionale del metodo, l’effettiva presenza (o assenza) e l’entità delle perdite sono state appurate successivamente all’attività di misurazione, tramite sopralluogo in fase di scavo e ripristino. La Fig. 2 mostra una fotografia dell’apparato sperimentale così come utilizzato sul campo. In particolare, possono notarsi le modalità di connessione alla condotta (che devono essere fatte in modo da minimizzare i salti d’impedenza tra l’uscita dello strumento TDR e la linea di trasmissione che si viene a formare tra condotta interrata e cavo). Lo strumento TDR portatile (alimentato attraverso una batteria da 12 V) garantisce un’estrema versatilità per effettuare misure sul campo. A titolo esemplificativo, in Fig. 3 sono riportati i risultati relativi ad un caso di perdita su un tronco di diametro di 100 mm. La curva in nero riporta la misura effettuata in presenza della perdita, mentre la curva in blu è rela-

T_M ƒ 123


N. 02ƒ ; 2012

GLI ALTRI TEMI

Figura 3 – Paragone fra misura effettuata sullo stesso tratto di condotta idrica interrata in presenza di perdita (curva nera) e, dopo la riparazione, in assenza di perdita (curva blu)

siderevole variazione del coefficiente di riflessione (ρ) misurato, mentre l’andamento del segnale in funzione della distanza appare pressoché costante dopo la riparazione. La posizione della perdita viene calcolata attraverso un algoritmo (implementato in Matlab) che, sfruttando anche la derivata prima del riflettogramma, dà in output proprio la distanza della perdita dal punto in cui si sta effettuando la misura (v. Fig. 4).

Figura 2 – Apparato di misura con dettagli sulla configurazione adottata e sulle modalità di connessione

tiva alla stesso tratto analizzato, in via comparativa, dopo la riparazione. Sono inoltre evidenziati i punti di riferimento (B) e (D), rispettivamente d’inizio e fine cavo. Si nota come in corrispondenza del punto in cui si trova la perdita (punto E), ci sia una con-

PERDITE SU CONDOTTE DI NUOVA INSTALLAZIONE

Figura 4 – Elaborazione numerica del riflettogramma in presenza di perdita. I punti B, E, D, corrispondono a quelli indicati in Fig. 1. La posizione E della perdita rispetto ai punti noti B e D viene individuata automaticamente e con elevata accuratezza

T_M ƒ 124

Come già detto, questo caso applicativo differisce dal precedente solo per le parti relative alle componenti fisiche di sensing e per gli accessori per le connessioni. Infatti, in fase di posa in opera degli impianti, è sufficiente provvedere all’allog-

giamento, lungo i tratti di condotta, di due semplici elementi conduttori con guaina d’isolamento elettrico. Questi elementi, interrati assieme alle condotte, sono collegabili allo strumento di misura portatile, tramite un apposito cavo alloggiabile, ad es. all’interno di chiusini o pozzetti. La verifica dello stato di una conduttura avviene molto semplicemente collegando lo strumento al “connettore da chiusino” così realizzato. Si avrebbe, tipicamente, un connettore per distanze pari o inferiori a 100-150 m e, inoltre, i “punti di misura” sarebbero geo-referenziabili. Tale modalità di realizzazione, estremamente semplice ed economica, consente una gestione delle perdite e/o anomalie funzionali notevolmente semplificata, un considerevole abbattimento dei tempi di rilevazione e un ingente risparmio economico offrendo, al contempo, una soluzione univoca e definitiva alla problematica di ricerca perdite sia nelle reti idriche che fognarie realizzate in qualsiasi tipo di materiale. La verifica sperimentale di quest’applicazione è stata eseguita attraverso prove su un impianto pilota, in cui sono state intenzionalmente generate e rivelate perdite in alcuni punti di riferimento.


N. 02ƒ ;2012

RIFERIMENTI BIBLIOGRAFICI

Il sistema descritto rappresenta una soluzione innovativa per rendere più efficienti le campagne di ricerca perdite e il controllo periodico delle infrastrutture idriche. L’impiego dello stesso, sia per applicazioni su condotte idriche in materiale metallico già esistenti, sia su condotte idriche e fognarie di qualsiasi materiale e di nuova realizzazione, comporta notevoli miglioramenti in termini di rapporto costi/benefici. Infatti, una rivelazione su un tratto rettilineo lungo fino a 200-300 m richiede, orientativamente, circa 20 minuti.

1. Istat – Istituto nazionale di statistica, “Giornata mondiale dell’acqua. Le statistiche dell’ISTAT”, diffuso il 21/03/2011, www3.istat.it/ salastampa/comunicati/non_c alendario/20110321_00/testoi ntegrale20110321.pdf 2. A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto “A New Method for Detecting Leaks in Underground Water Pipelines”, IEEE Sensors Journal, in stampa, DOI: 10.1109/JSEN.2011. 21764840

NEWS

CONCLUSIONI

ANELLI DI MISURA DELLA FORZA PIEZOELETTRICI FINO A 700 KN

Lo specialista in tecnica di misura HBM ha ampliato ulteriormente la gamma di trasduttori di forza piezoelettrici e ora offre gli anelli di misura della forza CFW con campi nominali fino a 700 kN. I diversi modelli coprono i campi di misura nominali compresi fra 20 kN e 700 kN, consentendo così diverse applicazioni nel controllo produzione o nella misurazione della forza all’interno delle macchine. Date le elevate dimensioni geometriche dell’anello di misura della forza con campo nominale maggiore, esso risulta adatto anche all’impiego in strutture massicce. I sensori di forza

piezoelettrici hanno uno spostamento molto ridotto e presentano perciò una rigidità particolarmente elevata. Poiché il segnale non dipende dal campo di misura, gli anelli di misura della forza piezoelettrici con forze nominali elevate possono rilevare anche le più piccole forze con un’elevata risoluzione. Nell’applicazione si ottiene così un’elevatissima sovraccaricabilità senza che questo comporti una perdita di precisione o di risoluzione. Nonostante precarichi o forze di tara elevati, è possibile effettuare misurazioni ad alta risoluzione. HBM offre amplificatori di carica, sistemi di acquisizione dati e software di misura adatti ai trasduttori di forza piezoelettrici, consentendo all’utente di acquisire una catena di misura completa presso un unico fornitore. Per ulteriori informazioni: www.hbm.com HBM Test and Measurement Fin dalla sua fondazione in Germania, nel 1950, Hottinger Baldwin Messtechnik (HBM Test and Measurement) si è costruita una solida reputazione come leader mondiale di tecnologia e del mercato nell'industria delle misurazioni e prove. HBM offre prodotti per la catena di misurazione completa, dalle prove virtuali a quelle fisiche. Le sue sedi produttive sono situate in Germania, USA e Cina; HBM è presente in più di 80 Paesi in ogni parte del mondo.

GLI ALTRI TEMI

Andrea Cataldo, docente e ricercatore nel settore delle Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento. Le sue principali attività di ricerca riguardano le misure riflettometriche a microonde, la caratterizzazione dielettrica di materiali, la diagnostica e il monitoraggio qualitativo e la caratterizzazione di sensori e dispositivi.

Giuseppe Cannazza, laureato in Fisica presso l’Università del Salento. Collabora con il laboratorio di Misure e Strumentazione del Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento ed è amministratore delegato della società spin-off MoniTech srl.

Egidio De Benedetto, laureato in Ingegneria dei Materiali, è Dottore di ricerca in Ingegneria dell’Informazione. Collabora con i laboratori di Misure e Strumentazione e di Campi Elettromagnetici del Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento.

Nicola Giaquinto, professore associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica ed Elettronica del Politecnico di Bari. I suoi principali interessi di ricerca riguardano l’elaborazione numerica dei segnali per le misure e la sensoristica, la metrologia della conversione A/D e D/A e le problematiche teoriche relative alla definizione e alla valutazione dell’incertezza di misura.

T_M ƒ 125


N. 02ƒ ; 2012 MODULO ADATTATORE PER NI FLEXRIO® PER LA MISURA DI TEMPO A QUATTRO CANALI Il modulo QT-FLX01 (realizzato dalla QTech srl di Rezzato – BS) è un’unità di di misura di tempo a quattro canali per misure di intervalli di tempo veloci e accurate. Il modulo può essere considerato come un contatore free running a elevata risoluzione: ogni canale di misura è in grado di registrare il tempo di arrivo di fronti di segnali rispetto a un impulso di sincronismo comune. Il modulo presenta una risoluzione di misura di tempo di 13 ps, un’accuratezza single-shot di 8 ps e una frequenza massima di eventi in ngresso di 200 MHz. È possibile combinare questo modulo con un modulo NI FlexRIO FPGA, per creare uno strumento PXI per la misura di tempo, completamente personalizzabile, per un’ampia varietà di applicazioni. Caratteristiche Quattro canali eventi + Canale Sync – Accuratezza Single-Shot: 8 ps, Una Sigma – Risoluzione di misura: 13 ps (LSB) – Intervallo di misura: 0 s to 7 s – Frequenza eventi: 200 MHz, max – Canali d’ingresso single-end e differenziali – Uscita Sync per la sincronizzazione multimodulo. Applicazioni Strumentazione automatica di Test – Strumentazione da banco per la misura di tempo – Radar e Sonar – Spettroscopia di massa, Fisica Nucleare e delle particelle – Misura di distanza con Laser – Misura di flusso a ultrasuoni. Per ulteriori informazioni: www-q-tech.it

NUOVE TERMOCAMERE VELOCI AD ALTA RISOLUZIONE Le nuove PI400 e PI450 ben completano la famiglia OPTRIS di telecamere a infrarossi. Le due nuove versioni sono state introdotte sul mercato in aggiunta alle consolidate PI160 e PI200. Con le dimensioni di soli 56 x 46 x 90 mm3, PI400 è la più piccola termocamera della sua classe, con un peso di soli 320 g, obiettivo incluso! Inoltre, le nuove arrivate offrono un’eccellente sensibilità termica: 80 mK per la PI400 e ben 40 mK per la PI450. Le immagini termografiche a infrarossi e i video possono essere visualizzati e registrati alla massima risoluzione di 382 per 288 pixel a una velocità di misura di ben 80 fotogrammi al secondo. Rispetto alle precedenti termocamere IR, ciò significa che i pixel disponibili sono quattro volte di più per la stessa superficie di analisi. In combinazione con l’obiettivo appropriato (con apertura 30° o 13°), la termocamera permette quindi misurazioni più dettagliate e aumenta il campo delle applicazioni. Questa termocamera robusta (IP67/NEMA4) è ideale per l’uso in applicazioni R&D, nei laboratori o in processi industriali automatizzati. Con la disponibilità di accessori di qualità industriale, come la custodia di raffreddamento con flangia di montaggio per alta temperatura e il cavo USB, la termocamera può essere impiegata anche in condizioni estremamente gravose. Un supporto di montaggio, la custodia protettiva e il connettore angolato sono disponibili come elementi opzionali. Il pacchetto comprende il software Connect che offre funzionalità per l’analisi completa delle immagini termiche, la registrazione dei dati e l’integrazione con processi automatizzati. Il cavo USB può essere esteso fino a 10 km con cavi in fibra ottica. L’interfaccia di processo analogico/digitale (PIF) e il driver open source per l’integrazione di software tramite DLL, ComPort e LabVIEW agevolano l’integrazione nelle reti e processi automatizzati da parte degli integratori di sistema. Per ulteriori informazioni: www.luchsinger.it


GLI ALTRI TEMI

PSICOLOGIA E MISURE Stefano Noventa, Giulio Vidotto

Da Fechner a Luce, la misura in psicologia Parte 1

FROM FECHNER TO LUCE, MEASUREMENT IN PSYCHOLOGY – PART 1 In this first short review, the problem of measurement in psychological and social sciences is presented. Its history is chronicled in broad lines, moving from the beginning of psychophysics, through the criticisms of the Ferguson Committee, to the development of the modern theory of measurement. In a following second review, some aspects of the representational theory of measurement and of the theory of conjoint measurement will be detailed. Some consequences and open problems will also be discussed. RIASSUNTO In questa prima breve rassegna sarà presentato il problema della misura nelle scienze psicologiche e sociali e ne sarà ripercorsa a grandi linee la storia, dalla nascita della psicofisica, attraverso le critiche mosse dal Ferguson Committee, fino alla moderna teoria della misura. In una successiva rassegna saranno approfonditi alcuni aspetti della moderna teoria rappresentazionale della misura, della teoria della misurazione congiunta, e saranno esposte alcune conseguenze e problemi aperti. IL PROBLEMA DELLA MISURA

La difficoltà nel definire un concetto di misurazione nell’ambito delle Scienze Psicologiche e Sociali può essere ricondotta alla natura stessa dei fenomeni in esame. La maggior parte dei costrutti (i.e. delle variabili di natura psicologica) sono grandezze intensive, non direttamente misurabili e, se graduabili, non necessariamente sommabili. Simpatia e bellezza, anche se misurate su una scala opportuna, non sono concatenabili come la massa o la lunghezza, esempi classici di grandezze estensive. È difficile pensare a un’opera d’arte o a una persona due volte e mezzo più bella o simpatica di un’altra. Si pensa spesso che il problema origini dalla natura qualitativa delle variabili osservate, senza la possibilità quindi di una misura quantitativa del fenomeno. In realtà si tratta di una visione impropria: la natura qualitativa di un attributo non esclude a priori la possibilità di misurarlo e un’eventuale impossibilità di misurarlo non esclude comunque l’esistenza di una trattazione matematica (Michell, 1999). Il con-

Tuttavia, basta considerare una grandezza fondamentale come la temperatura, per osservare come questa non rispecchi i criteri per definire una misura numerabilmente additiva. Concatenando un litro d’acqua a venti gradi e un litro d’acqua a trenta gradi otterremo due litri (la massa è una quantità estensiva) ma a una temperatura che non è cinquanta gradi (la temperatura è una quantità intensiva). Un simile discorso vale per le grandezze derivate: concatenando masse e volumi non si ottiene la somma delle densità di partenza. Eppure, le grandezze intensive e le grandezze derivate possono essere misurate, pur violando l’idea di concatenazione così intuitiva e immediata nel caso delle grandezze estensive. Bisogna perciò chiarire cosa s’intende per misura. Nel caso della temperatura, per esempio, il concetto di misurazione non può essere ricondotto al rapporto intuitivo tra una quantità e un’unità di misura, dato che un’unica unità di misura non esiste ma dipende dalla scala considerata. Questo, inoltre, si riflette sulle operazioni definibili su tali scale: nel caso della scala Kelvin, dotata di uno zero assoluto che corrisponde all’assenza del fenomeno, ha senso parlare di una temperatura doppia di un’altra (i.e. di un sistema termodinamico che ha un’energia cinetica media doppia rispetto a un altro), ma nel caso della Celsius è improprio. In entrambi i casi, poi, non ha senso un’operazione di concatenazione, quantomeno non nel senso dell’additività. Eppure alcune regolarità possono essere individuate: ciò che è quantificabile nella scala Celsius non è la temperatu-

cetto di misurazione, anche nelle scienze fisiche, è meno ovvio da formalizzare di quanto possa sembrare pensando al concetto intuitivo di misura. Il caso intuitivo è infatti il caso più semplice: la misurazione di una grandezza estensiva, come la massa, per la quale la concatenazione empirica (aggiunta di diverse masse sul piatto di una bilancia) ha un equivalente matematico nell’operazione di addizione. L’insieme delle masse è, dunque, rappresentabile con l’insieme dei numeri reali positivi e il processo di misurazione corrisponde alla definizione di un rapporto adimensionale tra quantità (la grandezza stessa e un’unità di misura). Viene quindi spontaneo definire, all’interno di una teoria assiomatica, una misura numerabilmente additiva come una funzione definita su una σ-algebra, a valori nei reali positivi, e tale per cui l’insieme vuoto abbia immagine nulla e l’immagine di un’unione di sottoinsiemi sia la somma delle immagini dei sottoinsiemi stessi. In altri termini, esiste un legame Università di Padova, tra la struttura empirica e la struttura Dip. Psicologia Generale stefano.noventa@unipd.it relazionale dei numeri reali.

T_M

N.

2/12 ƒ 127


ra in sé, ma le differenze di temperatura. La relazione diretta tra numeri reali positivi e rapporti delle quantità che caratterizza una grandezza estensiva o una scala come la Kelvin, muta quindi in una relazione tra numeri reali positivi e rapporti tra differenze di quantità, cioè intervalli sull’asse reale. Inoltre, tali rapporti non mutano se si effettua una trasformazione affine dei suoi elementi, come nel passaggio dalla scala Celsius alla Farhenheit. Più in generale, il problema può essere ricondotto alla costruzione e identificazione di scale opportune o, detto in altri termini, a comprendere e testare se le proprietà fondamentali di un fenomeno empirico, anche se di natura qualitativa, siano rappresentabili attraverso strutture relazionali numeriche che consentano la quantificazione del fenomeno in oggetto. E non è detto che la concatenabilità di una grandezza si manifesti in una relazione additiva.

T_M ƒ 128

N. 02ƒ ; 2012

GLI ALTRI TEMI

Il problema di costruire una teoria formale della misura non è quindi affatto banale e ha coinvolto, negli ultimi due secoli, studiosi del calibro di Helmholtz, Holder, Wiener, Russell, Neumann e Campbell (per una rassegna si veda Michell, 1999), attraversando fasi alterne fino a culminare nella costruzione di una teoria della misura assiomatica (Suppes & Zinnes, 1963; Pfanzagl, 1968) e nella conjoint measurement (Luce & Tukey, 1964), e ricevendo, paradossalmente, una spinta fondamentale proprio dalle scienze psicologiche. LA MISURA IN PSICOLOGIA

Le variabili in psicologia sono, nella maggior parte dei casi, astrazioni concettuali la cui definizione può variare da teoria a teoria e, infatti, per quanto si cerchi di ricondurre la

misura di un costrutto a misure di comportamento che ricadano all’interno di specifiche classi (latenza, frequenza, durata e intensità), non è raro il verificarsi del risultato paradossale in cui il disaccordo tra teorie rende problematica la misura stessa. In generale, inoltre, le misure di variabili psicologiche sono affette da errori casuali come quelle fisiche, ma per loro stessa natura non sono affette da errori sistematici, in quanto lo zero assoluto degli strumenti di misura è fissato in modo del tutto arbitrario. Da questo punto di vista le misure in psicologia sono spesso simili alla misura della temperatura in gradi Celsius: data l’esistenza di una relazione di ordine che conserva le distanze relative si può identificare un legame tra i rapporti delle differenze e l’insieme dei numeri reali positivi. Questa tipologia di scala, in teoria della misurazione, è definita scala a intervalli.


N. 02ƒ ;2012

costrutti psicologici dal concetto di misura fisica e aprendo la strada alla Signal Detection Theory. Tuttavia c’era un errore di fondo nell’impostazione fechneriana, che assumeva senza evidenze sperimentali una natura quantitativa delle variabili psicologiche, e tale omissione venne pagata a caro prezzo con le conclusioni del Ferguson Committee, un comitato istituito nel 1932 dalla British Association for the Advancement of Science, al fine di valutare la reale possibilità di misure quantitative degli eventi sensoriali. La commissione, presieduta dal fisico A. Ferguson, stabilì in due report del 1938 e del 1940 come non ci fossero gli estremi per connotare le variabili sensoriali come misurabili fintanto che non si fosse dato un significato al concetto di additività e di unità di misura per le sensazioni (Michell, 1999). La teoria della misura infatti, sviluppatasi in quegli anni ben al di fuori dell’ambito delle scienze psicologiche, pur essendosi discostata dall’iniziale definizione di misura euclidea (ricalcato anche dai lavori di Hölder; Michell and Ernst, 1996) e avendo assunto, grazie a Russell, Nagel e Campbell, una natura rappresentazionale, dove il concetto di misurazione era legato all’esistenza di una rappresentazione numerica del fenomeno empirico e delle sue relazioni, aveva ben presente la necessità di verificare con il metodo sperimentale la natura quantitativa o meno di una specifica grandezza. La psicofisica e i metodi indiretti di Fechner non ricadevano perciò all’interno della teoria della misura, per com’era stata definita da Campbell (per inciso, uno dei membri più importanti e influenti del comitato), focalizzandosi sull’aspetto strumentale più che sull’aspetto scientifico della quantificazione delle variabili (Michell, 1999). Eppure fu proprio tale conclusione a scatenare una progressiva rivoluzione. La prima reazione ai report del comitato fu di Stevens (1946, 1957) che introdusse un radicale cambio di paradigma nelle metodologie di misura in psicologia, introducendo i metodi diretti, cioè una serie di metodolo-

Assumono quindi particolare importanza l’attendibilità, intesa come precisione della misura nel ridurre l’errore casuale, e la validità della misura, intesa come il grado in cui uno strumento misura ciò che in effetti si prefigge di misurare; per esempio discriminando tra costrutti diversi e convergendo sullo stesso costrutto quando si applicano metodi diversi. È evidente come l’attendibilità di una misura sia una condizione necessaria ma non sufficiente alla sua validità. Da un punto di vista storico, nonostante alcuni precedenti tentativi senza successo come quelli di Herbart (Michell, 1999), la nascita della misurazione in psicologia si può collegare alla ricerca empirica di Weber e alla nascita della psicofisica (Fechner, 1860), oggi intesa come lo studio scientifico della relazione tra stimolo e sensazione. In particolare, la psicofisica classica, si occupava dello studio delle soglie assolute e differenziali attraverso l’uso di metodi indiretti nei quali il valore attribuito alla sensazione è “letto” sugli apparecchi che misurano gli stimoli fisici. Tra questi metodi è interessante citare il metodo degli stimoli costanti, precursore della ben nota Probit Analysis di Chester Ittner Bliss (Finney, 1947). Il culmine della psicofisica fechneriana può essere considerato la formalizzazione in una legge logaritmica della relazione esistente tra il continuum psicologico e quello fisico. Anche se la derivazione seguita da Fechner (1860) per ottenere la legge psicofisica a partire dalla relazione empirica di Weber, sarebbe stata in seguito dimostrata da Luce e Edwards (1958) come circoscritta al solo caso logaritmico (corrispondente a una funzione di Weber lineare) l’idea di misurazione in psicologia era ormai stata introdotta, tanto che negli anni successivi, seguendo le orme della Psicofisica, Spearman (1904) gettò le basi per l’Analisi fattoriale e Binet (1905) creò i primi test per l’intelligenza aprendo la strada alla teoria classica dei test (filone più recentemente sfociato nella Item Response Theory), mentre Thurstone (1927) sviluppò il metodo della comparazione a coppie, slegando la misurazione dei

GLI ALTRI TEMI

gie dove i soggetti attribuiscono direttamente un valore numerico alla sensazione percepita. Tali metodi non solo portarono a una diversa formulazione della legge psicofisica (Stevens, 1957), ma anche a una deriva operazionista della definizione di misura. Stevens infatti definì, in modo del tutto empirico, vari tipi di scale (nominale, ordinale, intervalli, rapporti) nelle quali le misurazioni ricadono: a ogni scala corrispondono trasformazioni ammissibili dei dati e specifiche statistiche ammesse dalla natura stessa dei dati. Alla base vi era la visione che la misurazione corrispondesse a un “processo di assegnare numeri secondo una regola” (Stevens, 1946). Se da un lato a Stevens bisogna riconoscere il pregio di aver colto ciò che anche a Campbell era sfuggito, e cioè l’essenza di quel che poi sarebbe diventato il nucleo della teoria assiomatica della misura, dall’altro bisogna riconoscere che la sua definizione operazionista del processo di misurazione contribuì solo ad aumentare la separazione tra scienze quantitative e psicologiche, allontanando dalla mente degli psicologi la necessità scientifica di verificare la natura quantitativa delle loro variabili (Michell, 1999). I semi per la rivoluzione erano però ormai stati gettati e una maggiore formalizzazione delle idee di Stevens, nel contesto di sistemi non empirici ma formali, venne con l’ulteriore sviluppo del metodo di costruzione di scale a intervalli basato sui modelli logistici semplici (Rasch, 1960), la costruzione di una teoria assiomatica della misura (Suppes & Zinnes, 1963; Pfanzagl, 1968; Luce et al., 1990; Luce & Narens, 1994) basata sull’invarianza per trasformazioni ammissibili e sulla significanza delle statistiche, e con lo sviluppo della teoria della misurazione congiunta (Debreau, 1960; Luce & Tukey, 1964) che rivelò l’erroneità dell’assunzione di Campbell secondo la quale la misura nelle scienze psicologiche non era possibile a causa dell’assenza di un’operazione di concatenazione. La misurazione congiunta mostra infatti una via per verificare la presenza di relazioni additive, entro gli attributi,

T_M ƒ 129


attraverso l’esistenza di relazioni additive tra gli attributi stessi e ha una delle sue applicazioni più rappresentative nella “Prospect Theory” (Kahneman & Tversky, 1979). Tali argomenti saranno però affrontati nella seconda parte di questa rassegna. RIFERIMENTI BIBLIOGRAFICI

A. Binet (1905). L’Etude éxperimental de l’intelligence. Paris, Schleicher. G. Debreu (1960). Topological methods in cardinal utility theory. In K. J. Arrow, S. Karlin, & P. P. Suppes (1959, Eds.). Mathematical methods in the social sciences (pp. 1626). Stanford: Stanford Univ. Press. G. Th. Fechner (1860). Elemente der Psychophysik. Breitkopf und Härtel, Leipzig. D.J. Finney (1947). Probit analysis; a statistical treatment of the sigmoid

NEWS

MICROFONI IN PRONTA CONSEGNA CON LA SEMPLICITÀ DELLA TECNOLOGIA ICP ® PCB Piezotronics offre una varietà di prodotti per le misure acustiche, tra cui microfoni ICP® prepolarizzati serie 377 (moderna versione del tradizionale microfono a condensatore esternamente polarizzato), microfoni ad array, microfoni piatti e microfoni per impieghi speciali. La linea dei microfoni è integrata da un assortimento di preamplificatori, condizionatori di segnale, filtro di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB® vengono utilizzati in una varietà d’industrie tra cui: automotive, aerospaziale e difesa, OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc. PCB® è l’inventrice della tecnologia ICP®, parte integrante del progetto dei moderni microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca avanzata per essere sempre all’avanguardia nei progetti acustici.

T_M ƒ 130

N. 02 01ƒ ; 2012

GLI ALTRI TEMI

response curve. Oxford, England: Macmillan. D. Kahneman, A. Tversky (1979). Prospect theory: an analysis of decision under risk. Econometrica, 47, 263–291. R.D. Luce, W. Edwards (1958). The derivation of subjective scales from just noticeable differences, The psychological review, 65(4), 222238. R.D. Luce, J.W. Tukey (1964). Simultaneous conjoint measurement: a new scale type of fundamental measurement. Journal of Mathematical Psychology, 1, 1–27. R.D. Luce, L. Narens (1994). Fifteen problems concerning the representational theory of measurement, in P. Humphries, (ed.), Patrick Suppes: Scientific Philosopher, Vol. 2, Dordrecht: Kluwer, pp.219-49. R.D. Luce, D.H. Krantz, S. Suppes, A. Tversky (1990). Foundations of MeaI microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli esternamente polarizzati, soprattutto nell’ambito delle applicazioni portatili o dell’uso in ambiente esterno (“prove sul campo”) con elevati tassi di umidità. I microfoni di misura PCB sono conformi allo standard di alta qualità IEC 61094-4, quindi in classe 1, e hanno un campo di temperatura esteso fino a 80 °C, con una versione HT fino a 120 °C (Industry exclusive). Il risultato è che la performance è migliorata, la gamma dinamica può rimanere precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è molto basso. Calibratori acustici di precisione portatili: PCB® offre calibratori per microfoni, leggeri, portatili con funzionamento a batteria, che soddisfano gli standard IEC e ANSI. PCB® realizza anche un sistema di taratura acustico allo stato dell’arte. Tutti i rapporti di prova e i certificati di taratura mostrano la risposta in frequenza del microfono alla pressione (con l’utilizzo dell’attuatore) e al campo libero, la sua correzione, le condizioni in cui è stata eseguita la taratura, i relativi fattori di incertezza e le attrezzature utilizzate. La taratura dei microfoni di riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA) sono equivalenti ai certificati ACCREDIA. Per ulteriori informazioni: www.pcbpiezotronics.it

ILAC_MRA è giusto il trattino basso

surement, Vol. 3: Representation, Axiomatization and Invariance. San Diego: Academic Press J. Michell (1999). Measurement in psychology: a critical history of a methodological concept. New York: Cambridge University Press. J. Michell, C. Ernst (1996). The axioms of quantity and the theory of measurement, Part I, An English translations of Hölder (1901), Part I, Journal of Mathematical Psychology, 40,235-252. J. Pfanzagl (1968). Theory of measurement. Wiley, Oxford. G. Rasch (1960). Probabilistic models for some intelligence and attainment tests. Copenhagen: Danish Institute for Educational Research. C. Spearman, (1904). General intelligence, objectively determined and measured. American journal of psychology, 15, 201-293. S.S. Stevens (1946). On the theory of scales of Measurement. Science, 103 (2684): 677–680. S.S. Stevens (1957). On the psychophysical law. Psychological Review, 64, 153-181. P. Suppes, J. Zinnes (1963). Basic measurement theory, in R.D. Luce, R.R. Bush, E. Galanter, (eds.), Handbook of mathematical psychology, Vol. I, New York: wiley, pp. 1-76. L.L. Thurstone (1927). A law of comparative judgement. Psychological Review, 34, 273-286. Stefano Noventa è assegnista di ricerca presso il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova. Si occupa di Psicometria, Psicofisica e Psicologia Matematica. Giulio Vidotto è professore Ordinario di Psicometria presso il Dipartimento di Psicologia Generale dell’Università degli Studi di Padova. Si occupa di Psicometria, Percezione e Psicofisica, Psicologia Matematica, Testing e Psicologia della Salute.

CURRICULUM NOVENTA è brutto, puoi aggiungere qualcosa?


GLI ALTRI TEMI

I LABORATORI DI PROVA Michele Lanna

La valutazione della competenza nei laboratori di prova e taratura Un metodo per valutare la competenza del personale

COMPETENCE EVALUATION IN TEST AND CALIBRATION LABORATORIES Test and calibration laboratories need the presence of personnel with suitable technical competences. To do so, they need to enroll new units with a suitable evaluation program. In addition, training courses have the scope of updating the competences of the enrolled personnel. The article deals with evaluation procedures of competences, to help test and calibration laboratories to operate properly. RIASSUNTO I laboratori di prova e taratura devono essere in grado di approvvigionarsi di personale con competenze adeguate e valutare periodicamente queste competenze, arricchendole con opportuni programmi di formazione. L’articolo riguarda le procedure di valutazione delle competenze per un funzionamento ottimale dei laboratori di prova e taratura. PREMESSA

La UNI CEI EN ISO/IEC 17025:2005 si basa sul concetto di “competenza”, definita come: “Ciò che una persona dimostra di saper fare (anche intellettualmente) in modo efficace, in relazione a un determinato obbiettivo, compito o attività assegnati. Il risultato dimostrabile ed osservabile di questo comportamento competente è la prestazione o la performance”. Basilare per l’applicazione della norma all’interno di un laboratorio è che questo sia dotato di un sistema per assicurarla, in relazione ai compiti e alle responsabilità assegnate agli addetti. Che cosa si intende per competenza nella UNI CEI EN ISO/IEC 17025? Ogni laboratorio di prova o di taratura deve declinare al proprio interno le competenze che, a seconda delle specificità delle prove o tarature da effettuare, delle esigenze normative e delle richieste del Cliente, sono ritenute più consone ad assicurarla. La norma (che per brevità d’ora in poi chiameremo ISO/IEC 17025) richiede una pluralità di competenze, che hanno il loro fulcro nelle risorse umane, chiamate a dover conoscere, applicare e

patrimonializzare sia requisiti tecnici che gestionali, sia requisiti normativi volontari che cogenti, nonché le specifiche dei Clienti. La competenza può essere definita e valutata nelle fasi descritte in Fig. 1, che qui commentiamo. Le azioni da mettere in atto per assicurare le competenze partono dalla definizione dei criteri di reclutamento, condizione indispensabile per disporre di risorse idonee agli obiettivi da raggiungere. Le risorse da reclutare (dall’esterno, attraverso assunzione, o da altre aree dell’organizzazione) devono essere individuate in relazione a un profilo indicato dal responsabile del laboratorio. La verifica della rispondenza o meno delle competenze possedute dal personale da inserire nella posizione costituisce l’attività qualificante per la decisione di scelta della risorsa da acquisire. La seconda fase da assicurare è quella dell’identificazione delle esigenze di competenza, da considerare in funzione di (i) tipologia di prove da effettuare, (ii) caratteristiche del processo di misura (apparecchiature, metodi, condizioni ambientali, materiali, misurando), (iii) obiettivi del laboratorio, (iv) esigenze derivanti dal rispetto di

T_M

Figura 1 – Definizione e valutazione della competenza

normative cogenti e volontarie, (v) esigenze del Cliente, (vi) altre esigenze del laboratorio. Le competenze devono essere definite a tutti i livelli della struttura del laboratorio e individuate con riferimento alle specificità del laboratorio. L’efficace coniugazione dei ruoli assegnati a ognuno con le competenze da assicurare rappresenta la premessa per la messa a punto di un sistema valido e funzionale alle esigenze del laboratorio.

Studio Lanna & Associati, Roma, studio_lanna@libero.it

N.

2/12 ƒ 131


GLI ALTRI TEMI

La mappa delle competenze rappresenta un primo momento di sintesi, riferimento efficace per ogni analisi e valutazione di fattibilità di prove o tarature che fossero richieste. Essa rappresenta altresì un momento per valutare e riesaminare, quando necessario, le abilità del laboratorio in relazione agli obiettivi stabiliti; infine è la premessa per l’attuazione del punto successivo (requisiti minimi di competenza). La definizione dei requisiti minimi di competenza per il corretto svolgimento dei ruoli assegnati trae la sua importanza dalla necessità di dover conoscere esattamente quali debbano essere questi punti di riferimento, garanzia per la corretta gestione del processo di misura. Le competenze minime per svolgere i ruoli assegnati dipendono innanzitutto dal tipo di ruolo da ricoprire nella struttura organizzativa del laboratorio. Possono essere: di base, tecnico professionali, trasversali. Si intendono per competenze di base tutti gli elementi riconosciuti come prerequisiti per svolgere i ruoli assegnati in maniera conforme ai requisiti applicabili. Le competenze tecnico-professionali sono costituite dai saperi e dalle abilità tecniche connesse all’esercizio delle attività operative richieste dal processo di prova (metodi, apparecchiature, materiali, ambiente richiesti per la prova). Le competenze trasversali rappresentano quelle richieste per svolgere un ruolo dal contenuto ampio. Si evidenzia che figure quali il responsabile tecnico o il responsabile qualità richiedono, ad esempio, tra i requisiti minimi, anche competenze

Figura 2 – Esempio di schema della competenza

T_M ƒ 132

statistiche che permettano l’interpretazione dei dati prodotti dal laboratorio (distribuzioni statistiche e loro interpretazioni, competenza nell’applicazione di specifici algoritmi di calcolo, ad esempio per calcolare l’incertezza di misura, piani di campionamento per variabili e/o per attributi, ecc.). Per focalizzare i requisiti minimi partiamo dalla mappa delle competenze definite e prendiamo in esame quelle necessarie per gestire il processo di misura, considerato nelle peculiarità necessarie alla gestione. La corretta rispondenza tra i requisiti posseduti e quelli necessari a gestire le attività assegnate assicura l’ottimale operatività del laboratorio. L’Abilitazione alla prova costituisce l’evidenza della definizione delle esigenze di competenza. Il riconoscimento del corretto svolgimento delle prove (ovvero entro i limiti di prestazione del metodo, ove applicabile) o della validazione, nel caso di metodi non normati (dati statistici entro i limiti prestabiliti dalla norma o dal laboratorio - confronto con esito positivo tra i dati del personale ritenuto storicamente abilitato e quelli generati dall’operatore), rappresentano per gli addetti alle prove l’evidenza dell’abilitazione alla prova. Esempi di parametri sono: dati di precisione, confronti con gli scarti tipo del metodo, accuratezza, esattezza. In linea di massima le figure principali nei confronti delle quali valutare la competenza sono: responsabile legale, responsabile tecnico, responsabile qualità, addetti alle prove o tarature. In Fig. 2 è riportato un possibile schema di requisiti minimi di competenza per i diversi livelli della struttura del laboratorio. Nel caso in cui le competenze possedute dal personale non siano in grado di soddisfare i requisiti minimi di competenza, il laboratorio dovrà attivare un processo di addestramento in grado di conferire al personale, a tutti i livelli, queste competenze. L’adozione di un percorso di addestramento efficace è un aspetto particolarmente significativo per la direzione del laboratorio, che è chiamata a una progettazione attenta degli interventi più consoni all’acquisizione delle compe-

Figura 3 – Schema di addestramento del personale tenze richieste. Le modalità di addestramento possono essere diverse e sono da valutare in relazione alle specificità del laboratorio, della popolazione da coinvolgere, delle esigenze specifiche. In tal senso, gli interventi possono essere effettuati in aula, sul campo o in altra maniera. In Fig. 3 è riportato uno schema di addestramento, nel quale è possibile riconoscere le tipologie di azioni da effettuare: quelle possedute per conoscenza scolare, quelle acquisite attraverso l’esperienza, infine quelle da acquisire attraverso l’addestramento, il tutto in relazione alle esigenze di conoscenza (necessarie per acquisire competenza) richieste dal laboratorio a tutti gli operatori e ai responsabili. LA VALUTAZIONE DELLA COMPETENZA I criteri di valutazione delle competenze devono essere la logica conseguenza di un processo che parte dalla definizione dei ruoli, dei saperi minimi richiesti e infine deve fornire un metodo semplice ed efficace per una misurazione puntuale e facile da applicare. Da quanto detto finora è impensabile applicare un metodo univoco per misurare le competenze a tutti i livelli della struttura di un laboratorio. Bisogna invece adottare metodi diversi di misurazione, in funzione del ruolo assegnato e della sua ampiezza: quanto più questo è ristretto e circoscritto ad attività tecnico-operative, tanto più la misura può essere effettuata attraverso indicatori legati al processo di misura. Viceversa, quanto più il ruolo svolto ha una valenza gestionale, tanto più la competenza deve essere valutata attraverso strumenti in grado di verificare il profilo professionale di ognuno. Definiamo i passi da compiere per la valutazione delle competenze:


N. 02ƒ ;2012 a) Pianificare il processo di misura delle competenze – Pianificare significa considerare la competenza come un elemento valutabile. Deve essere effettuata un’analisi puntuale di tutti gli elementi che concorrono a formare la competenza all’interno del processo di misura. La pianificazione richiede una definizione degli aspetti oggetto della misura a tutti i livelli della struttura di un laboratorio. Ad esempio: il responsabile tecnico di un laboratorio deve saper definire un budget dell’incertezza di misura per la prova o taratura effettuata; gli addetti alle prove devono produrre un errore di misura il più possibile coincidente con l’errore massimo ammissibile dal laboratorio per quella prova (il cosiddetto “the best” del laboratorio). Lo sviluppo di un sistema di misura delle competenze è quindi un obiettivo preliminare a ogni rilevazione e successiva messa a punto di un sistema di valutazione delle competenze. Deve inoltre essere pianificato il sistema di misura dell’efficacia, in relazione alle competenze minime richieste per il ruolo e agli obiettivi di qualità del laboratorio. Le misure predisposte per valutare le competenze saranno riportate nella scheda personale. b) Misurare ciò che è importante – All’interno di ogni laboratorio esistono certamente specificità che concorrono alla creazione di un insieme strutturato di competenze. Esistono però aspetti comuni a tutti i laboratori che concorrono a formare la competenza. Al fine di misurare le competenze, devono essere prese in considerazione le tematiche metrologiche indicate in Fig. 4. Approfondiamo il criterio di valutazione delle competenze. 1. Aspetti generali di metrologia – Le competenze che devono essere possedute sono: sistema di misura e unità base del sistema internazionale; unità derivate, multipli, sottomultipli e fattori di conversione. 2. Sistema di misura e processo di misura: caratteristiche e componenti; tipi di standard di misura; metodi di misura; errori di misura e criteri di individuazione e gestione: casuali e sistematici; condizioni ambientali per le prove.

3. Sistemi di taratura – procedure di taratura e metodi di taratura; condizioni ambientali per le tarature. 4. Statistica per metrologi: distribuzioni statistiche e loro costruzione e interpretazione; statistica descrittiva e suoi principi; strumenti di analisi delle cause dei problemi nel processo di misura; carte di controllo e indici di capacità del processo di misura, campionamento per variabili e attributi. 5. Sistema qualità e standard: procedure di prova e di taratura in relazione alle norme; contenuto dei rapporti di prova e taratura; pianificazione della qualità e fissazione obiettivi; audit del sistema qualità; gestione delle non conformità; azioni correttive e preventive; miglioramento della qualità; valutazione dei fornitori e i rating relativi. 6. Incertezza di misura: determinazione dell’incertezza e reporting; budget dell’incertezza. Non sono state considerate le competenze derivanti dalla conoscenza dei requisiti di legge: per esempio, salute e sicurezza sul lavoro, aspetti ambientali cogenti. Per l’acquisizione della conoscenza e competenza specifiche sono già previsti per legge percorsi formativi e applicativi, nonché criteri per la misurazione delle stesse. Le Autorità competenti esercitano il loro controllo sui singoli aspetti. c) Strutturare un sistema di misura della competenza, flessibile e adattabile a mutati obiettivi e situazioni – Ciò implica pensare a criteri differenti di misura in funzione del ruolo svolto all’interno della struttura del laboratorio. Ad esempio, chi emette giudizi o valutazioni sui risultati di prova deve dimostrare una competenza diversa rispetto a chi esegue le prove/tarature richieste. Più il ruolo svolto è circoscritto a un ambito di competenze ristretto, tanto più sarà facile misurarle. Se, viceversa, il ruolo svolto richiede competenze ampie e diversificate bisognerà predisporre un sistema di misura che fornisca una valutazione su tutti gli aspetti che caratterizzano la competenza. Le valutazioni di tipo binario (“sì-no”) non sempre rispondono a questa esigenza. d) Mettere a punto un sistema di rating delle competenze (es. percentuale di raggiungimento di obiettivi

Figura 4 – Schema delle tematiche metrologiche comuni

stabiliti, valutazione periodica delle competenze attraverso misura del sapere posseduto). Quest’ultima modalità può essere seguita con successo in presenza di cambiamenti significativi del processo di misura (nuove apparecchiature, nuovi metodi di prova o taratura, nuove procedure, ecc.) e può essere applicata con successo a livello di responsabili del laboratorio. e) Legare gli obiettivi del laboratorio a una puntuale misura delle competenze, attraverso l’assegnazione di target specifici. Le valutazioni specifiche della competenza possono essere effettuate, in relazione alle tematiche in precedenza elencate, accentuando in maniera maggiore o minore alcuni aspetti. Ad esempio: il responsabile tecnico del laboratorio è chiamato a una gestione operativa di tutto il processo di prova o taratura e, quindi, la sua competenza dovrà essere valutata su tutto il processo di misura e sulla sua gestione, attraverso la definizione di obiettivi specifici. La misura della competenza sarà fornita dal grado in cui il responsabile tecnico ne assicurerà il raggiungimento. La competenza del responsabile qualità sarà misurata attraverso il grado di conformità del sistema qualità a quanto stabilito (sia da un punto di vista documentale, sia per quanto concerne il processo di prova o di taratura, nonché la capacità di valutare la conformità durante gli audit interni, in relazione a tutti gli aspetti del processo di misura: un esempio per tutti può essere la valutazione della corretta determinazione dell’incertezza di misura). Nella Tab. 1 si riporta un esempio di possibile valutazione delle competenze. Il mantenimento in qualifica assicura che la competenza posseduta è sempre adeguata agli obiettivi stabiliti. Essa deve essere misurata per mezzo di idonei indicatori. In Fig. 5 è rap-

T_M ƒ 133


Tabella 1 – Esempio di valutazione delle competenze

GLI ALTRI TEMI

presentato un esempio non esaustivo, ma solo indicativo, di possibili indicatori. La verifica puntuale del grado di raggiungimento degli obiettivi è effettuata attraverso gli audit interni del sistema di gestione per la qualità del laboratorio. CONCLUSIONI Da quanto detto emergono i seguenti punti qualificanti: 1. La competenza del personale che opera all’interno di un laboratorio si può misurare e valutare; 2. Ogni laboratorio deve identificare il proprio metodo per valutare le competenze del proprio personale. Prendere a prestito schemi predefiniti può essere fuorviante e non rispondere agli obiettivi; 3. La valutazione deve essere continua. A tale scopo deve essere istituzionalizzato un metodo che permetta di valutare, a cadenze prestabilite, tutte le competenze del laboratorio.

Lo Studio Lanna & Associati organizza il seminario: “LA VALUTAZIONE DELLA COMPETENZA NEI LABORATORI DI PROVA E TARATURA” Come trarre valore aggiunto da un accurato sistema di gestione delle competenze per migliorare la competitività aziendale Volete sapere quanto valgono le risorse umane del vostro laboratorio e come trasformarle in uno strumento competitivo? Partecipate al Seminario che si terrà a Torino e Roma nel prossimo autunno (date in fase di definizione)

Figura 5 – Esempio di Indicatori di misura della competenza

Michele Lanna, Consulente senior, opera in molti laboratori di primarie aziende italiane. Ha sviluppato diversi sistemi qualità in accordo alla norma UNI CEI EN ISO/IEC 17025 e ha svolto attività di formazione in campo metrologico. È titolare dello Studio Lanna & Associati di Roma.

T_M ƒ 134

Obiettivi: il seminario offrirà ai partecipanti un metodo di valutazione delle competenze nei laboratori di prova e taratura. Destinatari: Decisori aziendali e Responsabili Tecnici operanti in laboratori privati e pubblici o interni ad aziende manifatturiere. Temi trattati: I criteri di valutazione delle competenze del personale – I metodi adottabili all’interno dei laboratori di prova e taratura – Saranno presentate testimonianze di Laboratori che hanno già adottato un efficace sistema di valutazione delle competenze. Per ricevere senza impegno il programma, scrivete a: info@studiolanna.it La partecipazione al seminario comprende: il materiale didattico presentato, 2 coffe break, colazione di lavoro. Via A. Nibby 3 - 00161 Roma Tel e Fax: 06/44233590 www.studiolanna.it


GLI ALTRI TEMI

ENERGIA E MISURE Attilio Di Nisio, Mario Savino, Maurizio Spadavecchia

Politiche energetiche e sistemi di monitoraggio Seconda parte

ENERGY POLICIES AND MONITORING SYSTEMS The large scale use of monitoring systems allows both an accurate check on the kilowatt hour cost along the day and a more effective reward policy in favour of the users who produce energy in higher demand time slots. Through the widespread adoption of these technologies by consumers and industries, suppliers can provide more efficient and tailor-made services. RIASSUNTO L’utilizzo su larga scala dei sistemi di monitoraggio permette da un lato una politica di controllo più attento del costo del kilowattora durante la giornata, dall’altro una più efficace politica d’incentivazione per gli utenti attivi, favorendo chi produce in fasce orarie di maggior richiesta. Attraverso la capillare penetrazione di queste tecnologie sia nel settore domestico che industriale i gestori possono fornire un serie di servizi moderni e su misura per ogni cliente. SORGENTI IMPREVEDIBILI

Il problema fondamentale dell’energia ottenuta da fonti rinnovabili (solare, eolico, ecc.) è che queste non sono sorgenti prevedibili (sono anche dette “intermittenti”), per cui il gestore della rete riesce con molta difficoltà ad accumulare o smaltire grandi quantità di energia in eccesso, così come non può affidarsi a queste fonti per pianificare i flussi di potenza nelle ore più critiche della giornata. Oggi si punta pertanto a sviluppare tecnologie che consentano di valutare in tempo praticamente reale le fonti energetiche attive in una data area e in certe condizioni ambientali (per esempio, in una giornata assolata) e di determinarne il costo. In questo modo si consentirebbe, ad esempio, a grandi complessi industriali di organizzare in modo ottimale ed economico i propri processi gestendo l’accensione o lo spegnimento di attrezzature a elevato consumo. Inoltre l’accesso a una quantità di dati di esercizio ben maggiore rispetto al passato permette di attuare realmente tecniche di manutenzione preventiva, nonché di gestire meglio i flussi di potenza in modo da ridurre il rischio di collasso della rete ed il conseguente blackout. I sistemi di supervisione e controllo

possono quindi essere considerati uno dei “mattoni fondamentali” delle grandi stazioni di generazione elettrica, sia tradizionali sia rinnovabili, perché sono uno strumento a supporto del processo decisionale nella gestione delle risorse energetiche. SUPERVISIONE DI IMPIANTI SOLARI

Poiché un impianto fotovoltaico rappresenta un investimento (spesso ingente) con un ritorno nel medio-lungo periodo, è indispensabile tenere sempre sotto controllo le sue prestazioni. Tuttavia, l’alto costo globale degli impianti spinge spesso gli investitori a risparmiare proprio sul sistema di monitoraggio, che è ritenuto nella maggior parte dei casi “opzionale”. La norma CEI 82-25, nell’ottica di rendere il “proprietario” dell’impianto fotovoltaico informato e cosciente, al par. 8.3 raccomanda: “È opportuno che un impianto fotovoltaico o ciascuna sua sezione sia dotato di un sistema di misura dell’energia prodotta (cumulata). A tal fine, potrebbero essere utilizzate le misure effettuate direttamente dagli inverter. Tuttavia poiché tali misure sono effettuate dagli inverter con il solo scopo di gestire il proprio funzionamento, esse potrebbero essere affette da un’incer-

T_M

tezza anche superiore al 5%. Pertanto, il progettista dovrà valutare l’opportunità di utilizzare tali misure”. Ovviamente, quando si progetta un sistema di monitoraggio occorre valutarne attentamente le finalità, poiché la complessità e il costo dipendono dal numero di grandezze da tenere sotto controllo e dall’accuratezza di misura. Per l’investitore può essere di notevole interesse valutare lo scostamento tra l’uscita teorica attesa e la produzione reale, in modo da identificare possibili condizioni di malfunzionamento e porre in atto le corrispondenti misure di manutenzione. Nei casi più complessi, quando si caratterizzano nuove tecnologie o si sperimentano impianti “pilota”, oltre alla misura delle grandezze elettriche in uscita (tensioni, correnti) occorre determinare anche temperatura, irraggiamento, umidità, velocità del vento, ecc. La comunità tecnico-scientifica ha sviluppato diverse esperienze relative allo sviluppo di piattaforme interattive e di cloud computing in grado di gestire campi fotovoltaici e/o wind farm decentralizzati monitorando non solo quantità e qualità dell’energia prodotta, ma anche lo stato di funzionamento dei singoli componenti, con la possibilità di analizzare ed elaborare dati sia real-time sia storici o ancora post-evento (nel caso di guasti o eventi metereologici severi). ARCHITETTURE CHIUSE O APERTE

L’architettura base dei sistemi di monitoraggio commerciali prevede l’uso di datalogger le cui prestazioni, in termini di velocità di comunicazione con i sistemi di elaborazione, dipendono dalla particolare interfaccia utilizzata (RSPolitecnico di Bari, Prima Facoltà di Ingegneria m.savino@poliba.it

N.

2/12 ƒ 135


485, USB, Ethernet, Wi-Fi, GSM ecc.). Generalmente la strategia commerciale dei grandi produttori di sistemi fotovoltaici consiste nel vendere soluzioni chiavi in mano comprensive del monitoraggio remoto, della gestione degli allarmi e dell’archiviazione/pubblicazione dei dati; i vari componenti però sono “chiusi” ovvero un utente non può accedere ai dati grezzi o utilizzare componenti di altri produttori. Questo condiziona i progettisti a fornirsi da un unico interlocutore per tutti i componenti necessari. Inoltre software e firmware di gestione sono di tipo proprietario: non è quindi possibile modificare né l’interfaccia utente né gli algoritmi utilizzati per le varie stime. In tal modo diventa difficile seguire rapidamente e senza costi di upgrade l’evoluzione normativa e tecnica del settore o correggere eventuali bug. Il fattore chiave con il quale i piccoli produttori invece cercano di ritagliarsi fette di mercato è l’interoperabilità, commercializzando sistemi “aperti” che danno la possibilità agli utenti di

NEWS

KISTLER VA OLTRE I LIMITI: SENSORI AD ALTA TECNOLOGIA PER APPLICAZIONI HEAVY-DUTY I sensori e i sistemi della Kistler sono in grado di offrire impressionanti prestazioni negli ambiti applicativi in cui le soluzioni proposte da altri fornitori mostrano chiari limiti. Con il suo motto “Kistler va oltre i limiti” la multinazionale svizzera enfatizza una propria caratteristica peculiare: quella di poter offrire nel suo catalogo sensori di pressione, forza, coppia e accelerazione. Elevate sensibilità, estremi intervalli di misura, eccezionali temperature di funzionamento e particolare flessibilità a livello applicativo rappresentano gli esclusivi vantaggi offerti dai sensori Kistler nelle ap-

T_M ƒ 136

N. 02ƒ ; 2012

GLI ALTRI TEMI

abbassare i costi cercando componenti con il miglior rapporto qualità/prezzo. Senza ombra di dubbio l’approccio più generale e flessibile, nonché più diffuso in ambito scientifico, si basa sull’utilizzo di schede di acquisizione (DAQ) che implementano il paradigma degli “strumenti sintetici”, ovvero sistemi hardware modulari e riconfigurabili. L’utilizzo combinato con ambienti di sviluppo open source consente di creare interfacce utente ad hoc e implementare gli algoritmi di elaborazione dati, tra cui quelli per il calcolo degli indici di power quality. Nel caso di più impianti fotovoltaici distribuiti sul territorio, i dati acquisiti nei punti di sensing sono inviati a un Data Base (DB) centralizzato. Questo tipo di architettura permette di valutare in ogni momento l’efficienza e l’affidabilità degli impianti raccogliendo dati sia ambientali sia relativi alla produzione. Con riferimento a sistemi di monitoraggio su Internet, è utile distinguere tre funzionalità principali implementate, a titolo di esempio, da altrettanti software open

source: immagazzinamento dei dati in un data base MySQL; elaborazione, utilizzando il linguaggio PHP, che consente di sviluppare applicazioni lato server e di creare pagine web dinamiche; presentazione dei dati attraverso un web server http, come Apache, agli utenti autorizzati, che possono visualizzarli utilizzando un comune browser. Questa architettura consente quindi a un utente di consultare una grande quantità di dati storici utilizzando un DB in modo trasparente senza conoscerne effettivamente la struttura. Affinché la gestione dei dati non sia oggetto di pratiche commerciali scorrette è opportuno che le procedure di monitoraggio on-line siano protette da opportuni sistemi di sicurezza informatici, tra cui la crittografia e la definizione di livelli d’accesso distinti tra utenti ed amministratori.

plicazioni industriali e di laboratorio. I sensori e gli elementi di misurazione Kistler spesso superano i sensori tradizionali, in vari ambiti: i sensori di pressione, ad esempio, possono operare in presenza di temperature di esercizio estreme, di eccezionali frequenze naturali e sensibilità particolarmente elevate; i sensori di forza coprono una gamma straordinariamente ampia di campi di misura, dai sensori di forza in miniatura con 0 ... 200 N fino ai sensori di calibrazione pressione e forza 0 ... 20 MN. Dinamometri compatti di svariate dimensioni misurano le diverse componenti delle forze. I sensori di coppia modulari KiTorq, con unità separate di misura e di

valutazione della coppia, offrono la massima precisione di misura fino a 3.000 N⋅m. I sensori di accelerazione piezoelettrici o capacitivi della Kistler, estremamente leggeri ma robusti, operano in una gamma di alte frequenze, con elevata sensibilità e massima dinamica.

CONOSCENZA = RISPARMIO

La filosofia della eco-sostenibilità tipica

Per ulteriori informazioni: www.kistler.com


N. 02ƒ ;2012 implementati su larga scala e a livello di singola utenza servizi quali la memorizzazione storica dell’assorbimento di ogni apparato e l’ottimizzazione dinamica dei consumi. In un periodo di crisi economica la corsa al fotovoltaico si sta arrestando anche in funzione della forte riduzione in Italia degli incentivi alla produzione che si attua con i recenti (e il prossimo) Conto Energia. Il mercato dei nuovi impianti è praticamente fermo e il nuovo business, in cui progettisti e installatori hanno possibilità di inserirsi, è proprio quello della manutenzione e del monitoraggio, dando lustro a un settore fino a oggi trascurato. L’aggiornamento delle infrastrutture di supporto e di monitoraggio rappresentano quindi due tasselli fondamentali verso una rete elettrica intelligente dove consumatori e produttori di energia potranno usufruire di servizi innovativi finalizzati a migliorare l’efficienza energetica e a salvaguardare l’ambiente. La Rete sta evolvendo verso la creazione di isole energetiche omogenee che permetteranno di bilanciare dinamicamente il rapporto tra domanda e offerta, facendo eventualmente ricorso anche a tecniche di accumulo locale in batterie ad alta capacità (tra cui quelle delle autovetture elettriche). Lo sviluppo di tecnologie nuove e più performanti richiede sforzi di ricerca in diverse discipline, tra cui il monitoraggio e la misura delle grandezze di interesse, indispensabile affinché il settore della produzione di energia da fonti rinnovabili resti competitivo. Tutto ciò richiede grandi investimenti nel medio e lungo periodo, ma può diventare una importante possibilità di lavoro per i giovani laureati in ingegneria. Nuove prospettive si aprono estendendo la filosofia dell’open source dal software all’hardware. Strumentazione di misura basata su hardware open source (OSHW) può essere vantaggiosa in termini di costi, di documentazione e, soprattutto, di una community che sviluppa il prodotto contiUNO SGUARDO nuamente. Ad esempio, l’uso della famosa piattaforma Arduino per la AL FUTURO SOSTENIBILE realizzazione di un contatore di enerPossiamo quindi ipotizzare un futuro, gia OSHW costituisce un modello abbastanza prossimo, in cui saranno interessante che coinvolge in questo

delle fonti rinnovabili sta portando all’affermazione di un principio fondamentale, ovvero quello della condivisione delle informazioni energetiche; si diffonde sempre più l’uso di sistemi basati su display domestici, pagine web o applicazioni per smartphone, che consentono agli utenti o alla comunità di conoscere i propri dati energetici. Questa politica di condivisione dell’informazione porta l’utente comune alla consapevolezza del proprio fabbisogno energetico, e fornisce slancio al mondo scientifico per lo sviluppo di nuovi algoritmi e procedure per la gestione delle reti di distribuzione. Nel febbraio 2009 Google lanciò un progetto chiamato Google Power Meter con lo slogan Track your energy Use less Save energy and money. Esso consisteva in un tool gratuito che permetteva ai singoli utenti di registrare il loro consumo energetico giornaliero e di stimare il consumo energetico medio annuo utilizzando un particolare contatore fornito dalla Società elettrica americana. L’obiettivo era di rendere disponibile un mezzo che consentisse di diventare consapevoli dei propri consumi e di ridurli cambiando il proprio stile di vita, in modo da contribuire attivamente a un futuro più sostenibile. Inoltre gli utenti entravano a far parte di una community in cui ciascuno poteva condividere le proprie esperienze in materia di risparmio energetico. Uno studio del Center Point Energy Inc. del Department of Energy ha rilevato che il 71% degli utilizzatori del servizio ha cambiato il proprio profilo di consumo a seguito dell’accesso chiaro ai dati energetici attraverso display domestici mentre i primi risultati di un programma pilota tra IBM e la municipalità di Dubuque (Iowa) ha indicato un risparmio energetico fino all’11% tra i propri residenti. Pur essendo conclusa l’esperienza di Google nel settembre del 2011, questa ha di certo segnato una strada che in qualche modo può essere ancora battuta e sviluppata anche nel settore della produzione.

GLI ALTRI TEMI

campo di ricerca scienziati e, soprattutto, giovani ricercatori. Tuttavia l’aspetto principale da considerare è che lo sviluppo di un’architettura aperta e facilmente accessibile da diverse piattaforme permetterà a tutti di essere consci dei propri consumi o della propria produzione, portando a un maggior rispetto per l’ambiente. Le uniche speranze per un futuro ecosostenibile sono il ricorso alle fonti di energia rinnovabile e il libero accesso alle informazioni. Occorre sviluppare una coscienza e una cultura collettiva con l’obiettivo e la convinzione che la Natura continuerà a nutrire i suoi figli come ha sempre fatto sin dagli albori della specie umana. Attilio Di Nisio è titolare di una borsa di studio post-dottorato presso il Politecnico di Bari. I suoi interessi di ricerca includono: caratterizzazione di convertitori A/D e D/A; elaborazione e riconoscimento di immagini; teoria della stima; sistemi per le misure di power quality basati su DSP; test e modellizzazione di pannelli fotovoltaici. Mario Savino è professore Ordinario di Misure Elettriche ed Elettroniche presso la Prima Facoltà di Ingegneria del Politecnico di Bari. Si occupa di misure elettriche, strumentazione elettronica biomedicale, sensori e trasduttori. È Honorary Chairman del Comitato Tecnico TC-4 “Measurement of Electrical Quantities” della Confederazione Internazionale delle Misure (IMEKO). Maurizio Spadavecchia è Dottore di Ricerca presso il Dip. di Elettrotecnica ed Elettronica del Politecnico di Bari. Si occupa di: test modellizzazione di pannelli fotovoltaici, sistemi di misura per power quality, Smart metering, caratterizzazione di sensori per monitoraggio ambientale.

T_M ƒ 137


CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

LA COMPATIBILITÀ ELETTROMAGNETICA Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3

Strumentazione di base nelle misure di Compatibilità Elettromagnetica Il Ricevitore EMI di radiodisturbi - prima parte

THE EMI RECEIVER The standard electromagnetic radio frequency interference receiver (EMI receiver) is a fundamental tool for the measurement of all the quantities of interest in electromagnetic compatibility (EMC). In this paper we start to analyze the elements of the EMI receiver, focusing on the main differences from the well-known spectrum analyzer; then we describe the detection circuit with particular attention to the value presented on the display when a continuous sinusoidal signal or an impulsive signal (wide band, repetitive or non-repetitive, coherent or non coherent) is applied to the input of the EMI receiver. RIASSUNTO Il ricevitore standard di radio disturbi (EMI receiver) è uno strumento fondamentale nella misurazione di tutte le grandezze d’interesse della compatibilità elettromagnetica (CEM). In questo articolo analizzeremo inizialmente gli elementi costitutivi del ricevitore EMI soffermandoci sulle principali differenze rispetto al più noto analizzatore di spettro, per poi passare alla descrizione del circuito di rivelazione con particolare attenzione al valore presentato a video nel caso in cui venga applicato all’ingresso del ricevitore un disturbo sinusoidale permanente oppure un disturbo impulsivo (a banda larga, ripetitivo o non ripetitivo, coerente o incoerente). INTRODUZIONE

Come ricordato nel numero 4/2011 di Tutto_Misure, qualsiasi dispositivo elettrico ed elettronico per essere immesso sul mercato deve essere sottoposto a specifiche prove che, nell’ambito della compatibilità elettromagnetica, ne garantiscono la presunzione di conformità ai requisiti della direttiva europea 2004/108/CE [1]. In particolare, per quanto riguarda le prove di emissione condotta e quelle di emissione radiata, lo spettro elettromagnetico emesso dal dispositivo sotto test (DUT) deve risultare contenuto entro precisi limiti stabiliti dalla normativa. A differenza di quanto avviene in ambito militare [2] dove i limiti sono espressi come limiti di picco e dove viene quindi usato l’analizzatore di spettro per confrontarsi con la normativa, in ambito civile, essendo i limiti espressi come limiti di quasi picco e di valor medio per frequenze fino a 30 MHz e come limiti di quasi picco per frequenze da 30 MHz fino a 1 GHz

T_M

N.

(Fig. 1), si rende necessario l’impiego di uno strumento indicatore capace di confrontare il livello di emissione generato dal DUT con i limiti stessi: questo strumento è il ricevitore EMI di radiodisturbi. È opportuno osservare che in ambito civile i limiti dipendono oltre che dalla tipologia di prodotto anche dall’ambiente nel quale ne è previsto l’impiego (Classe A oppure Classe B) [3, 4].

impiegato l’analizzatore di spettro. La più importante differenza tra i due misuratori è caratterizzata dalla sezione d’ingresso (vedi seguito) e dal rivelatore: “di quasi picco” per il ricevitore EMI e “di picco” per l’analizzatore di spettro. Gli elementi costitutivi del ricevitore EMI [5] sono quelli rappresentati in Fig. 2 dove sono stati evidenziati i blocchi non presenti in un analizzatore di spettro, ovvero il filtro preselettore, il preamplificatore a basso rumore d’ingresso e il rivelatore di quasi picco. Si tratta essenzialmente di un ricevitore supereterodina che realizza una traslazione dello spettro del segnale d’ingresso nell’intorno della frequenza intermedia (IF) attraverso l’impiego di un oscillatore locale (LO) e di un dispositivo non lineare (mixer), una successiva amplificazione e filtraggio alla frequenza intermedia (IF) e, infine, la rivelazione di quasi picco con la successiva presentazione del risultato a video oppure in cuffia. Per evitare la saturazione degli stadi più sensibili del ricevitore (i.e. preamplificatore a basso rumore e mixer), il

IL RICEVITORE EMI Figura 1 – Limiti di emissione condotta e radiata stabiliti Le prove di emissione dal CISPR e dallo FCC per la Classe A e per la Classe B sono misure indirette. La quantità rivelata è la tensione che viene misurata utiliz- 1 Dip. Elettronica e Telecomunicazioni zando un misuratore (voltmetro) scalaUniversità di Firenze re selettivo in frequenza. Nella 2 Ricerca e Sviluppo, Esaote SpA, gamma di frequenze da 9 kHz a 1.000 MHz il misuratore standard è il Firenze 3 Elettroingegneria, Pistoia ricevitore EMI, mentre nell’intervallo sopra a 1 GHz, come detto, viene marco.cati@esaote.com

2/12 ƒ 138


N. 02ƒ ;2012

Figura 2 – Schema a blocchi di un ricevitore EMI

segnale in ingresso può essere vantaggiosamente attenuato da un attenuatore di tipo resistivo, a scatti e a larga banda. Per contro, dovendo misurare segnali di debole intensità in presenza di segnali più intensi1, l’impiego dell’attenuatore d’ingresso riduce la sensibilità del ricevitore in quanto i segnali deboli vengono attenuati a un livello inferiore al livello di rumore del ricevitore rendendoli, di fatto, non rivelabili. Per ovviare a questa situazione è previsto l’impiego di un filtro preselettore composto da un insieme di filtri passa-banda manualmente selezionabili ciascuno di essi con una differente frequenza centrale che, assieme all’uso combinato dell’attenuatore d’ingresso e al preamplificatore a basso rumore, permette facilmente di ottenere una gamma dinamica istantanea2 libera da spurie di oltre 60 dB e di ottenere comunque misure affidabili anche quando la differenza di ampiezza tra il segnale più intenso e quello meno intenso in ingresso al ricevitore è dell’ordine di 100 dB. Nei moderni ricevitori EMI il filtro preselettore può anche essere automaticamente agganciato alla frequenza di sintonia del ricevitore evitando quindi complesse operazioni di sintonia manuale. Nel seguito, dopo aver elencato le principali caratteristiche metrologiche dei ricevitori EMI, ci soffermeremo sul quello che può essere considerato l’elemento fondamentale di qualsiasi ricevitore: il circuito di rivelazione di quasi picco.

LE PRINCIPALI CARATTERISTICHE METROLOGICHE

Le caratteristiche metrologiche in termini di accuratezza e valori attesi dei ricevitori EMI sono riportate in [6] al quale si rimanda per un maggiore dettaglio. Di seguito si forniscono le principali. Il circuito d’ingresso, del tipo sbilanciato, presenta un’impedenza nominale di 50 Ω. Il rapporto d’onda stazionaria (ROS) non deve essere più grande di 2,0 a 1 quando l’attenuatore d’ingresso è impostato a 0 dB e non deve eccedere 1,2 a 1 quando l’attenuazione è impostata a 10 dB o superiore. L’accuratezza a uno stimolo sinusoidale deve essere compresa in ±2 dB e, analogamente, quella a uno impulsivo deve essere compresa tra ±1 dB e ±2 dB a seconda della frequenza di ripetizione dell’impulso (più bassa è la frequenza di ripetizione più alta è la tolleranza ammessa). Altre caratteristiche metrologiche sono la curva di selettività3, il rapporto di reiezione alla frequenza intermedia4, il rapporto di reiezione dalla frequenza immagine5, la risposta alle spurie, ecc. IL CIRCUITO DI RIVELAZIONE DI QUASI PICCO

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

re in generale cos’è un circuito di rivelazione e, successivamente, elencare le tipologie principali di circuiti disponibili. Il circuito di rivelazione è di fatto un circuito di pesatura. Sono standardizzate quattro differenti tipologie di rivelatori che possono anche essere ospitati tutti in uno stesso ricevitore EMI: picco (peak), valor medio (average), valore efficace-valor medio (RMS-average) e quasi picco (quasi-peak). Il rivelatore di picco e di valor medio sono progettati per indicare rispettivamente il picco e il valor medio dell’inviluppo della tensione presente al proprio ingresso. Il rivelatore di valore efficace-valor medio si comporta in due modi differenti: nel caso di frequenze di ripetizione inferiori a una specifica frequenza d’angolo fornisce un’indicazione di valore medio della tensione presente al proprio ingresso mentre, nel caso di frequenze di ripetizione superiori alla frequenza d’angolo, fornisce una indicazione di valore efficace6. Il rivelatore di quasi picco, infine, si propone lo scopo di quantificare l’effetto medio del fastidio percepito da un ipotetico utente dovuto alla ricezione di un disturbo radio. In particolare, come sarà chiarito nel seguito, l’indicazione del rivelatore di quasi picco aumenta secondo una specifica legge, quando sia la frequenza di ripetizione del disturbo sia la sua intensità aumentano. Nel seguito verrà posta attenzione essenzialmente sul rivelatore di quasi picco soffermandosi sul valore presentato a video nel caso in cui venga applicato all’ingresso del ricevitore un disturbo sinusoidale permanente oppure un disturbo impulsivo a banda larga, ripetitivo o non ripetitivo, coerente o non coerente. RISPOSTA DEL RIVELATORE AI SEGNALI SINUSOIDALI

Lo schema elettrico del circuito di rivePer capire cosa s’intende per circui- lazione è riportato in Fig. 3. RC rapto di rivelazione di quasi picco è presenta la somma della resistenza di opportuno innanzi tutto comprende- uscita dell’amplificatore a frequenza

T_M ƒ 139


N. 02ƒ ; 2012

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

Figura 3 – Il circuito di rivelazione

intermedia IF, rs, e della resistenza di conduzione del diodo D, RD è la resistenza attraverso la quale il condensatore C si scarica, V è la tensione all’ingresso del rivelatore, Vd è la tensione all’uscita. Il funzionamento del circuiti di Fig. 3 dipende essenzialmente dalle costanti di tempo di carica e di scarica della capacità C. La costante di tempo di carica, TC, è definita come il tempo necessario, dopo l’applicazione di un segnale sinusoidale di ampiezza costante V all’ingresso del rivelatore, per ottenere una tensione in uscita V d pari al 63% del suo valore finale V qp . La costante di tempo di scarica, T D , è definita come il tempo necessario, dopo aver rimosso istantaneamente la tensione d’ingresso, affinché la tensio-

ne di uscita decada al 37% del suo valore iniziale. Una rappresentazione schematica delle costanti di tempo è riportata in Fig. 4. Dalla teoria delle reti elettriche risulta T D=R D⋅C e, nel caso di tensione d’ingresso a gradino, si ha TC=RC⋅C mentre, nel caso di tensione d’ingresso sinusoidale, risulta TC=h⋅RC⋅C con h>1. Il valore dello stato stazionario Vqp in Fig. 4 rappresenta la risposta di quasi picco a un disturbo sinusoidale. È opportuno osservare che Vqp è sempre inferiore all’ampiezza V della tensione sinusoidale, cioè risulta: V qp =k s ⋅ V con ks<1. È possibile dimostrare [5] che il valore dei coefficienti h e k s dipendono dal rapporto

Figura 4 – Costanti di tempo di carica e di scarica per il circuito di Fig. 3 per un segnale d’ingresso sinusoidale

T_M ƒ 140

Figura 5 – Coefficiente h per il calcolo della costante di carica TC del rivelatore con segnale sinusoidale

tra delle costanti di tempo TD e TC secondo quanto riportato in Fig. 5 e Fig. 6. Le costanti di tempo del ricevitore EMI con rivelazione di quasi picco sono standardizzate [6] e riportate in Tab. 1 dove è stata riportata anche la banda di risoluzione a -6 dB del filtro a frequenza intermedia. Come si può osservare dalla Tab. 1, il valore del parametro k s risulta praticamente uno (da cui il nome quasi picco) eccetto nella banda di frequenza compresa tra 9 kHz e 150 kHz dove assume il valore di 0,81.

Figura 6 – Coefficiente ks per il calcolo dell’uscita del rivelatore con segnale sinusoidale


N. 02ƒ ;2012

ferenti valori della frequenza di angolo: 25 Hz per frequenze comprese tra 9 kHz e 150 kHz e 1 kHz per frequenze superiori.

Tabella 1 – Parametri elettrici fondamentali del rivelatore di quasi picco

CONTINUA…

Measuring apparatus, Ed. 2010.

Nel prossimo numero il rivelatore verrà analizzato in risposta agli impulsi. NOTE 1

RIFERIMENTI BIBLIOGRAFICI

1. Direttiva 2004/108/CE del Parlamento Europeo e del Consiglio, 15 dicembre 2004, concernente il ravvicinamento delle legislazioni degli Stati membri relative alla compatibilità elettromagnetica e che abroga la direttiva 89/336/CEE. 2. MIL-STD-461E, “Requirements for the Control of Electromagnetic Interference Characteristics of Subsistems and Equipment”, Department of Defense Interface Standard. 3. EN 55011 “Limiti e metodi di misura dellecaratteristiche di radiodisturbo degli apparecchi industriali, scientifici e medicali (ISM)”. 4. EN 55022 “Limiti e metodi di misura delle caratteristiche di radiodisturbo prodotto dagli apparecchi per la tecnologia dell’informazione”. 5. Ermanno Nano, “Compatibilità elettromagnetica (radiodisturbi)” (Lezioni e seminari), Bollati Boringhieri, 1979. 6.CISPR 16-1-1, Specification for radio disturbance and immunity measuring apparatus and methods Part 11: Radio disturbance and immunity measuring apparatus -

CAMPI E COMPATIBILITÀ ELETTROMAGNETICA

Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994 presso l’Università di Firenze. Dal 2000 è Dottore di Ricerca in “Telematica”. Dal 2001 è ricercatore presso il Dipartimento di Elettronica e Telecomunicazioni dell’Università di Firenze dove è docente di Misure Elettroniche e di Compatibilità 3.0, Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente del SC 210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI.

Si tratta per esempio del caso in cui si voglia misurare il disturbo generato da un trasmettitore intenzionale. In questo caso il segnale a bassa intensità (disturbo) e quello intenso (portante) sono simultaneamente presenti all’ingresso del ricevitore. 2 Per gamma dinamica istantanea si intende il rapporto, espresso in decibel, tra il valore più intenso (che non genera distorsione) e quello più debole simultaneamente presenti all’ingresso del ricevitore. 3 Per curva di selettività si intende la variazione con la frequenza dell’ampiezza di un segnale sinusoidale applicato all’ingresso che produce una indicazione costante della misura del ricevitore. 4 Rapporto, espresso in decibel, tra l’ampiezza di un segnale sinusoidale alla frequenza intermedia applicato all’ingresso e l’ampiezza del segnale alla frequenza di sintonia che produce la stessa indicazione. 5 Rapporto, espresso in decibel, tra l’ampiezza di un segnale sinusoidale alla frequenza immagine applicato all’ingresso e l’ampiezza del segnale alla frequenza di sintonia che produce la stessa indicazione. 6 A seconda della frequenza di sintonia del ricevitore, sono specificati dif-

Marco Cati si è laureato con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2005 è Dottore di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica. Dal 2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di Compatibilità Elettromagnetica su dispositivi ecografici. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. Svolge attività di consulente nel campo della compatibilità elettromagnetica e della sicurezza elettrica. Carlo Panconi si è laureato nel 2003 in Ingegneria Elettronica all’Università di Firenze È Dottore di Ricerca in “Controlli non distruttivi”. Dal 1988 è insegnante di Laboratorio di Elettrotecnica e di Elettronica nel triennio degli Istituti Tecnici e Professionali. Come libero professionista svolge attività di consulenza nel campo della compatibilità elettromagnetica e della sicurezza elettrica.

T_M ƒ 141


I SERIALI MISURE E FIDATEZZA

MISURE E FIDATEZZA Marcantonio Catelani 1, Loredana Cristaldi 2, Massimo Lazzaroni 3

Misurare l’affidabilità L’importanza di conoscere il processo di degradazione

MEASURING DEPENDABILITY The knowledge of the degradation process for components or materials allows to obtain information on the time-to-failure or the failure rate. Based on such information a review of the production process can be made. RIASSUNTO La conoscenza del processo di degradazione di un componente o di un materiale consente di avere informazioni sul tempo al guasto o sul valore del tasso di guasto. L’informazione è utile per apportare eventuali correttivi al processo di produzione di un componente o per modificare le caratteristiche di un materiale. INTRODUZIONE

In un precedente lavoro [1] si è mostrato come sia importante conoscere il legame esistente tra la sollecitazione applicata esternamente a un componente e il comportamento intrinseco del materiale con il quale il componente è realizzato. L’applicazione di una sollecitazione, sia essa temperatura, umidità, salinità, vibrazione o grandezza elettrica, attiva un processo chimico-fisico (a volte anche di altra natura) che porta al degrado delle prestazioni e quindi alla condizione di guasto. Tale processo è noto come meccanismo di guasto. I modelli matematici che regolano tali meccanismi sono molteplici e complessi e possono variare da componente a componente e da materiale a materiale. Tra questi il modello di Arrhenius riveste particolare interesse applicativo in diversi contesti tecnologici tra cui l’ambito elettrico, elettromeccanico ed elettronico. Nella sua formulazione più semplice, come vedremo, è possibile stabilire una relazione tra la velocità della reazione chimica che può avvenire all’interno di un dispositivo e la temperatura. Modelli più complessi, quali Eyring, Peck e altri [2], considerano anche la concomitanza di più sollecitazioni, ma non saranno oggetto della trattazione.

T_M

N.

La conoscenza del modello di Arrhenius è di fondamentale importanza per determinare, dal punto di vista sperimentale, il tempo al guasto e il tasso di guasto. Tale modello costituisce, come vedremo in un lavoro di prossima pubblicazione, una delle ipotesi assunte nelle banche dati per predire il comportamento affidabilistico in ambito elettronico. L’APPROCCIO PREVISIONALE

scere il fenomeno di degrado e di estrapolare il comportamento del componente nelle normali condizioni d’impiego, noto il comportamento in condizioni di stress a cui è stato sottoposto con la prova di laboratorio. Uno dei fattori d’influenza i cui effetti riguardano materiali, dispositivi e processi è la temperatura. Dal momento che molti processi (reazioni chimiche, diffusione di gas, ecc.) subiscono accelerazioni all’aumentare della temperatura, è possibile definire, per questo tipo di sollecitazione, una sorta di modello di validità generale. Tale modello è noto come modello di Arrhenius [6, 7]: R = H ⋅ eEa

KT

(1)

dove si è indicato con R la velocità di attivazione, H la costante tipica del processo, k la costante di Boltzmann pari a 8,623 × 10-5 eV/K, Ea l’energia di attivazione del processo di degradazione espressa in eV e con T la temperatura in kelvin. Questo modello è spesso utilizzato per predire la vita di un componente in funzione della temperature di lavoro. Il modello, in un’altra sua forma, stabilisce che:

La conoscenza del processo di degrado e la classificazione dei guasti portano alla definizione di modelli affidabilistici per il dispositivo e alla valutazione del tasso di guasto in funzione sia dei fattori d’influenza (le sollecitazioni) che delle caratteristiche tecnologiche [35]. Tuttavia, in determinati contesti tecnologici come quello elettronico, Tempo al guasto = costante ⋅ e E a KT (2) l’applicazione di sollecitazioni con livelli simili a quelli che caratterizzano le normali condizioni d’impiego, portano al degrado del componente dove il Tempo al guasto è la misura in tempi estremamente lunghi, spes- della vita del componente in esame e so superiori alla naturale obsolescenza tecnologica del dispositivo. Le prove di laboratorio effettuate per innescare i processi di degrado ven- 1 Università degli Studi di Firenze gono pertanto condotte consideran- 1 Politecnico di Milano do livelli di sollecitazione superiori. 2 Università degli Studi di Milano Nasce quindi il problema di cono- massimo.lazzaroni@unimi.it

2/12 ƒ 142


N. 02ƒ ;2012 la costante rappresenta un parametro valutato per mezzo di una opportuna attività sperimentale sul componente stesso. Il valore dell’energia di attivazione, Ea, dipende dal tipo di modo di guasto considerato. In Tab. 1 sono riportati i valori più significati di Ea. Tabella 1 – Valori approssimati della energia di attivazione Ea

Failure mechanism Corrosion Assembly defects Electromigration – Al line – Contact/Via Mask defects Photoresist defects Contamination Charge injection Dielectric breakdown Au-Al Intermetallic growth

Ea (eV) 0,3 – 1,1 0,5 – 0,7 0,6 0,9 0,7 0,7 1,0 1,3 0,2 – 1,0 1,0 – 1,05

Nel caso dei componenti elettronici la formulazione di un modello analitico in grado di descrivere le variazioni del tasso di guasto è facilitata dal fatto che, se da un lato è possibile identificare nella temperatura una forma di sollecitazione che interessa diverse famiglie di componenti, vi è, dall’altro, il vantaggio di disporre di una quantità di dati consistente e coerente in quanto i componenti elettronici sono generalmente prodotti in quantità elevate e con un elevato grado di unificazione. L’espressione del modello di Arrhenius relativo al tasso di guasto λ (in Fig. 1 se ne riporta l’andamento su carta logaritmica) è data da:

λ 2 = λ1 ⋅ e E a K (1/ T1−1/ T2 )

Figura 1 – Modello di Arrhenius

(3)

I SERIALI MISURE E FIDATEZZA

dove λ1è il tasso di guasto, espresso in h-1 alla temperatura T1 (in K). La relazione precedente consente di definire il fattore di accelerazione (AF) come:

AF = e E a K (1/ T1−1/ T2 ) (4) La conoscenza del fattore di accelerazione è utile per valutare come un determinato livello di sollecitazione, in questo caso la temperatura imposta al valore T2 accelera il meccanismo di degrado rispetto a un valore, T1, che può essere assunto come riferimento. In alcuni casi può essere utile e interessante tracciare l’andamento del fattore di accelerazione in funzione dell’inverso della temperatura assoluta.

Figura 3 – Legame temperatura - tasso di guasto per componenti elettronici

λ = λ 0 ⋅ π E ⋅ π S ⋅ π T .... ⋅ π K (5) dove λ0 è il tasso di guasto in condizioni di riferimento, πE è il fattore ambientale, πS è il fattore legato allo stress elettrico, πT è il fattore legato alla temperatura e, infine, πK è il fattore peculiare del componente [8].

I MODI DI GUASTO

Figura 2 – AF vs Inverso della Temperatura assoluta, 1/T2, con T1=308,15 K

Come detto in precedenza, il modello di Arrhenius può essere considerato come un modello semplificato in quanto considera il solo effetto della temperatura. Per componenti tecnologicamente più avanzati può talvolta rivelarsi inadeguato. A titolo di esempio si riporta in Fig. 3 la differenza fra quanto predetto in un database tipicamente utilizzato nella valutazione dei tassi di guasto (e.g. MIL-HDBK 217, [8]) e la situazione reale. In ambito elettronico, in funzione della legge di Arrhenius, sono stati definiti modelli predittivi diversificati del tasso di guasto di componente che tengono conto di molteplici aspetti (fattori d’influenza). La formula base è la seguente:

È bene prima di tutto ricordare che l’intervallo di tempo durante il quale un dispositivo funziona correttamente si conclude quando un qualsiasi fenomeno di degradazione determina una variazione (inaccettabile) delle prestazioni nominali di corretto impiego. Cessa in quell’istante l’attitudine, da parte dell’elemento e/o componente in esame, ad eseguire la funzione richiesta, e quindi si manifesta l’evento denominato guasto (failure). Il guasto risulta pertanto il passaggio da uno stato di corretto funzionamento a uno stato di non funzionamento che può essere, a seconda del caso, totale o parziale. Giova qui ricordare che il manifestarsi di un guasto porta il dispositivo in uno stato di avaria (fault), caratterizzato dall’inabilità ad eseguire una funzione richiesta. È pertanto opportuno non confondere il concetto di guasto, inteso come evento (failure), con il concetto di avaria, associato a un particolare stato di sistema (fault). Il tempo al primo guasto (time to first failure) è il tempo complessivo di funzionamento dell’ele-

T_M ƒ 143


mento dall’istante in cui esso si trova in uno stato di funzionamento fino al momento in cui insorge il guasto. Il tempo al primo guasto, o semplicemente tempo al guasto, è la variabile aleatoria che caratterizza il manifestarsi dell’evento “guasto”. L’evidenza oggettiva del guasto prende il nome di modo di guasto [1]. Per modo di guasto si intende quindi l’effetto – misurabile in un qualche modo o che si evidenzia in modo quantitativo o qualitativo – dovuto al guasto di un componente o di una parte di un sistema. Esempi di modi di guasto sono: il manifestarsi di un circuito aperto, l’assenza di un segnale in ingresso, la presenza di una valvola che rimane chiusa [1, 4]. In corrispondenza di ogni modo di guasto vi è la causa che l’ha generato. Tanto maggiore è l’effetto del modo di guasto tanto più accuratamente deve esserne descritta la causa che l’ha generato. Va inoltre sottolineato il fatto che ogni modo di guasto comporta, generalmente, effetti in termini di ridotta o mancata funzionalità di un sistema o, nei casi più gravi, l’instaurarsi di situazioni pericolose per l’operatore e/o per l’ambiente. I modi di guasto descrivono, da un punto di vista funzionale o sub-funzionale, il modo in cui un componente può guastarsi; distinguere il modo di guasto diventa quindi necessario quando è importante conoscere le eventuali conseguenze del guasto sul sistema. Si è già avuto modo d’illustrare [1] come i meccanismi di guasto che innescano processi quali corrosione, usura, vibrazioni, fratture, ossidazione, ecc. giocano un ruolo importante nella fisica del guasto. È bene a tal proposito ricordare però che le cause di guasto spesso vanno ricercate al di fuori del componente stesso. Un componente può infatti guastarsi a causa di uno stress eccessivo causato da guasti su un dispositivo che risultino funzionalmente a “monte”. Si distinguono, generalmente, tre diverse condizioni operative: attività

T_M ƒ 144

N. 02ƒ ; 2012

I SERIALI MISURE E FIDATEZZA

continua, standby e attività intermittente. Partendo dalle condizioni operative è possibile definire due categorie per le cause di guasto: la prima classificazione riguarda i guasti che avvengono quando il componente è chiamato in servizio dalle condizioni di standby (demand-related), la seconda è relativa ai guasti che interessano i componenti durante le condizioni di attività continua (time-related); per i componenti chiamati ad operare in entrambi i modi, si possono avere, ovviamente, entrambi i tipi di guasto. Alla categoria già esistente di guasto totale (noto in letteratura come catastrophic failure), categoria contraddistinta dalla perdita completa della funzionalità, ne vanno aggiunte altre due, legate al fatto che un guasto può presentarsi mediante un graduale allontanamento del prodotto dalle prestazioni nominali: degraded failure e incipient failure; la prima descrive casi in cui si ha una perdita di capacità funzionale ma il dispositivo è ancora capace di fornire una prestazione superiore al livello minimo richiesto, mentre la seconda si riferisce a casi in cui senza un intervento di manutenzione o riparazione avverrà una perdita di funzionalità. Infine, i modi di guasto sono distinti in relazione alla sotto funzione quando si realizza l’indisponibilità: per chiarire basti pensare che per determinati dispositivi (per esempio un motore) il guasto può presentarsi in fase di avviamento o di spegnimento, ma è ovvio che le conseguenze di questi due tipi di guasto possono evolvere in modo diverso. CONCLUSIONI Il lavoro ha cercato di mettere in evidenza l’importanza di conoscere i meccanismi di degrado per valutare il tempo al guasto o il tasso di guasto. È stato volutamente considerato un modello semplificato ma di largo impiego nella Failure Analysis, essendo la temperatura una forma di solle-

citazione che interessa, potremmo dire, la quasi totalità dei componenti e dei materiali. Come vedremo in una prossima pubblicazione, il modello di Arrhenius costituisce una delle assunzioni alla base della predizione di affidabilità. RIFERIMENTI BIBLIOGRAFICI 1. L. Cristaldi, M. Lazzaroni, Misurare l’affidabilità: Sollecitazioni e degrado, Tutto misure. - ISSN 20386974. – Anno 14, N° 1, Marzo 2012, pagg. 55-58 - ISSN 20386974. 2. W.Nelson, Accelerated Testing, Wiley, 1990. 3. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, Le parole della fidatezza, Tutto misure. - ISSN 2038-6974. – Anno 13, N° 1, Marzo 2011, pagg. 49-53 - ISSN 20386974. 4. M. Catelani, L. Cristaldi, M. Lazzaroni, Le funzioni di affidabilità, Tutto misure. - ISSN 2038-6974. – Anno 13, N° 2, Giugno 2011, pagg. 131-134. 5. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, L’affidabilità nella moderna progettazione: un elemento competitivo che collega sicurezza e certificazione, Collana I quaderni del GMEE, Vol. 1 Editore: A&T, Torino, 2008, ISBN 8890314907, ISBN-13: 9788890314902. 6. M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi, M. Catelani, Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, eISBN 978-3-642-20983-3, DOI 10.1007/978-3-642-20983-3, 2011 Springer-Verlag, Berlin Heidelberg. 7. A. Birolini, Reliability Engineering – Theory and Practice. Springer, Heidelberg, 6 Ed., 2010, ISBN: 978-3-64214951-1. 8. MIL-HDBK-217F, Reliability Prediction of Electronic Equipment (December, 1991), con Notice 1 -10 July 1992 e NOTICE 2 - 28 February 1995.


METROLOGIA LEGALE

A cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com)

www.avvocatoscotti.com

AUTOVELOX & Co.: strumenti di misura? Autovelox & Co.: measuring instruments?

LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! Il quesito posto a titolo del presente contributo potrebbe apparire al lettore come una ironica provocazione se non sussistesse, invece, un fondato dubbio, come derivante dall’interpretazione dei documenti ministeriali volti a fornire chiarezza (sic!) e dalla giurisprudenza in materia, circa l’inquadramento degli apparecchi destinati ad accertare violazioni delle norme del codice della strada che disciplinano la velocità dei veicoli. Il Codice della strada, come noto, prevede la possibilità di accertare la violazione di eccesso di velocità attraverso l’utilizzo di apparecchi di rilevazione, sia a funzionamento automatico che alla presenza di operatori di polizia. Originariamente per tali apparecchi di rilevamento (a qualunque delle due categorie sopra citate appartenenti) era stabilita, come requisito esclusivo per l’utilizzazione e la messa in funzione, l’omologazione da parte del Ministero dei Trasporti o del Ministero dei Lavori Pubblici senza ulteriori e successivi con-

trolli mirati a verificare il corretto funzionamento dello strumento. Quest’ultimo veniva garantito, in via autoreferenziale, dall’autorità pubblica: al riguardo è appena il caso di ricordare che nei verbali è prassi che sia menzionata l’attestazione della verifica del corretto funzionamento dell’apparecchio, effettuata dal personale che conduce la rilevazione1. Di questa verifica, tuttavia, non vengono fornite indicazioni specifiche circa le operazioni esattamente effettuate. Successivamente, alla luce dei discordanti orientamenti giurisprudenziali che non trovavano un punto di equilibrio utile a consentire un’interpretazione univoca relativa alla necessità (o meno) di controlli successivi2 da effettuarsi su detti apparecchi, il Ministero dell’Interno ha inteso chiarire la materia mediante l’emanazione di una circolare esplicativa (Circolare n. 10.307 del 14/08/2010) che dovrebbe rappresentare il riferimento, normativo e tecnico, per la gestione di detta strumentazione. In primis si sottolinea che tale docu-

mento ministeriale, interpretativo delle norme del codice della strada, stabilisce l’esclusione degli apparecchi di misurazione della velocità dal campo applicativo della Legge 273/91 – legge 11 agosto 1991 n 273 “Istituzione del sistema nazionale di taratura” – in ragione del fatto che le uniche misurazioni ivi contemplate riguardano esclusivamente tempo, distanza e massa, e pertanto gli strumenti di rilevazione della velocità, non rientrando in detto ambito, non sono assoggettabili a tarature come stabilite ex lege. L’argomentazione tecnica addotta nella circolare risulta certamente poco convincente, da un punto di vista tecnico, data la natura della velocità quale grandezza derivata dalla distanza e dal tempo, e pertanto, già in prima istanza, poco ragionevole (se non assurda). Ulteriormente, la stessa circolare ministeriale esclude l’applicabilità di altre norme tecniche del settore (peraltro laconicamente individuate, in quanto non è dato sapere di quali norme si tratti), attesa la loro natura non vincolante in assenza di espresso recepimento nell’ordinamento nazionale. Nonostante i presupposti da cui muove la circolare potrebbero essere discutibili sul piano tecnico (dato che vi sono norme tecniche di settore per il controllo/taratura di strumenti di misura della velocità, e considerato che la velocità è un’unità di misura derivata dalla distanza e dal tempo), essa parrebbe non porre problemi di natura giuridica, in quanto volta a stabilire chiaramente l’esclusione di qualsivoglia controllo metrologico sugli strumenti, poiché non riconducibili nel novero di apparecchi assoggettati alla legge istitutiva del SIT. Tuttavia il quadro normativo fino a qui rappresentato assume contorni nebulosi poiché la stessa circolare sconfessa quanto precedentemente indicato

T_M

N.

2/12 ƒ 145


prevedendo l’obbligo, per gli utilizzatori degli strumenti di rilevazione della velocità, di una verifica periodica almeno annuale per gli apparecchi impiegati sotto il controllo costante di un operatore di polizia stradale, e di una verifica metrologica periodica almeno annuale per gli strumenti utilizzati in modalità automatica, entrambe tendenti ad accertare il corretto funzionamento degli apparecchi. Ora, indipendentemente dalla incomprensibile distinzione di trattamento per le due categorie di strumenti, è opportuno evidenziare la contraddizione in cui è incorso il Ministero. Questo, inizialmente, esclude controlli metrologici sulle apparecchiature mentre, in un secondo momento, non solo legittima ma impone dette verifiche, che peraltro devono essere condotte alternativamente dal costruttore (se in possesso di certificazione ISO 9001) o da centri accreditati SIT (!!!) e, conseguentemente, in conformità alle disposizioni dettate dalla legge 273/91. In osservanza di quanto stabilito dal Ministero, i soggetti utilizzatori (in specie i Comuni) hanno iniziato, sebbene a rilento, a sottoporre a taratura (che viene quindi intesa – impropriamente – da detti operatori come verifica metrologica dello strumento, secondo la nozione fornita dal Ministero stesso) gli apparecchi di misurazione della velocità, menzionando nel verbale notificato gli estremi del certificato di taratura emesso dal centro SIT. Pertanto, a prescindere dall’uso corretto o meno che i soggetti utilizzatori di detti strumenti fanno del certificato di taratura (è infatti difficile immaginare che, come invece dovrebbe essere, venga applicata per ciascuna rilevazione l’incertezza associata allo strumento), non si può trascurare questo nuovo modus operandi della Pubblica Amministrazione che si adegua a quanto stabilito dalle norme tecniche (volontarie) per il corretto utilizzo di uno strumento di misura. Il panorama normativo sembra finalmente definire le modalità di gestione e controllo di detti strumenti, precedentemente esclusi dal novero di apparecchi da assoggettare a verifiche, riconducendoli all’interno della nor-

T_M ƒ 146

N. 02ƒ ; 2012

METROLOGIA LEGALE

mativa metrologica, sebbene interpretata impropriamente e in maniera confusa. Contrariamente a quanto sarebbe legittimo attendersi, però, l’orientamento giurisprudenziale che si va consolidando non ritiene viziato l’accertamento in carenza di certificato di taratura o, comunque, di qualunque altro controllo effettuato sull’apparecchio utilizzato per l’accertamento, ritenendo sufficiente la dichiarazione dell’organo amministrativo procedente, inserita nel verbale, circa il corretto funzionamento dello strumento. Nonostante le pronunce della Cassazione non costituiscano un precedente,esse determinano spesso un orientamento uniforme dal quale raramente il giudice di primo grado si discosta. Pertanto, considerato detto orientamento giurisprudenziale dominante, unitamente al vincolo del giudice verso la legge, come espresso dall’art 101 della Costituzione3 e attesa la natura meramente interpretativa del provvedimento (circolare ministeriale) qui esaminato (che non può quindi essere considerato come legge), la materia risulta disciplinata esclusivamente dal codice della strada e dal suo regolamento di esecuzione: posto che tali norme non prevedono alcun tipo di controllo sugli strumenti di misura (fatta eccezione per l’omologazione), risulta evidente che l’unico riferimento di legge, che il giudice potrebbe utilizzare per la corretta disciplina cui assoggettare gli strumenti di misura della velocità, è costituito dalla legge 273/91, purchè sussistano le condizioni per la sua applicazione (ad esempio la presenza di un campione di riferimento per la misura)4. Conclusivamente, emerge, sotto il profilo normativo, un quadro ancora ambiguo circa la qualificazione da attribuire agli apparecchi di rilevazione della velocità utilizzati per l’accertamento di violazioni al Codice della strada. Infatti, mentre il legislatore (latu sensu inteso, dato che, come detto, la circolare ministeriale non può essere considerata un atto normativo in senso proprio) inizia a definire, sebbene

confusamente, i controlli conformemente al sistema di misure generalmente riconosciuto, riconducendo le verifiche nell’alveo della metrologia, gli attuali orientamenti giurisprudenziali invece non mostrano aperture in tal senso, in quanto non attribuiscono alcuna valenza alla taratura e non richiedono controlli sugli strumenti, fatta eccezione per la preventiva omologazione. Alla luce di tale scenario è quindi auspicabile un intervento del legislatore volto a chiarire la questione mediante una disciplina dettagliata tesa a colmare le lacune normative che consentono “pericolose” interpretazioni. NOTE 1 I verbali testualmente utilizzano la seguente dizione: strumento utilizzato, la cui perfetta funzionalità è stata verificata prima dell’uso. 2 La giurisprudenza sia di merito che di legittimità ha spesso oscillato tra la necessità di assoggettamento a controlli per tali strumenti e, in senso totalmente opposto, l’assoluta incontrovertibilità dei dati rilevati dagli apparecchi per la misurazione della velocità tale da escludere qualsiasi controllo successivo alla omologazione ed alla messa in funzione. 3 Art 101: La giustizia è amministrata in nome del popolo. I giudici sono soggetti soltanto alla legge. 4 Seduta n. 644 del 23/6/2005: On. Lunardi che, nell’ambito di una interrogazione a risposta immediata, precisava che i requisiti dei misuratori di velocità si potevano ricavare esclusivamente dalla normativa vigente (Codice della Strada e regolamento di esecuzione oltre al DM sugli strumenti in generale) ed evidenziava che, allo stato, venivano sottoposti a verifica periodica presso il costruttore gli apparecchi a funzionamento automatico mentre per gli altri era sufficiente il rispetto di quanto stabilito dal manuale d’uso. Ribadiva, inoltre, che la mancanza di un campione nazionale di riferimento per la velocità, non consentiva l’applicazione della legge 273/91 indi la taratura.


A cura di Franco Docchio (franco.docchio@unibs.it) ■

LETTERE AL DIRETTORE

Sul sistema SI Risposta all’articolo di Sergio Sartori sul Sistema Internazionale LETTERS TO THE DIRECTOR This section contains letters, comments and opinions of the readers. Please write to Tutto_Misure! RIASSUNTO In questa rubrica vengono pubblicate lettere dei lettori della Rivista. Continuate a scrivere e a dire la vostra sui principali temi della ricerca, della didattica delle misure, e dello sviluppo industriale! RISPOSTA DI WALTER BICH (I.N.Ri.M.) A UN PENSIONATO CHE SI RIBELLA Caro Sergio, ho letto della tua ribellione1 alla proposta di riassetto del Sistema internazionale di unità, o SI. Ciò di cui voglio discutere non è tanto il riassetto così come è stato proposto e recepito, almeno in linea di massima, dalla Conferenza generale sui pesi e sulle misure dell’ottobre 2011 (la ventiquattresima dalla firma della Convenzione del metro), sul quale ci sarebbe e ci sarà ancora molto da dire, quanto la necessità o il vantaggio di un riassetto del Sistema di unità, necessità che tu sembri mettere in dubbio e vantaggio che sembri confinare a una ristretta lobby di persone e istituzioni. Tu parli delle “cifre enormi dei contribuenti spese per trasferire l’incertezza da alcune costanti ad altre”. In realtà le cose non stanno proprio così: i soldi investiti sono stati usati, non solo da Istituti di Metrologia ma anche da Università e altre Istituzioni scientifiche, per misurare sempre più accuratamente alcune costanti fondamentali, quindi per ridurre le incertezze, non per trasferirle. La sempre migliore conoscenza delle costanti fondamentali è un processo d’interesse scientifico generale, non limitato alla metrologia o addirittura al solo SI. Il trasferimento delle incertezze è, per così dire, un sottoprodotto a costo zero, o quasi. E, secondo me, è una operazione non solo legittima ma utile e logicamente ineccepibile. Non so quanto tu sia disposto a scommettere sulla stabilità nel tempo della massa del kilogrammo prototipo internazionale o sull’invarianza della temperatura del punto triplo dell’acqua; io non ci scommetterei un centesimo, mentre sulla costanza, almeno nell’arco di sva-

Convenzione del Metro o, in tempi più recenti, allo sviluppo delle giunzioni Josephson per la realizzazione pratica del volt, oltre al mantenimento delle relative attrezzature criogeniche. Ma gli esempi sono innumerevoli. Poca roba, comunque, rispetto ai costi sostenuti per mandare l’uomo sulla Luna o per cercare il bosone di Higgs (ma anche molte altre particelle prima di quello) o per misurare (male!) la velocità dei neutrini, per non parlare dei costi di una qualsiasi campagna bellica o, come si dice adesso, di peace keeping o peace enforcing. Infine, a proposito della (cito) “… mole di lavoro da effettuare: norme da riscrivere, manuali di qualità da aggiornare, leggi da revisionare, libri di testo da emendare”, il mio commento è duplice. Intanto l’impatto del riassetto nella vita di tutti i giorni, grazie al benedetto principio della continuità (una nuova definizione non cambia, se non in misura trascurabile, il valore dell’unità interessata), sarà appunto minimo, per cui non prevedo grossi cambiamenti a livello industriale, come norme da riscrivere o manuali di qualità da aggiornare. Poi, è del tutto normale che ogni volta che c’è una novità nel mondo (il che accade con continuità), qualche documento debba essere emendato e aggiornato. Ciò vale in riferimento non solo alla scienza, ma anche alla storia, alla politica, alla geografia (pensa alle turbolenze costanti nell’assetto dei Paesi del mondo), al costume, alle vite e morti degli uomini illustri. Se gli eventi dovessero essere frenati da considerazioni di questo tipo, i libri parlerebbero ancora di Terra piatta con il Sole che le gira intorno, non credi? Cordialmente. Walter Bich - I.N.Ri.M., Torino

riati secoli, della costante di Planck o di quella di Boltzmann sono disposto a scommettere il mio stipendio annuale, e credo che nemmeno tu avresti problemi a scommetterci la tua pensione. D’altra parte, se le chiamiamo costanti, una ragione ci sarà. Invece, nell’assetto attuale, quelle costanti hanno valori incerti che per giunta cambiano (poco, per fortuna) ogni quattro anni, mentre il kilogrammo prototipo o la temperatura del punto triplo dell’acqua sono invarianti per definizione. Ammetterai che una risistematina delle incertezze nella direzione proposta allineerebbe meglio la nostra descrizione formale del mondo con le nostre convinzioni profonde. E ancora: forse hai ragione tu e il riassetto ha un’utilità limitata e non proporzionata agli investimenti necessari che, come ho chiarito sopra, non sono comunque quelli dedicati alle misurazioni delle costanti. Tuttavia, a parziale consolazione tua e dei lettori, ricorderò che non è la prima volta che le unità di misura muovono soldi in misura (relativamente) cospicua. Immagina quanto sarà costato nel 1792 spedire da Parigi Delambre e Méchain, uno verso nord e l’altro verso sud, con il compito di rideterminare la lunghezza del quarto di meridiano terrestre passante per Parigi! Ricordo che quello partito verso sud (Méchain) tornò a casa solo dopo sette anni, a fronte dei sette mesi ottimisticamente NOTE pronosticati2. Tutto per realizzare la nuo- 1 Sergio Sartori, La rivoluzione nel Sistema Interva definizione del metro. E quale è stato nazionale di unità, Tutto_Misure n° 1/2012, (e continua a essere3) il costo della Con- p. 35-37. venzione del Metro del 1875, che ha 2 Traggo queste notizie da un bel libro che raccomportato l’istituzione di un laboratorio comando a chiunque nutra curiosità verso la stointernazionale, il BIPM, dedicato esclusi- ria delle unità di misura e della scienza in genevamente alle unità di misura? Scenden- rale. Ken Alder, La misura di tutte le cose. L’avstoria dell’invenzione del sistema metrido nei particolari, sto pensando alla co- venturosa co decimale, Rizzoli 2002, 638 pp. struzione e alla taratura della trentina di 3 Ogni anno l’Italia, come tutti gli Stati e le orgakilogrammi di platino-iridio e degli altret- nizzazioni membri della Convenzione, versa, tanti regoli da 1 m, sempre di platino-iri- anche se tipicamente in ritardo, un bella quota dio, distribuiti agli Stati firmatari della per sostenere le attività del BIPM.

T_M

N.

2/12 T_M ƒ 147


SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo

Dalle Associazioni Universitarie di Misuristi

THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography), and Nuclear Measurements. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. PROGETTI PRIN PRESENTATI DA RICERCATORI GMEE

Measurements on New Generation Systems and Networks Unità partecipanti: Bari (coordinatore Amerigo Trotta); Brescia (coord. Emiliano Sisinni); Napoli Federico II (coord. Leopoldo Angrisani); Napoli Parthenope (coord. Michele Vadursi); Politecnico di Milano (coord. Cesare Svelto); Politecnico di Torino (coord. Andrea Ferrero); Reggio Calabria (coord. Claudio De Capua); Università del Sannio (coord. Pasquale Daponte). Smart measurements for the future energy grid Unità partecipanti: Bologna (coord. Lorenzo Peretto); Brescia (coord. Alessandra Flammini); Cagliari (coord. Carlo Muscas); Politecnico di Milano (coord. Alessandro Ferrero); Padova (coord. Matteo Bertocco); Perugia (coord. Paolo Carbone); Seconda Università di Napoli (coord. Alfredo Testa); Trento (coord. Dario Petri).

Sistemi meccatronici per la riabilitazione motoria Unità partecipanti: Brescia (coord. Emilio Sardini); Catania (coord. Bruno Andò); CNR Milano (coord. Lorenzo Molinari Tosatti); Roma (coord. Valentina Camomilla); Pisa (coord. Francesca Dipuccio); Politecnico di Torino (coord. Giuseppe Quaglia). PROGETTI FIRB PRESENTATI DA RICERCATORI GMEE

Linea d’intervento 1 Sistema Integrato di Early warning per la mitigazione dei rischi in infrastrutture critiche Coordinatore del Progetto: Gianfranco Miele, Università degli Studi di Cassino e del Lazio Meridionale. 1. Università degli Studi di Cassino e del Lazio Meridionale – DIEI, coordinatore Gianfranco Miele. 2. Università degli Studi di Cassino e del Lazio Meridionale – DICEM, coordinatore Cristiana Di Cristo. 3. Università degli Studi del Sannio – DI, coordinatore Gustavo Marini. 4. Università degli Studi di Napoli “Federico II” – DIS, coordinatore Rosario Schiano Lo Moriello.

reti di sensori wireless per l’uomo, l’ambiente e l’energia. Coordinatore del Progetto: Francesco Lamonaca, Università della Calabria 1. Università della Calabria, coordinatore Francesco Lamonaca. 2. Università degli Studi di Napoli Federico II, coordinatore Annalisa Liccardo. 3. Università degli Studi del Sannio, coordinatore Luca De Vito. Linea d’intervento 2 Sviluppo di metodi e strumenti di misura innovativi di energia e power quality per la gestione ottima di Smart Grid con produzione integrata da FER e loro riferibilità metrologica a campioni primari. Coordinatore del Progetto: Mario Luiso, Seconda Università degli Studi di Napoli. 1. Seconda Università degli Studi di NAPOLI, coordinatore Mario LUISO. 2. Università degli Studi di CASSINO, coordinatore Luigi FERRIGNO. 3. I.N.Ri.M., coordinatore Domenico GIORDANO. 4. Università degli Studi de L’AQUILA, coordinatore Edoardo FIORUCCI. 5. Università degli Studi di PALERMO, coordinatore Dario DI CARA. Linea d’intervento 3 Advanced Techniques for Smart Grid Oriented Real Time Power Quality Monitoring. Coordinatore del Progetto: Antonio Moschitta, Università di Perugia. 1. Università di Perugia, coordinatore Antonio Moschitta. 2. Università di Cagliari, coordinatore Sara Sulis. 3. Università di Genova, coordinatore Micaela Caserza Magro.

Ambient Assisted Living Unità partecipanti: Ancona (coord. Sauro Longhi); Parma (coord. Piero Metodi e modelli innovativi per la caratterizzazione metrologica delle franco.docchio@ing.unibs.it Malcovati); e altri.

T_M

N.

2/12 ƒ 148


N. 02ƒ ;2012 GRANDE SUCCESSO PER IL CONVEGNO SENSORI 2012 CO-ORGANIZZATO DAL GMEE

Si è svolto nel mese di Febbraio 2012 il primo Convegno Sensori 2012, coorganizzato dal GMEE. L’idea trainante del Convegno è stata quella di creare un evento a cui partecipassero tutte le società/associazioni attive nel settore della sensoristica, con lo scopo di creare un momento di aggregazione a livello nazionale in grado di favorire la collaborazione tra tutti. La comunicazione tra le diverse discipline operanti nel settore della sensoristica (fisica, chimica, ingegneria, biofisica, medicina, biochimica, ecc.) è infatti uno degli aspetti essenziali in questo settore per poter rimanere al passo rispetto al panorama internazionale. Il Convegno ha visto la presentazione di 156 lavori accettati tra keynotes, presentazioni orali e presentazioni poster. Hanno partecipato 147 congressisti (100 senior e 47 junior). La Società Editrice Springer Verlag curerà la stampa degli Atti del Convegno. È da notare, per questa prima edizione, una virtuosa “contaminazione” fra estrazioni diverse: ingegneri, fisici, chimici, biologi da un lato, e dall’altro tra Universitari, centri di ricerca, aziende. È molto probabile una riproposizione del Convegno nel 2014, mentre nel 2013 si terrà con tutta probabilità un evento di mezza giornata che mantenga viva l’interazione tra le associazioni organizzatrici: La Società Chimica Italiana (SCI), l’Associazione Ita-

liana Sensori e Microsistemi (AISEM), la Società Italiana di Ottica e Fotonica (SIOF), l’Associazione italiana Ambient Assisted Living (AitAAL), l’Associazione Italiana Misure Elettriche ed Elettroniche (GMEE), l’Associazione per la Tecnologia dell’Informazione e delle Comunicazioni (AICT), la Società Italiana di Fotobiologia e la Società Italiana di Biofisica Pura e Applicata (SIBPA). PREMIO DI LAUREA CMM CLUB 2012

L’Associazione CMM Club Italia, partner GMEE, bandisce un premio di laurea avente lo scopo di premiare laureati in Ingegneria che abbiano svolto la tesi di laurea magistrale su tematiche d’interesse dell’Associazione, nonché d’incoraggiare gli studenti delle Facoltà di Ingegneria italiane a dedicare i loro studi alle tematiche della metrologia dimensionale e a coordinate applicata alla produzione industriale meccanica. Il premio di laurea ammonta a € 1.500 e verrà assegnato entro la fine dell’anno 2012. Il

Sviluppo e caratterizzazione metrologica di una piattaforma per l’identificazione automatica di volti, espressioni facciali ed emozioni, finalizzata allo studio di patologie neuropsichiatriche. Coordinatore del Progetto: Arianna Mencattini, Università di Roma Tor Vergata. 1. Università di Roma Tor Vergata, coordinatore Arianna Mencattini. 2. Politecnico di Milano, coordinatore Emanuele Zappa. 3. Università di Perugia, coordinatore Emilia Nunzi.

SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI

vincitore sarà premiato in occasione dell’Assemblea dei Soci che si terrà presumibilmente nel mese di aprile 2013, e avrà la possibilità di presentare il proprio lavoro ai soci presenti; è previsto un rimborso delle spese sostenute per tale partecipazione, fino a un massimo di € 300, per distanze percorse superiori a 100 km. Possono partecipare al concorso tutti i laureati che abbiano conseguito la laurea magistrale nel periodo compreso tra l’1 novembre 2011 e il 30 ottobre 2012, con tesi riguardante una delle tematiche seguenti: Nuovi sensori a contatto e non a contatto – Strutture e materiali innovativi per CMM – Tecnologie di misura alternative alle CMM – Verifica delle prestazioni – Valutazione dell’incertezza di misura – Programmazione off-line e interscambio dati – Specifica e verifica di tolleranze complesse – Aspetti economici e di gestione della strumentazione – Applicazioni speciali. Per informazioni: CMM Club Italia, Strada delle Cacce 73, 10135 Torino. Tel. 011/3919970, fax 011/3919959, e-mail: segreteria@cmmclub.it, sito web: www.cmmclub.it.

NUOVI ACCREDITAMENTI A BRESCIA PER NI LABVIEW ACADEMY DI NATIONAL INSTRUMENTS La Prof. Giovanna Sansoni e l’Ing. Matteo Lancini, delle Unità di Brescia GMEE e GMMT rispettivamente, hanno sostenuto, in data 29 Febbraio 2012, l’esame di accreditamento NI LabVIEW Academy e hanno ricevuto il Certificato di Accreditamento in data 15 Marzo 2012. In tale veConsegna della Targa di NI Labste, la Prof. Sansoni, all’interno del suo In- VIEW Academy alla prof. Sansoni segnamento di “Strumentazione per la ViMarzo 2012 sione Industriale” nel Corso di Laurea Magistrale di Ingegneria Elettronica, ha tenuto il corso LabVIEW finalizzato alla certificazione CLAD degli studenti. Questi, a loro volta, hanno sostenuto l’esame in data 28 Aprile 2012: il 75% di essi ha ricevuto la certificazione di primo livello. Anche l’Ing. Lancini ha svolto attività di docenza nel Corso CLAD presso il Dipartimento di Ingegneria Meccanica e Industriale di Brescia. L’esame di certificazione è stato effettuato in data 18 Maggio 2012.

T_M ƒ 149


LO SPAZIO DEGLI IMP

Gian Bartolo Picotto1, Francesco Moro1, Vittorio Giaccone2

Un algoritmo per la misura ottica dello spessore di film spessi

AN ALGORITHM FOR THE OPTICAL MEASUREMENT OF THE THICKNESS OF THICK FILMS A new methodology suitable for thickness measurements of coatings and paints of industrial products is presented. The measurement is based on the analysis of the non-cumulative distribution of the gray-scale virtual depths of the indentation image, as obtained by the wedge cut method. The adopted algorithm is described together with the results achieved so far. The overall budget of the uncertainty is given and discussed. RIASSUNTO Il lavoro descrive un algoritmo per la misura ottica dello spessore di film spessi per alcuni manufatti industriali. La metodologia di misura si basa sull’analisi della distribuzione non cumulata delle profondità virtuali (scala di grigi) dell’immagine dell’incisione eseguita con una punta cuneiforme di angolo al vertice noto. Sono riportati i risultati ottenuti e viene discusso il bilancio d’incertezza della misura.

INTRODUZIONE

La misurazione e il controllo dello spessore nella deposizione di film spessi è parte essenziale di test e verifiche di funzionalità in numerosi processi industriali [1,2]. Le tecniche tradizionalmente in uso per caratterizzare film di spessore oltre il micrometro si differenziano in base alla natura del film e del substrato, allo stato (bagnato o secco) e allo spessore nominale dello strato/coating in esame [3]. Una prima suddivisione delle tecniche utilizzate con i film secchi individua metodi distruttivi e non, dei quali i primi sono costituiti da una misura ottica con oculari ad ingrandimento o microscopi ottici, e richiedono l’incisione [4] o la sezionatura [5] del campione. Il metodo a incisione, che verrà trattato più diffusamente nel seguito, prevede l’uso di una lama da intaglio cuneiforme. A questi si affiancano metodi di misura con micrometri o profilometri a stilo, per i quali si utilizza un’opportuna mascheratura locale in fase di deposizione del film in modo da poter osservare lo spessore attraverso il gradino tra substrato e film [3,6]. Altri metodi non

T_M

N.

distruttivi si basano su misurazioni di spessore attraverso ultrasuoni, induzione magnetica, correnti parassite, e altri ancora. Un’interessante tabella riassuntiva con le varie metodologie di misura, relativa incertezza e normativa di riferimento è riportata nel riferimento [3]. Un progetto denominato PROMAME (Process for mechatronic opening/closing device) ha visto impegnati VALEO e altri partner tra cui l’Istituto Nazionale di Ricerca Metrologica (I.N.Ri.M.), che si è occupato dello studio di metodologie di misura dello spessore e della resistività di film spessi semiconduttivi (primer), utilizzati per migliorare le funzionalità e l’uso delle maniglie nel settore automobilistico. In questo contributo viene discusso un algoritmo per la misura ottica dello spessore, basata sul metodo a incisione.

spessi (primer) sono eseguite in gran parte attraverso una prova distruttiva basata sull’incisione del film e del substrato con una punta cuneiforme in carburo di tungsteno e la successiva osservazione dell’intaglio con un oculare ottico. Lo strumento denominato “Paint Inspection Gauge” (PIG) permette di misurare lo spessore del film depositato su placchette di prova (talvolta direttamente sul manufatto) in un campo di misura molto esteso (da 2 µm a 2 mm). L’apparecchio è dotato di punte da intaglio intercambiabili, tutte cuneiformi ma con un diverso angolo al vertice. La scelta della punta da intaglio è legata allo spessore del primer in esame; con film di minor spessore si utilizzano punte di angolo maggiore. L’intaglio risulta infatti più largo e il tratto relativo al primer in esame risulta più esteso o visibile nell’oculare ottico. Lo stesso strumento è dotato infatti di un oculare (50x) con scala micrometrica, attraverso il quale si determina la larghezza della parte dell’incisione corrispondente allo strato/primer in esame. Da questo si risale allo spessore in quanto è nota la geometria cuneiforme della punta (per ogni punta da intaglio sono le tabelle larghezza/spessore). La determinazione visuale dei bordi del tratto del primer inciso rappresenta una delle principali sorgenti di errore nella lettura effettuata dall’operatore.

1

LA TECNICA IN USO IN AMBITO INDUSTRIALE

Istituto Nazionale di Ricerca Metrologica Divisione Meccanica, Torino (I.N.Ri.M.) g.picotto@inrim.it

Nei laboratori industriali, le misure 2 Valeo SpA – Divisione Sicurezza di spessore di rivestimenti o film Abitacolo, Pianezza (TO)

2/12 ƒ 150


N. 02ƒ ;2012 L’ALGORITMO DI MISURA Per ovviare a queste limitazioni si è messo a punto un tool software che determina lo spessore del primer attraverso uno specifico algoritmo di analisi dell’immagine dell’indentazione. La metodologia è basata sulla distribuzione non cumulata delle profondità virtuali, corrispondenti alla scala di grigi (8 bit) dell’immagine in formato bitmap. Il metodo utilizza esperienze maturate nell’analisi d’immagini 3D d’impronte realizzate per prove di durezza [7]. Lo sviluppo e la validazione dell’algoritmo è stata effettuata con immagini d’indentazioni di film/primer depositati su placchette piane. Le immagini a 1440 x 1080 pixel sono state riprese con un ingrandimento 10X per una dimensione dell’immagine di circa 3 mm x 2 mm, come in Fig. 1. Per la taratura della dimensione del pixel (~2,14 µm) si utilizza un micrometro oggetto.

Figura 1 – Immagine bitmap di un intaglio realizzato con PIG. Il profilo ideale di una sezione dell’intaglio è disegnato in basso

La distribuzione, il cui grafico è riportato in Fig. 2, è stata ottenuta dall’analisi dell’immagine di Fig. 1 e riporta la densità non cumulata di pixel (numero di pixel per ogni livello di grigio o profondità virtuale Z) in relazione a una scala di valori Z compresi tra 0 e 1. L’area sottesa tra la curva e l’asse x del grafico (∑ρi(Zi+1–Zi)=1) è normalizzata a 1. Occorre rilevare che la scala z non individua in realtà altezze/profondità effettive della superficie in esame, ma contiene le 256 diverse tonalità di grigio legate

LO SPAZIO DEGLI IMP

curva decrescente e crescente in corrispondenza dei minimi relativi della curva.

IL TOOL DI MISURA Figura 2 – Densità non cumulata delle profondità virtuali dell’immagine del tratto inciso

alla luminosità relativa di ogni singolo pixel dell’immagine a 8 bit. Nel grafico si evidenziano massimi e minimi relativi, i quali delimitano alcuni tratti caratteristici costituiti dai tre “picchi” della curva, ai quali tratti sono associate le gradazioni di grigio predominanti nell’immagine. Tra queste vi sono la parte più scura corrispondente all’incisione del substrato, la parte più chiara associata all’incisione del primer e la tonalità intermedia di grigio associata alla superficie esterna all’incisione. Individuato quindi nel picco più a destra della distribuzione di Fig. 2 il tratto corrispondente all’area più chiara dell’immagine dell’incisione (parte incisa del primer in Fig. 1), si determina l’ascissa zi corrispondente al minimo a sinistra del picco. Quest’ascissa è calcolata dall’intersezione delle regressioni lineari dei tratti di curva decrescente e crescente nell’intorno del minimo relativo. Così ottenuto il valore zi e sommato le ρi per z>zi si ha il numero totale di pixel della parte più chiara dell’immagine. Definito il numero totale di pixel e nota la dimensione (lato) del pixel dalla taratura del sistema ottico, si risale alla larghezza media della parte incisa del primer (tratto più chiaro), da cui si ottiene lo spessore del film in quanto è noto l’angolo della punta utilizzata per l’incisione. L’algoritmo consente altresì di determinare le aree sottese (o il numero di pixel totali) corrispondenti agli altri picchi della densità non cumulata. Il limite o bordo di queste aree è determinato in modo analogo a quanto descritto sopra, ovvero è calcolato come l’intersezione delle rette ottenute dalle regressioni lineari dei tratti di

Il tool “OPTHK” è costituito da un programma in Visual Basic che implementa l’algoritmo di misura in un foglio di calcolo tipo excel o equivalente. Questo rende il sistema aperto a eventuali modifiche e/o perfezionamenti. L’interfaccia del tool è intuitiva e semplice, e al suo avvio richiede all’operatore l’inserimento di alcuni dati e/o parametri della misura come ad esempio l’angolo della lama da intaglio e la dimensione del pixel dell’immagine ottenuta dalla taratura del sistema ottico. Una volta caricata l’immagine da analizzare, il tool visualizza una finestra di dialogo con la stessa immagine e la richiesta all’operatore d’indicare la zona (o meglio la tonalità di grigio) d’interesse e sulla quale effettuare la misura per il tratto in esame. Infine, il tool restituisce un foglio di calcolo con il valore dello spessore del primer, oltre ai principali parametri della misura e al grafico della distribuzione. In Fig. 3 è mostrata la sequenza delle interfacce di lavoro del tool.

Figura 3 – Interfacce del tool per la specifica della lama, dell’ingrandimento (dimensione pixel) e della zona da elaborare

T_M ƒ 151


N. 02ƒ ; 2012

LO SPAZIO DEGLI IMP

Tabella 1 – Ripetibilità misura spessore da immagini riprese con diverso contrasto e luminosità sulla stessa area d’incisione di un provino di spessore nominale 20 µm

Figura 4 – Foglio di lavoro con i risultati della misura

VALUTAZIONE SUL CAMPO La stazione di misura del laboratorio VALEO si avvale di un microscopio ottico composto da una base Optika Microscope, corredata di tavola xy manuale e viti micrometriche, e una camera CMOS da 1,5 Megapixel con connessione USB 2.0. Il sistema utilizza un software commerciale per l’acquisizione delle immagini in formato bitmap. I campioni prototipali utilizzati nei test sono costituiti da placche piane di lunghezza 180 mm, larghezza 80 mm e spessore 4 mm, sulle quali è stato applicato il primer resistivo, attraverso un processo di verniciatura a spruzzo. Campioni di spessore nominale da circa 5 µm e fino a circa 30 µm sono stati misurati con il tool OPTHK sopra descritto. Per migliorare il contrasto tra la superficie piana del provino e il tratto inciso, in particolare per la zona corrispondente allo stesso primer, si sono effettuate colorazioni a mezzo pennarelli della superficie del provino, prima dell’incisione. Nelle prime verifiche sperimentali del tool sono state memorizzate tre immagini della stessa incisione, in particolare della medesima sezione o area di campionamento, immagini riprese in sequenza con differenti parametri di contrasto e luminosità del sistema ottico. Con un provino di spessore nominale pari a 20 µm, si è potuto osservare una ripetibilità migliore dell’1% dello spessore (Tab. 1). In seguito si sono eseguite misure dello spessore su vari campioni/placchette di primer. La Tab. 2 riporta i

T_M ƒ 152

risultati ottenuti con provini da circa 10 µm a 25 µm di spessore, e immagini riprese in cinque sezioni o aree distinte dell’incisione. I risultati dimostrano una buona riproducibilità del metodo di misura. Con film di spessore inferiore a 10 µm è necessario adottare una lama con angolo dell’intaglio <3°.

lo di profondità virtuali Z>Zi, calcolato dalla distribuzione non cumulata (Fig. 2) per la zona e/o tonalità di grigi selezionata (area primer/coating in esame). ∆ρz =

∑ ρi ⋅ ( Z i +1 − Z i )

z ≥ zi

px è la dimensione del pixel; npx è il numero di pixel (1.440) del lato X delL’INCERTEZZA DI MISURA l’immagine, e α è l’angolo al vertice della punta impiegata per l’indentaSe l’immagine è ripresa come in zione del film spesso. Fig. 1, ossia con l’incisione orientata Nella stima dell’incertezza sono lungo il lato y della stessa immagine, considerati i contributi d’errore assoil modello della misura di spessore ciati all’analisi della distribuzione (thk) di un film depositato su una non cumulata della densità di pixel, placchetta piana, è descritto dalla alla taratura della dimensione del relazione: pixel dell’immagine e infine all’errore di forma (angolo al vertice) della thk = ∆ρz ⋅ p x ⋅ np x ⋅ tgα punta da intaglio utilizzata per l’incisione del film. A questo va aggiundove ∆ρz rappresenta il valore cumu- to un contributo dovuto alla non perlato della densità di pixel nell’interval- fetta ortogonalità tra la punta da intaglio e la superficie della placchetta in Tabella 2 – Spessore del primer determinato dall’analisi eseguita esame. Gli attrezzi su sezioni di campionamento distinte e campioni di diverso impiegati per l’intaglio spessore nominale. Indentazioni con lama da 3°. sono dotati di apposite A titolo di confronto è riportato anche lo spessore determinato dall’analisi dell’incisione rotaie d’appoggio che con oculare micrometrico consentono di ridurre sensibilmente l’errore di ortogonalità. Nel modello della misura si assume che l’intaglio sia orientato lungo l’asse y dell’immagine; nella pratica sperimentale si è osservato che l’errore di orientazione dell’intaglio è solitamente contenuto entro pochi


Tabella 3 – bilancio d’incertezza della misura di un film di spessore nominale 22 µm

nalisi dell’incisione viene effettuata dall’operatore attraverso un oculare micrometrico. Il tool descritto in queste pagine consente l’analisi automatica dell’immagine dell’incisione e determina il valore dello spessore del film. Nei test condotti su una serie di campioni si è ottenuta una buona ripetibilità e riproducibilità della misura. L’analisi richiede un’immagine che presenti un buon contrasto tra le tonalità di grigio relative alle parti incise del primer e del substrato e alla superficie della placchetta o del manufatto. Ove necessario il contrasto può essere migliorato anche attraverso la colorazione della placchetta prima dell’incisione. Criticità della metodologia si evidenziano per valori di spessore minori di 10 µm. In questo caso è necessario utilizzare una lama con angolo d’intaglio minore di 3°.

CONCLUSIONI

RIFERIMENTI BIBLIOGRAFICI

La misura dello spessore di film spessi basata sulla tecnica dell’indentazione trova tuttora largo impiego in ambito industriale. Nel campo di misura intorno alle decine di micrometri di spessore il metodo a incisione garantisce un’incertezza di misura minore o uguale al 10%. Nell’uso corrente l’a-

[1] Paint and Coating Testing Manual: 15th Edition of the Gardner-Sward Handbook,Editor: Joseph V. Koleske, ASTM, 2012. [2] European coatings handbook, T. Brock, M. Groteklaes, P. Mischke, Editor Vincentz Network GmbH & Co KG, 2000.

RINGRAZIAMENTI La ricerca è stata finanziata con il supporto del progetto PROMAME di cui ai Poli di Innovazione della Regione Piemonte. Luca Gagliardelli ha contribuito al progetto durante il suo progetto formativo/stage.

gradi con un contributo trascurabile all’incertezza della misura. Applicando al modello della misura la propagazione dell’incertezza associata ai diversi contributi si ottiene la stima dell’incertezza tipo composta e dei gradi di libertà effettivi. Nel bilancio dell’incertezza (Tab. 3) si evidenzia che il maggior contributo è dovuto all’incertezza con cui è noto l’angolo della lama da intaglio. La stima riportata in tabella tiene conto anche dell’errore di ortogonalità tra la punta da intaglio e la superficie del primer. Minore è il contributo associato alla valutazione della distribuzione delle profondità virtuali; per ∆ρz si è stimata un’incertezza relativa dell’1%, ottenuta dall’analisi delle immagini di un intaglio riprese con diverso contrasto e luminosità. La stima dell’incertezza associata alla dimensione del pixel è ottenuta dalla taratura dell’ingrandimento del sistema ottico con un micrometro oggetto. La ripetibilità è calcolata dall’analisi delle immagini riprese su cinque sezioni distinte dell’intaglio. Eventuali difetti o disomogeneità del film devono essere considerati a parte con un termine aggiuntivo, valutato singolarmente per ogni campione.

LO SPAZIO DEGLI IMP

[3] UNI EN ISO 2808: 2007 “Pitture e vernici – Determinazione dello spessore del film”. [4] DIN 50986:1979-03 Measurement of coating thickness – Wedge cut method for measuring the thickness of paints and related coatings. [5] UNI EN ISO 1463: 2006 – Rivestimenti metallici e strati di ossido – Misurazione dello spessore del rivestimento – Metodo microscopico. [6] UNI EN ISO4518: 1998 – Rivestimenti metallici – Misurazione dello spessore del rivestimento – Metodo profilometrico. [7] G. Barbato et al., A survey of STMbased methods to measure Microindentations, Proc. XII IMEKO World Congress, Torino, Sept. 5-9, 1994, volume 1, pp. 785-790. Francesco Moro è assegnista di ricerca presso la Divisione Meccanica dell’I.N.Ri.M. Si è laureato in Ingegneria Meccanica presso l’Università degli Studi di Cassino e ha conseguito il titolo di Dottore di Ricerca in Metrologia presso il Politecnico di Torino. Si occupa di misure di spessori attraverso analisi dell’immagine, di misure termiche e di pressione. È inoltre collaboratore presso il laboratorio di termometria industriale dell‘I.N.Ri.M. Gian Bartolo Picotto è ricercatore dell’Istituto Nazionale di Ricerca Metrologica (I.N.Ri.M.). Si occupa di misure dimensionali, interferometria e metrologia delle superfici. Coordina il gruppo Superfici della commissione tecnica GPS dell’UNI. Vittorio Giaccone è R&D Project Manager presso la Valeo Spa Divisione Sicurezza Abitacolo di Pianezza. Si occupa del coordinamento di progetti d’innovazione di prodotto/processo in campo Automotive. Esperto di prodotti/processi di resinatura.

T_M ƒ 153


MANIFESTAZIONI EVENTI E FORMAZIONE

2012-2013 eventi in breve 2012

20-22 GIUGNO

Sorrento, Italy

IEEE International Symposium on Power Electronics, Electrical Drives, Automation and Motion (SPEEDAM 2012)

26-29 GIUGNO

Ancona, Italy

10th Intl Conference on Vibration Measurements by Laser and Noncontact Techniques

www.aivela.org

28 GIUGNO-1 LUGLIO

Wroclaw, Poland

7th International Conference on Evaluation of Novel Approaches to Software Engineering - ENASE 2012

www.enase.org

28 GIUGNO-1 LUGLIO

Wroclaw, Poland

14th

www.iceis.org

2-4 LUGLIO

Nantes, France

ASME 2012 - 11th Biennial Conference On Engineering Systems Design And Analysis (ESDA2012)

www.asmeconferences.org/ESDA2012/index.cfm

2-5 LUGLIO

Hieres, France

6th

www.myeos.org/events/ait2012

17-20 LUGLIO

Orlando, USA

The 5th International Multi-Conference on Engineering and Technological Innovation: IMETI 2012

www.2012iiisconferences.org/imeti

21-22 LUGLIO

Dubai

2nd

www.sme-conf.com

24-27 LUGLIO

Istanbul,Turkey

ICVES ‘12: IEEE International Conference on Vehicular Electronics and Safety

http://icves2012.gsu.edu.tr

24-27 LUGLIO

Rome, Italy

7th

www.icsoft.org

28-31 LUGLIO

Rome, Italy

9th International Conference on Informatics in Control, Automation and Robotics (ICINCO 2012)

International Conference on Enterprise Information Systems - ICEIS 2012

EOS Topical Meeting on Advanced Imaging Techniques (AIT 2012)

International Conference on Smart Materials and Nanotechnology in Engineering (SMNE2012)

International Conference on Software and Data Technologies (ICSOFT 2011)

6th

http://webuser.unicas.it/speedam/ CallForPaper_Speedam2012.pdf

http://www.icinco.org

10-12 AGOSTO

Shanghai, China

The

18-20 AGOSTO

Wuhan, China

3rd International Conference on Internet Technology and Applications (iTAP 2012)

www.itapconf.org/2012

19-23 AGOSTO

Moscow, Russia

32th Progress

http://piers.org/piers/submit/survey.php

19-24 AGOSTO

Rome, Italy

CENICS 2012: The Fifth International Conference on Advances in Circuits, Electronics and Micro-electronics

www.iaria.org/conferences2012/CENICS12.html

19-24 AGOSTO

Rome, Italy

The Third International Conference on Sensor Device Technologies and Applications (SENSORDEVICES 2012)

www.iaria.org/conferences2012/SENSORDEVICES12.html

28-30 AGOSTO

Dalian, China

1st Annual World Congress of Emerging InfoTech-2012 (WCEIT-2012)

www.bitconferences.com/wceit2012

3-5 SETTEMBRE

Monopoli, Italy

Congresso GMEE 2012

www.gmee.org

3-5 SETTEMBRE

Monopoli, Italy

Congresso GMMT 2012

http://imeko2012.kriss.re.kr

9-14 SETTEMBRE

Busan, Korea

XX IMEKO World Congress

www.itsc2012.org

16-19 SETTEMBRE

Anchorage, USA

2012 International IEEE Conference on Intelligent Transportation Systems (ITSC 2012)

www.ipc-ieee.org/call-for-papers

23-27 SETTEMBRE

San Francisco, USA

IEEE Photonics Conference 2012 (IPC-2012)

http://therminic.eu/therminic2012

25-27 SETTEMBRE

Budapest, Hungary

18th

www.esars.org

16-18 OTTOBRE

Bologna, Italy

2nd International Conference on Electrical Systems for Aircraft, Railway and Ship Propulsion

International Conference on Management and Service Science (MASS 2012)

in Electromagnetics Research Symposium (PIERS)

International Workshop on Thermal Investigations of ICs and Systems

27th

www.massconf.org/2012

http://aspe.net/technical-meetings/2012-annual-meeting

21-26 OTTOBRE

San Diego, USA

ASPE

26-28 OTTOBRE

Wuhan, China

CEEE2012 - 2012 International Conference on Electronics and Electrical Engineering

www.ieee-sensors.org

28-31 OTTOBRE

Taipei, Taiwan

IEEE Sensors 2012

www.2012iiisconferences.org/iceti

2-6 NOVEMBRE

Kaohsiung, Taiwan

The 2nd International Conference on Engineering and Technology Innovation 2012 (ICETI2012)

www.ieee-smartgridcomm.org

5-8 NOVEMBRE

Tainan City, China

3rd

www.iccect.org

7-9 DICEMBRE

Shenyang, China

The International Conference on Control Engineering and Communication Technology ICCECT 2012

www.engii.org/cet2012/CEEE2012.aspx

Annual Meeting

IEEE International Conference on Smart Grid Communications (SmartGridComm 2012)

2013 15 FEBBRAIO

Barcelona, Spain

2nd International Conference on Pattern Recognition Applications and methods - ICPRAM 2013

www.icpram.org

17-18 APRILE

Torino, Italy

Affidabilità & Tecnologie - 6a edizione

www.affidabilita.eu

T_M

N.

2/12 ƒ 154


COMMENTI ALLE NORME

COMMENTI ALLE NORME: LA 17025 A cura di Nicola Dell’Arena (ndellarena@hotmail.it)

Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte terza Non conformità

La norma prescrive che il cliente deve essere informato. Se nei documenti contrattuali ciò è previsto bisogna applicarlo. Il cliente può richiedere (i) di essere semplicemente informato, o (ii) di poter prendere decisioni sulla soluzione da adottare (caso rarissimo per le prove e tarature). Su questa prescrizione non c’è nulla da precisare, vista la semplicità della sua attuazione: è necessario soltanto registrare le azioni compiute.

abbiano non conformità sui lavori effettuati. Una volta accertato ciò che è successo sui lavori precedenti, bisogna adottare azioni tra le quali l’ultima è il richiamo del lavoro e la ripetizione delle prove/tarature. Quest’azione, rarissima per un laboratorio di prova/taratura, deriva dalla ISO 9001 sulle non conformità di prodotto e di servizio, dove trova facile applicazione. Essa è anche complicata per molte tipologie di prove (ad esempio, l’analisi del pesce e degli alimenti), mentre per altre occorre avere una ridondanza degli oggetti da provare (prove sul calcestruzzo), oppure bisogna tener presente che la prova/taratura può essere stata effettuata anche sei mesi prima. Anche per questo requisito bisogna registrare tutte le azioni applicate. Due tipologie di non conformità sono pericolose sotto questo aspetto: (i) utilizzo di apparecchiatura fuori taratura e (ii) materiale di riferimento scaduto. Per la prima tipologia la soluzione di tenere sotto controllo il processo di taratura di tutta la strumentazione evita che si possa operare con strumenti fuori dai limiti di taratura. Per la seconda, il laboratorio deve prestare attenzione e operare con un programma che ricorda agli operatori la data di scadenza di tutti i materiali di riferimento e quindi agire in tempo, affinché non si utilizzino materiali di riferimento scaduti. Questi accorgimenti evitano non conformità pericolose e allontanano il requisito sul richiamo dal laboratorio.

RICHIAMO DEL LAVORO

CONTINUAZIONE DELLE ATTIVITÁ

La norma prescrive che “il lavoro sia richiamato”. Prima di effettuare questa azione bisogna valutare l’impatto che la non conformità ha avuto sui lavori precedenti, nel senso di valutare se si

La norma prescrive che “sia definita la responsabilità per autorizzare la continuazione delle attività”. Non c’è nulla da commentare: basta riportarla nel manuale e nella procedura gestionale

COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025

A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025. RIASSUNTO Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La struttura della documentazione (n. 4/2000); Controllo dei documenti e delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. /2001); Approvvigionamento e subappalto (n.3/2002 e n.1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012). ADOZIONE DI AZIONI CORRETTIVE dimensioni del laboratorio e dall’impor-

La norma prescrive l’adozione di azioni correttive, assieme a ogni decisione circa l’accettabilità dell’attività non conforme. In questo paragrafo ritorna la concezione di non conformità a cui far seguire azioni correttive. Per questo capoverso il laboratorio deve definire adeguate azioni e farle attuare. Le azioni da fare sono di due tipi: (i) per eliminare la non conformità e (ii) per prevenire che si possa ripetere nel futuro. Le due azioni possono coincidere o essere diverse e ciò dipende dalla non conformità rilevata, oppure la seconda potrebbe anche non essere effettuata. Inoltre il laboratorio deve verificare se la soluzione adottata ha dato una risposta positiva per decidere la sua accettabilità e la ripresa dell’attività di lavoro. Le responsabilità e le autorità da definire per queste dipendono dalle

tanza della non conformità. Tutte queste attività devono essere registrate. INFORMAZIONE VERSO IL CLIENTE

T_M

N.

2/12 ƒ 155


N. 02ƒ ; 2012

COMMENTI ALLE NORME

e, in seguito, documentare l’azione svolta. Si può dire, nella procedura, che la firma di fine attuazione delle azioni correttive è anche firma di autorizzazione della ripresa delle attività, ricordandosi sempre di duplicare le registrazioni. IDENTIFICAZIONE DELLE ATTIVITÀ NON CONFORMI

ratorio deve immediatamente fermare le attività di prova appena rileva una non conformità, per riprenderle una volta risolta. La sospensione prevista da ACCREDIA riguarda non conformità gravi tali da far sì che il laboratorio, per un lungo periodo di tempo, non possa effettuare le attività. La posizione di ACCREDIA è giusta e doverosa, anche se questa eventualità è evento rarissimo per un laboratorio. Per i laboratori di taratura, oltre al laconico “si applica il requisito di norma”, ACCREDIA prescrive che “il laboratorio deve prevedere azioni adeguate (ad es. sospensione delle tarature, revoca dei certificati, riemissione dei certificati, avviso ai clienti) qualora vengano riscontrati problemi sui risultati nelle tarature o nella gestione della strumentazione e dei campioni di prima e seconda linea”. Il passo è giusto, anche se le azioni da effettuare sono già tutte previste dalla norma. Questo requisito aggiuntivo precisa quando bisogna agire, e precisamente su non conformità sulla strumentazione e sui campioni di prima e seconda linea, senza precisare la gravità della non conformità rilevata. Per questi laboratori ACCREDIA prescrive altri due requisiti che, secondo me, dovevano trovare collocazione in un altro documento che regola i rapporti tra laboratorio e organismo e aggiungono poco a quanto già previsto dalla norma.

La norma, al paragrafo 4.9.1, aggiunge una nota completamente inutile e in alcuni punti confusa. Essa afferma “l’identificazione di attività non conformi o di problemi connessi al sistema di gestione o alle attività di prova e/o di taratura, può avvenire in punti differenti del sistema di gestione e delle attività tecniche. Esempi sono i reclami del cliente, la tenuta sotto controllo della qualità, la taratura della strumentazione, il controllo dei materiali di consumo, le osservazioni o la supervisione del personale, la verifica dei rapporti di prova e dei certificati di taratura, i riesami da parte della direzione e gli audit interni ed esterni”. Praticamente la nota elenca una serie di situazioni in cui si possono rilevare le non conformità. Ho detto “confusa” poiché certamente durante i riesami della direzione e gli audit interni non si riscontrano non conformità su attività di prova/taratura; inoltre, in un capitolo riguardante esclusivamente attività di prova e taratura rispuntano, come funghi velenosi, problemi connessi al sistema di gestione, cioè a NON CONFORMITÁ tutte le attività del laboratorio. RICORRENTE E DUBBI POSIZIONE DI ACCREDIA SUL PUNTO 4.9.1

Per i laboratori di prova, oltre al laconico “si applica il requisito di norma”, ACCREDIA richiede al laboratorio di dare comunicazione “in caso di attività di prova e/o taratura non conformi tali da sospendere l’attività di prova”. In questa frase le attività di taratura si riferiscono alle tarature effettuate sulla strumentazione necessaria per effettuare la prova. Bisogna precisare il significato della sospensione. Il labo-

T_M ƒ 156

Al punto 4.9.2 la norma prescrive che “quando la valutazione indica che l’attività non conforme potrebbe essere ricorrente o che sussistono dubbi circa la conformità alle proprie politiche e procedure, le procedure per le azioni correttive previste al punto 4.11 devono essere prontamente seguite”. Questo paragrafo della norma è tanto corposo quanto inutile, se riferito a non conformità relative ad attività di prova e taratura. A seguito della non conformità, il laboratorio deve adottare azioni correttive e valutare la soluzione prima d’inizia-

re di nuovo le attività. Ciò significa che la non conformità, una volta risolta, non può ripetersi, altrimenti il laboratorio ha sbagliato la soluzione. Secondo me, la non conformità si ripete a fronte di un grave errore del laboratorio e, se addirittura si ripete per la terza volta, è la prova che questo non ha effettuato alcuna azione correttiva, altrimenti è meglio che il laboratorio “cambi mestiere”… Il requisito della norma può presentarsi per le non conformità gestionali, ma con molta rarità; anche per questa tipologia di non conformità, se questa si ripete, il laboratorio ha sbagliato la prima soluzione. Il passo seguente (“quando sussistono dubbi circa la conformità alle proprie politiche e procedure”) è duro e pesante. La non conformità, per sua definizione, si è verificata o non si è verificata, esiste o non esiste: non è possibile che con un dubbio si metta in moto un processo come quello prescritto nel punto 4.11. Su questo requisito non dico nulla: se prescritto, bisogna applicarlo, anche se trovo estremamente difficoltoso capire tutta la filosofia del paragrafo. Tra i due punti della norma c’è un aspetto da far notare. Al punto 4.9.1.c) prescrive che “siano adottate azioni correttive”, mentre al punto 4.9.2 che “le procedure per le azioni correttive previste al punto 4.11 devono essere prontamente seguite”. Per una non conformità che si presenta bisogna applicare il punto 4.9, mentre per quelle che non si presentano o per quelle che ricorrono bisogna applicare il punto 4.11. Io sinceramente non avrei inserito il requisito 4.9.2 e sono propenso a eliminarlo. Cosa dovrà fare il laboratorio per rispettare questo requisito? Applicare la propria procedura gestionale che contenga i requisiti dei punti 4.9 e 4.11, l’uno la continuazione dell’altro (come si vedrà in seguito). La norma per questo punto risulta leggermente confusa e tale confusione dipende dalla non chiarezza che esiste tra non conformità sul prodotto e sul sistema e dal fatto che durante la stesura della medesima il normatore ha voluto “strafare”.


COMMENTI ALLE NORME

▲ Carlo Carobbi

Guida alla valutazione dell’incertezza delle misure EMC IEC/TR 61000-1-6

GUIDE TO THE EVALUATION OF EMC MEASUREMENT UNCERTAINTY (IEC/TR 61000-1-6) A new guide has just been published by the International Electrotechnical Committee, devoted to the evaluation of electromagnetic compatibility (EMC) measurement uncertainty: the IEC/TR 61000-1-6. The scope of the Technical Report is “to give advice to Technical Committees, Product Committees and Conformity Assessment Bodies on the development of measurement uncertainty budgets; to allow the comparison of these budgets between laboratories that have similar influence quantities; and to align the treatment of measurement uncertainty across the EMC committees of the IEC”. In this article a brief description of the content of the Guide is provided with particular emphasis on the aspects peculiar to EMC measurements. ECCONE UN’ALTRA ... Ci voleva proprio un’altra guida alla valutazione dell’incertezza di misura? Non ci bastava la GUM, con la sua introduzione e i suoi supplementi, la EA 4/02, la EA 4/16, la UKAS M3003, la NIST Technical Note 1297, la serie ISO 5725 e chi più ne ha più ne metta? No, purtroppo no, non bastano. Perché la valutazione dell’incertezza di misura non è materia dei matematici ma di coloro che fanno le misure, aiutati, se occorre, da chi è in grado di masticare e digerire una certa dose di matematica. Ma non solo. Potrei forse io, che mi occupo di misure di compatibilità elettromagnetica (EMC), spiegare a te, amico chimico, come fare la valutazione d’incertezza delle analisi chimiche quantitative? Qualora me ne intendessi più di te d’incertezza potrei raccontarti, e supportare con argomentazioni più o meno convincenti, i principi generali descritti nella GUM e la valutazione d’incertezza che da tali principi discende. Poi però, caro amico chimico, la valutazione d’incertezza delle misure chimiche te la fai da te! Non a caso esiste la EURACHEM/CITAC Guide CG 4, scritta dai chimici per i chimici. Lo stesso vale per la EMC e vi racconto qui di cosa tratta la Guida IEC/TR 61000-1-6 scritta da chi fa misure EMC per chi fa misure EMC. UNA NUOVA GUIDA SULLA VALUTAZIONE DELL’INCERTEZZA DI MISURA

È stata recentemente pubblicata una nuova Guida alla valutazione dell’incertezza di misura. Il contesto è quello delle misure di compatibilità elettromagnetica (EMC) e si tratta del Technical Report (TR) 61000-1-6 della Commissione Elettrotecnica Internazionale (IEC). La Guida è stata redatta da un gruppo di lavoro congiunto (JTF MU) formato da rappresentanti

dei due comitati della IEC che si occupano dello sviluppo e della manutenzione delle norme EMC: il TC 77 e il CISPR (Comitato Internazionale Speciale per la Protezione dai Radiodisturbi). Il TC 77 si occupa prevalentemente della normalizzazione delle prove d’immunità, il CISPR fa altrettanto per le prove di emissione. La Guida ha quindi il compito di fornire supporto per le valutazioni d’incertezza di entrambi i tipi di prove. I destinatari della Guida sono i comitati tecnici e i comitati di prodotto

T_M

della IEC, e gli organismi di valutazione della conformità (CAB), che includono anche i laboratori di prova. Il risultato che la IEC intende ottenere dall’introduzione della Guida è quello di rendere omogenei, e quindi confrontabili fra loro, i bilanci d’incertezza sviluppati sia dai comitati della IEC sia dai laboratori di prova. La Guida fornisce informazioni di base. I bilanci d’incertezza delle singole prove devono essere sviluppati dai comitati tecnici e di prodotto della IEC in base alle indicazioni fornite dalla Guida. La Guida è stata sviluppata nell’arco di tre anni e attraverso quattro incontri fra i membri della JTF MU - nominati dai comitati nazionali - che sono avvenuti a Tokyo (Giappone, Aprile 2009), Osthofen (Germania, Settembre 2009), Bochum (Germania, Settembre 2010) e Pistoia (Italia, Maggio 2011). Lo scrivente ha partecipato ai quattro incontri in rappresentanza del sottocomitato tecnico 77B Italiano. Preliminarmente alla pubblicazione del testo definitivo sono state pubblicate e sottoposte al commento dei comitati nazionali le due bozze [1] e [2]. Il testo sottoposto al voto [3] ha ricevuto il parere favorevole del 100% dei comitati nazionali. I CONTENUTI DELLA NUOVA GUIDA

Si discutono qui brevemente i contenuti della Guida evidenziandone gli aspetti di novità rispetto alle numerose guide “generaliste” sulla valutazione dell’incertezza di misura.

Università di Firenze, Dip. Elettronica e Telecomunicazioni carlo.carobbi@unifi.it

N.

2/12 ƒ 157


Le definizioni adottate dalla guida La quasi totalità delle definizioni proviene dal Vocabolario Elettrotecnico Internazionale (IEV), dal Vocabolario Internazionale di Metrologia (VIM) e dalla Guida all’espressione dell’Incertezza di Misura (GUM). Alcune definizioni sono proprie della EMC (“emission”, “emission level”, “emission limit”, “immunity”, “immunity limit”, “immunity test level”) e provengono dall’IEV. Due definizioni provengono dalla norma IEC 60359:2001, “Electrical and electronic measurement equipment - expression of performance” e sono la definizione di “instrumentation uncertainty” (poi modificata nella Guida) e di “intrinsic uncertainty of the measurand”. Da notare che la Guida assume, come nella GUM, che il misurando sia caratterizzato da un valore essenzialmente unico. Inoltre la GUM raccomanda di non usare l’aggettivo “vero” perché ritenuto ridondante. Quindi le definizioni adottate nella Guida che provengono da VIM e fanno riferimento a una molteplicità di valori veri (es. “coverage interval: interval containing the set of true quantity values of a measurand with a stated probability, based on the information available”, definizione 2.36) sono state modificate (nell’esempio rimuovendo semplicemente il termine “true”). A questo riguardo mi preme di ricordare che il termine “valore vero” fu messo al bando dopo l’uscita della GUM, nell’ormai lontano 1995. Gli acerrimi nemici del valore vero dicevano che “il valore vero non esiste” e non volevano che si parlasse, quindi, nemmeno di “errore”. Chissà come la penseranno oggi, visto che l’ed. 3 del VIM (del 2007) ammette addirittura un’infinità di valori veri e riabilita l’errore, l’errore casuale e l’errore sistematico. Spero davvero che si riesca a trovare presto un punto di compromesso convincente fra la “asciuttezza” del linguaggio della GUM e l’“abbondanza” di valori veri del VIM, magari a scapito del rigore formale ma a vantaggio dell’operatività d’impiego

T_M ƒ 158

N. 02ƒ ; 2012

COMMENTI ALLE NORME

della terminologia fondamentale delle misure. Una classificazione dei contributi d’incertezza orientata alla EMC È stata introdotta una classificazione secondo cui l’incertezza di misura (MU) è il risultato della combinazione dell’incertezza della strumentazione di misura (MIU) e dell’incertezza intrinseca del misurando (IUM). Quindi: MU = MIU + IUM La distinzione è funzionale al fatto che nelle valutazioni d’incertezza delle prove EMC non si tiene generalmente conto dell’incertezza associata all’apparecchio in prova, ma solo dell’incertezza associata alla strumentazione di misura. È quindi bene tenere chiaramente distinti i due contributi. MIU include l’incertezza associata al sito di misura (SU), ossia l’incertezza associata all’imperfezione di una camera anecoica, di una cella TEM, GTEM, di Helmholtz, ecc. Inoltre SU è stata suddivisa in incertezza associata alle imperfezioni del sito (SIU), e incertezza intrinseca del campo elettrico, magnetico od elettromagnetico (IFU), quindi: SU = SIU + IFU SU generalmente coincide con SIU in quanto il campo generato nel sito ha un’incertezza non intrinseca bensì associata, fra l’altro e di solito prevalentemente, alle imperfezioni del sito stesso. IFU è un contributo caratteristico di un particolare sito di prova (la camera riverberante), dove, al contrario, la variabilità spaziale casuale del campo è una caratteristica intrinseca e desiderata. I limiti di applicazione Nella Guida è stato precisato che il quadro teorico adottato è quello definito dalla GUM, basato sulla possibilità di applicare la legge di propagazione delle incertezze e il teorema del limite centrale. Quindi, in sostanza, il modello che lega le grandezze d’ingresso a quelle di uscita deve essere lineare, oppure linearizzabile con errore trascurabile nell’intervallo definito da migliori stime e incertezze delle grandezze d’ingresso. Inoltre non devono essere presenti contributi

d’incertezza che siano al tempo stesso non-normali e dominanti. La Guida rimanda esplicitamente al Supplemento I della GUM per la soluzione dei casi in cui le ipotesi necessarie al soddisfacimento della legge di propagazione delle incertezze e/o del teorema del limite centrale non sono verificate. I passi fondamentali da seguire per il calcolo delle incertezze Viene descritta concisamente in una tabella una sequenza di otto passi da seguire per il calcolo delle incertezze, che sono: 1. Definizione del misurando; 2. Definizione delle grandezze d’ingresso; 3. Definizione della funzione che lega il misurando alle grandezze d’ingresso; 4. Valutazione delle migliori stime e dell’incertezza delle grandezze d’ingresso; 5. Calcolo dei coefficienti di sensibilità; 6. Calcolo dei contributi all’incertezza tipo composta; 7. calcolo della migliore stima del misurando e dell’incertezza tipo composta; 8. calcolo dell’incertezza estesa. I passi da seguire sono illustrati con commenti ed esempi. Densità di Probabilità Vengono introdotte e commentate, anche con esempi, le densità di probabilità (PDF) da associare a priori alle grandezze d’ingresso. Esse sono: la PDF rettangolare, la triangolare, la gaussiana (o normale) e quella con forma a U. Nel caso della gaussiana ne viene chiarita la relazione col teorema del limite centrale (NdR: Visto che è la seconda volta che citiamo il teorema del limite centrale forse è il caso di enunciarlo: “La somma di grandezze indipendenti, qualunque siano le loro PDF, ha una PDF approssimativamente gaussiana purché le grandezze che si sommano siano sufficientemente numerose e d’incertezza quantitativamente confrontabile”…). Inoltre viene fatto cenno alle PDF associate a somma, differenza, prodotto, rapporto, quadrato e radice quadrata di grandezze gaussiane. In un esempio viene introdotta la relazione fra la gaussiana e le PDF di Rayleigh e Rice. Queste due PDF hanno particolare importanza nella EMC. Infatti le PDF di Rayleigh e Rice descrivono, rispettivamente, la variabilità del rumore e del segnale rivelati da un rice-


N. 02ƒ ;2012 η è ottenuto dalla PDF t di Student, decresce al crescere del numero delle misure N e tende a 1 per N che tende all’infinito. Le Statistiche Campionarie Nella Guida viene dato ampio spazio al problema della stima della media e dello scarto tipo quando, come accade frequentemente nella EMC, si dispone di un piccolo insieme di dati misurati. Si assume la PDF gaussiana per la grandezza misurata. Conversione fra Grandezze Lineari e Logaritmiche e viceversa Nell’EMC si fa continuamente uso di grandezze logaritmiche. Viene illustrata la conversione delle PDF relative a intensità e potenza di un campo vettoriale da unità lineari a logaritmiche e viceversa. Si assume una PDF gaussiana per le componenti in fase e in quadratura del campo vettoriale. Inoltre viene discussa la conversione nel caso di una grandezza scalare con PDF rettangolare. Applicazione delle incertezze Viene mostrata l’applicazione del concetto d’incertezza al problema del confronto fra il risultato di una taratura e la tolleranza ammessa per la grandezza oggetto della taratura. Il problema esaminato è particolarmente rilevante per la EMC in quanto con-

sidera: a) il caso in cui l’incertezza di taratura della grandezza è paragonabile con la tolleranza e la tolleranza è stata definita non tenendo conto dell’incertezza di misura, b) i casi in cui si applica oppure non si applica una correzione. Allegati con esempi Vengono esaminate in dettaglio le valutazioni d’incertezza di una prova di emissione radiata e di una prova d’immunità radiata.

Carlo Carobbi è ricercatore presso il Dipartimento di Elettronica e Telecomunicazioni dell’Università di Firenze. Si occupa di misure di compatibilità elettromagnetica e, più in generale, di misure a radiofrequenza. È attualmente presidente del SC 77B del CEI (compatibilità elettromagnetica fenomeni impulsivi), rappresenta l’Italia nel TC 77 della IEC (MT 12), collabora con Accredia in qualità d’ispettore tecnico.

BUONA GUIDA A TUTTI

Alla fine di ogni lavoro è d’obbligo un consuntivo. Sono convinto che la Guida sia un buon documento e sarà utile alla comunità EMC, anche se la voglia di apportarvi modifiche, anche sostanziali, è tanta, sia da parte mia che (ne sono sicuro) dei colleghi con cui ho collaborato per la sua stesura. Penso infatti che esistano ampi margini di miglioramento sulla coerenza interna e il rigore formale della Guida. Inoltre la valutazione d’incertezza nell’ambito della EMC è in rapida evoluzione: negli anni in cui la Guida veniva scritta sono stati affrontati nuovi problemi di valutazione d’incertezza (in particolare per quanto riguarda le prove d’immunità) e sviluppate le relative soluzioni. Tuttavia, adesso, calma e gesso, vediamo la Guida all’opera e incoraggiamone un uso critico e costruttivo. RIFERIMENTI BIBLIOGRAFICI

[1] IEC 77/381/CD, “IEC 61000-1-6 Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General – Guide to the assessment of measurement uncertainty”, 2009-11-20. [2] IEC 77/388/CD, “IEC 61000-1-6 Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General – Guide to the assessment of measurement uncertainty”, 2010-11-19. [3] IEC 77/397/DTR, “IEC 61000-16 Ed. 1: ELECTROMAGNETIC COMPATIBILITY (EMC) – Part 1-6: General – Guide to the assessment of measurement uncertainty”, 2011-06-03.

NEWS

vitore radio. Nel caso della PDF di forma a U ne viene spiegata l’origine che, in ambito EMC, è legata alla correzione per disadattamento. Valutazioni di categoria A e B Sono ampiamente discusse le due valutazioni d’incertezza introdotte dalla GUM e dette di categoria A e di categoria B. Nel caso della valutazione di categoria A è introdotta una modifica rispetto alla GUM per eliminare il ricorso alla formula di WelchSatterthwaite, che complica inutilmente i bilanci d’incertezza e che dà luogo, in casi importanti, a risultati che vanno contro il buon senso. Nella Guida viene impiegata, per la valutazione di categoria A, un’incertezza tipo u aumentata del fattore η > 1 rispetto allo scarto tipo sperimentale s, ossia: u = η⋅s

COMMENTI ALLE NORME

STRISCE DI MISURA PER LE VARIAZIONI RAPIDE DI PRESSIONE

I tradizionali sensori di pressione spesso non sono in grado di eseguire la misurazione di variazioni di pressione grandi e rapide. Per questi compiti si rivelano invece particolarmente adatte le strisce di misura della pressione PMS40 recentemente presentate da HBM, specialista in tecnica di misurazione. Le strisce di misura della pressione consistono in una griglia di misura in manganina, la cui resistenza varia a seconda della pressione. In virtù della loro massa estremamente ridotta rispetto ai sensori di pressione tradizionali, consentono di misurare anche i segnali di pressione transitori con tempi di salita di 50 ms e picchi di pressione molto elevati fino a 10 kBar. Le strisce sono ideali anche per le misurazioni ad alta dinamicità delle onde di pressione nei fluidi. Trovano tipica applicazione nell’analisi delle onde d’urto generate in seguito a un’esplosione o nelle applicazioni a ultrasuoni. Insieme al sistema di registrazione dati Genesis HighSpeed e al software Perception, HBM offre una catena di misura completa indispensabile per queste operazioni di misura. Per ulteriori informazioni: www.hbm.com

T_M ƒ 159


T U T T O _ M I S U R E Anno XIV - n. 2 - Giugno 2012 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Paolo Carbone, Carlo Carobbi, Alfredo Cigada, Domenico Grimaldi, Claudio Narduzzi, Marco Parvis, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Giuseppe Nardoni Le pagine degli IMP: Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla), CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Elio Bava, Flavio Galliana, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli) Videoimpaginazione: la fotocomposizione - Torino Stampa: La Grafica Nuova - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/5/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 36 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 66 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.

NEL PROSSIMO NUMERO • • • E

Il tema: TRV Prove e Tarature Misure su componenti ottici Visione Industriale molto altro ancora

T_M

N.

ABBIAMO LETTO PER VOI

La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)

MEASURE WHAT MATTERS – ONLINE TOOLS FOR UNDERSTANDING CUSTOMERS, SOCIAL MEDIA, ENGAGEMENT, AND KEY RELATIONSHIPS di Katie Delahaye Paine J. Wiley & Sons 254 pagine ISBN 9780470920107: € 18,45 (amazon.com), 2011

Se gli unici numeri a cui siete davvero interessati sono i ricavi e i profitti, non riuscirete mai a capire veramente che cosa li fa aumentare o diminuire. Volete sapere che cosa gli altri pensano di voi? Volete sapere come queste opinioni influenzano le vostre vendite? Questo è il libro per voi. Oggi, anche le realtà più piccole possono seguire e misurare i rapporti con i clienti, con i media, e perfino con i dipendenti e i commerciali. Il libro fornisce il know-how necessario per trovare questi strumenti e per utilizzarli al meglio per incrementare i vostri profitti. L’autrice è l’editore del “KDPaine Measurement Blog” e della “The Measurement Standard”, rispettivamente il primo blog e newsletter per professionisti del marketing dedicato interamente a misura e responsabilità. Negli ultimi due decenni è stata consulente apprezzata di misure delle più importanti società quali SAS, Raytheon e Cisco.

LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AEP Transducers p. 82 Aviatronik 4a di cop. Bocchi p. 90 CAM 2 p. 96 CCIAA di Prato p. 116 Cibe p. 112 Coop. Bilanciai Campogalliano p. 102 Danetech p. 118 Delta Ohm p. 92 DGTS p. 108 HBM p. 106-120-125-159 Hexagon Metrology p. 114 IC&M p. 128 Instrumentation Devices p. 96-110

2/12 ƒ 160

Kistler Italia p. 104-136 Labcert p. 86 LMS Italiana 2a di cop.-122 LTTS p. 84 Luchsinger p. 96-102-126 Mitutoyo Italiana p. 81 PCB Piezotronics p. 130 Physik Instrumente p. 126 QTech p. 126 Renishaw 3a di cop. Rupac p. 99-101 Studio Lanna & Associati p. 134 Vision Engineering p. 116 Wika Italia p. 122



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.