14 - Notizie dalla Commissione

Page 1

Anno VI, n. 1 - aprile 2016

Ingegneria dell’informazione

Notizie dalla Commissione

14

IN EVIDENZA PROFESSIONE 4

Le opportunità della illuminazione a LED

INNOVAZIONE

6

Innovazione e tecnologia Italiane, workshop all'ASI di Roma

STORIA e CULTURA 8

L’astrofotografia amatoriale e l’ingegneria

Commissione ingegneria informazione


Ingegneria dell’informazione Notizie dalla commissione

Foglio informativo curato dalla Commissione dell’Ingegneria dell’Informazione dell’Ordine degli Ingegneri di Pavia. Ingegneria dell’informazione - Notizie dalla commissione è una pubblicazione non periodica e non può, pertanto, considerarsi un prodotto editoriale ai sensi della legge n.62 del 7 marzo 2001.

Ing. Christian Cucculelli Coord. Commissione Ingegneria dell’Informazione

Uffici c/o Ordine degli Ingegneri di Pavia, Via Indipendenza 11, 27100 PAVIA.

Siamo convinti che la condivisione di idee e di progetti sia la via giusta per

Contatti Segreteria Ordine degli Ingegneri di Pavia Tel: 0382.22070 Fax: 0382.530478 E-Mail: contatti@ording.pv.it PEC: ordine.pavia@ingpec.eu

Referente notiziario:

creare valore attorno alle eccellenze del territorio e riteniamo che proprio la figura dell’ingegnere, per la sua trasversalità, la sua propensione all’innovazione e la capacità di approcciare con estro anche le situazioni più complesse, sia tra coloro che godano di una posizione di vantaggio per poter fare ciò.

Ing. Christian Cucculelli mail-to: christian.cucculelli@gmail.com

Nel corso dell’ultimo anno si è lavorato intensamente per cercare un ruo-

Coordinatore della Commissione:

lo attivo sul territorio e, in un contesto che sta vivendo un particolare mo-

Ing. Christian Cucculelli mail-to: christian.cucculelli@gmail.com

mento di fermento, l’attività di formazione professionale si è rivelato un ottimo catalizzatore di questo processo di condivisione e confronto. Grazie alla formazione professionale stanno nascendo opportunità con-

crete e solide di collaborazione con le diverse realtà del territorio, a partire dal polo tecnologico fino ad arrivare all’università, passando per la camera di commercio. Quella che fino a pochi mesi fa veniva vissuta come una forzatura per il sistema ordinistico stesso - la formazione, appunto - si è trasformata in una stimolante e inattesa opportunità. Proseguiremo pertanto nel consolidare e ampliare le relazioni sul territorio, forti di una partecipazione dei colleghi sempre più ampia, tanto alle iniziative esterne proposte quanto alla vita ordinistica.

Christian Cucculelli

Indice 3

A Savona con il Comitato Italiano ingegneria dell’Informazione

6

Innovazione e tecnologia italiane: workshop all'ASI di Roma

3

La rete ci suggerisce con intelligenza

7

Cinquant’anni con i bit

4

Le opportunità dell’illuminazione a LED

8

L’astrofotografia amatoriale e l’ingegneria


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

A Savona con il Comitato Italiano Ingegneria dell’Informazione INGEGNERIA DELL’INFORMAZIONE

mentale che si concluderà entro il mese di luglio (rif. Circolare CNI 683/16): su questo fronte sarà importante capire se e come le recenti norme UNI-11506 (includendo le nuove parti della UNI 11621) verranno inserite tra i profili certificabili.

Sopra - Savona, il Museo All About Apple, nato l’11 Maggio 2002, è attualmente il più fornito museo Apple del mondo contenente praticamente quasi tutta la produzione di personal computer, periferiche, accessori, prototipi Apple dagli albori del 1976 fino ai giorni nostri. Nel catalogo del museo sono contenuti più di 7.000 pezzi, tra cui 987 personal computer apple e 142 non-apple (cfr. http://www.allaboutapple.com/).

La rete ci suggerisce con intelligenza

LE COMMISSIONI

L

’ordine di Savona ha organizzato una quattro giorni completamente dedicata all’ICT e all’ingegneria. Dal 5 all’8 aprile si svolgerà la manifestazione Riviera Engineeering Days - RED 2016 di C. Cucculelli - che vedrà la partecipazione di numerosi professionisti e operatori del settore. Obbiettivo comune è il riconoscimento della centralità dell’innovazione tecnologica per il rilancio del territorio: diversi gli argomenti che verranno affrontati nella quattro giorni savonese, da “L’ingegnere per l’uomo e il territorio” a “L’ingegneria del turismo per la crescita del territorio”, passando per “Gli attori del Cloud”. La giornata di venerdì 8 aprile, invece, vedrà coinvolto il Comitato Italiano per l’Ingegneria dell’Informazione, con il convegno intitolato “Il ruolo dell’ICT nello sviluppo delle reti intelligenti di energia ”: un’occasione d’incontro che anticipa la riunione dei delegati C3I prevista per il giorno successivo. Sarà questa l’occasione per fare il punto con i colleghi degli altri ordini provinciali sulle attività che il comitato stesso sta portando avanti: nel corso degli ultimi mesi, infatti, sono stati avviati diversi gruppi di lavoro, ognuno focalizzato su un argomento particolare. Tra i temi che dovranno essere indirizzati c’è sicuramente quello della certificazione volontaria delle competenze Cert-Ing, che vede in questi giorni l’avvio di una fase speri-

INGEGNERIA DELL’INFORMAZIONE

S

pesso avvolti da un certo alone di mistero, gli online recommender system (di seguito RS) apprendono dai nostri comportamenti di navigazione sul web e propongono, in modo completamente di C. Cucculelli automatico, articoli e informazioni che possono essere di nostro interesse. I suggerimenti che questi strumenti propongono sono relativi a diversi processi decisionali degli utenti e ci indicano ad esempio quali oggetti acquistare, quale brano ascoltare o quale notizia online leggere: quanto più questi strumenti sono precisi e veloci, tanto più gli utenti ne fanno uso per compiere le proprie scelte. Questo fenomeno fa sì che gli RS ricoprano un ruolo strategico fondamentale per tutte quelle aziende che vogliono offrire ai propri utenti una user experience “su misura” - si pensi ad esempio a piattaforme quali Amazon, Netflix o YouTube - e chiedono enormi investimenti in ricerca e sviluppo. Alla base di queste tecnologie si celano spesso algoritmi e tecniche di apprendimento automatico, dagli alberi decisionali alle reti neurali e ai classificatori probabilistici.

Lo scorso 26 febbraio l’Ing. Marco Piastra ha tenuto un interessantissimo seminario, intitolato “L’intelligenza artificiale nei sistemi web che apprendono da noi ”, in cui si sono esplorati i meccanismi di base e i principi di funzionamento di questi sistemi.

3


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

Le opportunità dell’illuminazione a LED

PROFESSIONE

N

4

el seminario ‘Luce e Led’, organizzato dalla Commissione Informatica dell’ordine degli Ingegneri di Pavia lo scorso anno, in collaborazione con di G. Faravelli R. Frongillo Beghelli S.p.a. , il relatore Renato Frongillo - Responsabile per la Formazione dell’Accademia Beghelli - ha illustrato l’utilizzo della tecnologia a Led per gli impianti di illuminazione nella ‘smart home’, di cui si richiamano i principali concetti esposti. La tecnologia a LED ad alta efficienza e ottiche calibrate prevede prestazioni ed illuminamenti adeguati ad ogni ambito applicativo, garantendo un forte risparmio energetico. L’emissione luminosa avviene quando la struttura allo stato solido è attraversata da una corrente continua (DC). Il tipo di cristallo utilizzato è diviso in due sezioni (o regioni): una con eccedenza di elettroni e una con un deficit. Quando viene applicata una tensione ai due estremi, gli elettroni passano attraverso la giunzione tra le due regioni, generando luce. La luce prodotta è senza emissione frontale di calore, a differenza delle altre tipologie di lampade, e il calore generato dalla resistenza elettrica dei conduttori viene dissipato meccanicamente nella parte posteriore del modulo. I LED sono tra le più piccole fonti di luce disponibile e sono molto sensibili alla temperatura; pertanto, dovendo essere raffreddati, sono montati su un dissipatore metallico. La luce bianca può essere creata mediante la miscelazione additiva di luce rossa, verde e blu (RGB). La produzione di luce bianca per somma di colori avviene generalmente mediante una serie di diodi; quando questi tre colori sono combinati tra loro il risultato può essere luce bianca. Il metodo più diffuso per produrre luce bianca si basa sul principio di conversione luminescente, come per le lampade fluorescenti. Il funzionamento del LED avviene mediante un “driver elettronico” (o sistema di alimentazione), anche dimmerabile, che fornisce le corrette condizioni di funzionamento. Il singolo diodo è spesso raggruppato con altri in lampade o moduli per fornire un “pacchetto lumen” maggiore. Lampade e moduli sono ormai disponibili in svariati formati e dimensioni. Per sfruttare i vantaggi e pregi della nuova tecnologia è necessario porre particolare attenzione sia alla progettazione ottica sia alla progettazione termodinamica degli apparecchi. Per la progettazione ottica si procede con la determinazione delle caratteristiche fotometriche e successivamente occorre una analisi del comfort visivo e del design globale del prodotto, mantenendo come obiettivo primario la ricerca della massima efficienza dell’apparecchio e dell’impianto. La luminosità emessa da una sorgente Led è puntiforme, direzionale e con elevate intensità di campo. Per garantire nel tempo il mantenimento delle prestazioni fotometriche si deve tener conto del calore emesso dal LED; pertanto i dissipatori assumono una importanza fondamentale nel controllo della temperatura dell’apparecchio e vanno calcolati in

considerazione del calore sviluppato e della sua diffusione su ogni singolo componente. La principale criticità di tale tecnologia è il confort visivo: l’elevato valore di luminosità emesso dal LED, che nelle condizioni di installazioni più critiche può essere fino a 100 volte superiore a quella delle sorgenti tradizionali, è il responsabile dell’abbagliamento. Nel caso di apparecchi per illuminazione di ambienti in cui le persone sono presenti ad operare per lungo tempo, questo elemento diventa discriminante e condiziona la scelta dell’apparecchio da installare. Per ottenere una drastica riduzione dei valori di luminanza ci sono varie soluzioni tecnologiche che consentono di distribuire la quantità di flusso emessa dalla sorgente luminosa su superfici più ampie, anche con sistemi di schermature della sorgente. E’ molto importante nel caso di ambienti ad uso uffici, o dove si rimane per lungo tempo, l’utilizzo di apparecchi con ottiche a basso indice di abbagliamento (UGR<19). Per l’illuminazione dei posti di lavoro (sia in interni sia in esterni) sono di riferimento le norme UNI EN 12464-1 e 2. La norma UNI EN 12464 “Luce e illuminazione – Illuminazione dei posti di lavoro – Parte 1: Posti di lavoro in interni” (che ha sostituito la UNI EN 10380 “Illuminazione di interni con luce artificiale”) specifica i requisiti di illuminazione per persone in posti di lavoro in interni, che corrispondono alle esigenze di comfort visivo e di prestazione visiva di persone, aventi normale capacità oftalmica (visiva). Il comfort visivo, il rendimento visivo e la sicurezza sono i principali fattori considerati nella UNI EN 12464-1: una illuminazione ben equilibrata è necessaria per aumentare l’acutezza visiva, la sensibilità al contrasto e l’efficienza della funzione oculare. Tra i parametri considerati per determinare l’ambiente luminoso ci sono la distribuzione dell’illuminazione, la direzione della luce che illumina gli spazi interni, la variazione della luce (livelli e colori della luce) e l’abbagliamento. Le fonti luminose brillanti possono causare abbagliamento. Ciò si può evitare mediante una adeguata schermatura delle fonti luminose o un oscuramento della luce diurna , ad esempio mediante le tende. Inoltre è necessario selezionare, posizionare e disporre i punti luce per evitare i riflessi nelle postazioni che comportano l’uso di videoterminali favorendo la corretta lettura dello schermo, dei fogli di carta e del testo impresso. La norma UNI EN 12464-Parte 2; “Posti di lavoro in esterno” specifica i requisiti illuminotecnici per garantire sufficienti livelli di comfort visivo e prestazione visiva ai lavoratori che svolgono la loro opera in ambienti esterni. Il corretto funzionamento dei LED, le loro prestazioni e la loro vita, sono strettamente condizionati dalla temperatura di esercizio. A fronte di una maggiore efficienza in rapporto al flusso emesso ed alla potenza consumata, i LED localizzano il calore prodotto in un solo punto: la giunzione. Lo smaltimento del calore prodotto dalla giunzione del componente rappre-


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

caratteristiche dell’alimentatore dipendono in primo luogo dalle specifiche della sorgente luminosa che si desidera alimentare. Viceversa il comportamento degli stessi LED in termini di efficienza, vita e resa cromatica dipendono strettamente dalle caratteristiche dell’alimentatore scelto. Gli alimentatori si distinguono in due categorie: - a corrente costante; - a tensione costante; La curva Tensione / Corrente di un LED dimostra che il legame tra queste due grandezze è di tipo esponenziale, ossia superata una certa soglia, a piccolissimi incrementi di tensione corrispondono alte variazioni di corrente. Ne consegue che per ottimizzarne il funzionamento, ossia per garantire che si operi sempre nello stesso punto di lavoro, è fondamentale pilotare il singolo LED a corrente costante. Di tali considerazioni ne deriva che per alimentarne un singolo o un insieme di LED con alimentatore a tensione costante è necessario inserire in ogni strip un driver o, più semplicemente, una resistenza ben dimensionata per controllare la corrente che attraversa in ciascuno . Tipicamente gli alimentatori inseriti all’interno di apparecchi luminosi ad alta efficienza sono a corrente costante, il che permette una progettazione più semplice del circuito, costi più bassi e migliori efficienze in termini di Im/W. I Lumen uscenti dall’apparecchio dipendono dalla corrente di alimentazione. Vanno però tenuti in considerazione diversi aspetti, quali ad esempio la riduzione dell’efficienza e della vita del LED all’aumentare della corrente, per via dell’aumento di temperatura di giunzione. Ed è per questo che ad un sovra-pilotaggio del LED potrebbe rendere necessario un miglioramento della dissipazione. Tensione e Corrente di uscita non sono gli unici parametri da valutare durante la scelta o la progettazione di un alimentatore, ve ne sono altri legati alla sicurezza, alla vita della sorgente luminosa e dell’alimentatore stesso, all’ottimizzazione delle prestazioni ed al risparmio energetico. Il risparmio energetico consiste nel diminuire la luce emessa quando non serve, riducendo i consumi attraverso tecniche di “dimmerazione “. Il controllo della corrente in uscita da parte dell’alimentatore influenza le prestazioni della sorgente luminosa. Per ottimizzare tali prestazioni si utilizza la modulazione della corrente in uscita (PWM Pulse Width modulation). I diodi possono essere regolati in continuo fino al loro 0% del loro flusso luminoso utili. La qualità (cioè colore della luce), la resa del colore e la durata, non vengono compromesse. Nella modulazione di larghezza di impulso la luminosità viene attivata e disattivata in modo digitale con frequenza elevata. L’occhio umano non riesce a percepire quest’alternanza. Con “fasi off” più brevi la luce del LED aumenta e “fasi off” più lunghe si riduce. La vita di un alimentatore è legata al tasso di rottura per eventi casuali e non prevedibili e può essere espresso come il tempo medio intercorso tra rotture (MTBF Mean Time Between Failures). Si può pertanto concludere che negli apparecchi di illuminazione più affidabili, i valori di MTBF arrivano ad oltre 65.000 ore.

PROFESSIONE

senta il problema principale da risolvere. A tale scopo per la progettazione dell’apparecchio devono essere impiegati specifici software ed esperti conoscitori della complessità del problema. Approssimativamente un LED converte in flusso luminoso 1/3 dell’energia assorbita, di cui i 2/3 sono trasformati in calore (per confronto, una sorgente CFL converte in luce solo un valore prossimo al 20%). A differenza delle altri sorgenti, la luce prodotta con tale tecnologia è priva delle componenti IR e dunque tutto il calore deve essere smaltito per dissipazione. Nelle simulazioni devono essere valutate le proprietà conduttive dei materiali che costituiscono il package (tipicamente ceramica, plastica, alluminio) e devono essere considerate le superfici e i punti di contatto al substrato. Anche le possibili diverse tipologie di fosfori impiegati possono modificare il profilo termico di componenti per altri aspetti identici. Una buona progettazione termica deve portare a delle condizioni di lavoro ideali per garantire un mantenimento dell’80% del flusso luminoso oltre le 50.000 ore di esercizio. Il dimensionamento dei dissipatori e delle zone di trasporto del calore dalla sorgente luminosa alle singole alette di dispersione, devono quindi essere opportunamente progettate in modo da garantire una condizione di lavoro idonea al mantenimento delle caratteristiche illuminotecniche e una vita elevata del prodotto. Se teoricamente una sorgente LED può assicurare il funzionamento per anche oltre 100.000 h., lo farà riducendo via via le proprie prestazioni fino a raggiungere una soglia di accettabilità oltre la quale la sua prestazione risulterà insufficiente. Non tutti i LED sono destinati ad un lento, costante decadimento: statisticamente è dimostrato che una frazione della popolazione si guasterà. Recentemente la pubblicazione IEC 62717 ha cercato di standardizzare se non i parametri secondo i quali indicare la vita, almeno il metodo di determinazione. Mutuando dallo standard LM-80 (standard IES) ha stabilito che la vita si debba esprimere secondo l’indicazione LxBy dove: - Lx rappresenta la quota di flusso residua garantita al tempo indicata (es. L80 60.000 h. indica un residuo di flusso del 80% allo scadere delle 60.000 h. di funzionamento) - By rappresenta la frazione di LED che compongono il modulo LED che non raggiungeranno, per rottura precoce o per maggior degrado, la quota di flusso indicata in L. Questi valori sono espressi in funzione della temperatura di giunzione a cui operano nel prodotto. Sono disponibili dati sperimentali stimabili in migliaia di ore “reali” sulle sorgenti di prima tecnologia; i nuovi prodotti tecnologicamente più avanzati rappresentano senza dubbio un miglioramento della situazione precedente: con LED sottoposti ad almeno 9/10 mila ore di test si può giungere a proiezioni di vita di più di 50.000 h. Inoltre occorre ricordare che il modulo della sorgente luminosa rappresenta solo una parte del prodotto, ma non necessariamente il componente più critico. Unitamente all’attenzione che si deve porre al prodotto, si deve anche prestare attenzione alla stima di vita dichiarata ed alle caratteristiche di robustezza ed affidabilità delle altre parti, in particolare al modulo di alimentazione (LED Driver) associato. La scelta degli alimentatori acquista una importanza basilare all’interno di un apparecchio di illuminazione a LED. Le

5


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

Innovazione e tecnologia italiane: workshop all'ASI di Roma

INNOVAZIONE

N

6

ei giorni 18-20/01/2016 l’Agenzia Spaziale Italiana (ASI) ha organizzato a Roma “La Componentistica Nazionale per lo Spazio: stato dell’arte, sviluppi e prospettive”, primo workdi di U. C. Gatti Canobbio shop nazionale dedicato a questo tema. L'ASI, nata nel 1988 fornisce un coordinamento unico agli investimenti che l'Italia ha dedicato al settore fin dagli anni '60. E' un ente pubblico nazionale che dipende dal MIUR e si è affermata come uno dei più importanti attori mondiali sulla scena della scienza spaziale, delle tecnologie satellitari, dello sviluppo di mezzi per esplorare il cosmo. L'ASI ha oggi un ruolo di primo piano tanto a livello europeo, dove l'Italia è il terzo paese che contribuisce maggiormente all'Agenzia Spaziale Europea (ESA), quanto a livello mondiale. Infatti, uno dei progetti più significativi in collaborazione con la NASA è la costruzione della Stazione Spaziale Internazionale (ISS). Oggi però lo spazio non è più solo un innovativo settore di ricerca, ma è anche un'importante opportunità economica. Ad esempio il mercato delle telecomunicazioni e della navigazione satellitare è in continua espansione, e l'ASI opera perché l'Italia sia pronta a coglierne le opportunità. Il workshop, destinato alla comunità industriale e scientifica italiana, si inserisce in questo filone ed ha avuto l’obiettivo di mappare lo stato della componentistica elettrica, elettronica ed elettromeccanica (EEE) nazionale attualmente o potenzialmente utilizzabile per lo spazio. La componentistica è una parte essenziale, talora maggioritaria, di tutti i sistemi spaziali, anche in termini economici. Il workshop ha avuto 280 iscritti, 42 presentazioni articolate in 6 sessioni tematiche e 22 espositori. Il presidente dell’ASI, Roberto Battiston, ha fatto ‘gli onori di casa’ ed ha sottolineato tre temi chiave: autonomia, eccellenza e filiera. L'idea di base è che, per mantenere la leadership che l’Italia ha – con Francia e Germania - nelle attività spaziali europee, siano indispensabili continui investimenti sia governativi che privati negli sviluppi tecnologici da realizzarsi in Italia (o almeno in Europa), anche per fronteggiare le attuali e future restrizioni nell'approvvigionamento e nell'utilizzo di componentistica proveniente da oltre oceano. Un esempio recente di "tecnologia italiana" è stato illustrato nel corso di una presentazione da parte di LFoundry, una silicon foundry (azienda fornitrice di componenti integrati) sita ad Avezzano (AQ) ed attiva soprattutto nel settore dei sensori di immagine, che si sta recentemente proponendo nel mercato spazio e che potrebbe rendere indipendente il nostro paese da fornitori esteri di dispositivi. Per perseguire l'obiettivo di eccellenza i partecipanti provenienti dal mondo industriale hanno avuto modo di confrontarsi con i principali interlocutori del mondo dell'Università e della ricerca (CNR, INFN, INAF, ecc.), che eseguono una fondamentale opera di scouting tecnologico. In questo settore, tra gli hot-topics dal mondo accademico si possono citare la silicon photonics, usabile per le interconnessioni ottiche ad altissimo data-rate non solo nei data center ma in

futuro anche nei sistemi on-board satellitari, ed i compositi di grafene che potrebbero permettere la costruzione di veicoli spaziali che riescono ad autoalimentarsi. Anche lo scrivente (di RedCat Devices, Milano) ha avuto modo di illustrare i più recenti risultati della ricerca sulla componentistica integrata in tecnologia CMOS resistente alle radiazioni, già parzialmente presentati nel corso del seminario tenuto il 23 Ottobre 2014, presso l'Ordine degli Ingegneri della Provincia di Pavia. Tale metodologia di progetto è definita con il termine Rad-Hard-By-Design (RHBD) e consente di ottenere ottime performance pur utilizzando tecnologie di fabbricazione standard, disponibili anche nel nostro paese. Infine, con il fine di rafforzare la filiera nazionale, ai partecipanti, appartenenti ad un ampio e variegato ventaglio di aziende produttrici ad alto valore aggiunto non solo in ambito aerospaziale (dalla PMI alla grande azienda), è stata offerta l'occasione per la creazione di un “network” stabile sulla componentistica per lo spazio, in grado di stimolare possibili sinergie. Il workshop è stato anche una formidabile occasione di confronto tra figure professionali diverse sia per background (fisici, astronomi, ingegneri, ecc.) sia per ruolo (funzionari delle istituzioni, dipendenti di piccole, medie e grandi aziende, scienziati, professionisti del settore). Il workshop di Roma è stato un punto di arrivo di un lungo lavoro di preparazione da parte di ASI, ma anche un punto di partenza per nuove iniziative tra le quali auspicabilmente una nuova edizione il prossimo anno.

L'Agenzia Spaziale Italiana è nata nel 1988, per dare un coordinamento unico agli sforzi e agli investimenti che l'Italia ha dedicato al settore fino dagli anni Sessanta. Grazie all'attività dell'ASI, la comunità scientifica italiana ha ottenuto negli ultimi decenni successi senza precedenti nel campo dell'astrofisica e della cosmologia, contribuendo tra l'altro a ricostruire i primi istanti di vita dell'Universo, compiendo passi fondamentali verso la comprensione del fenomeno dei gamma ray bursts e delle misteriosi sorgenti di raggi gamma. L'ASI ha dato inoltre importanti contributi all'esplorazione spaziale, costruendo strumenti scientifici che hanno viaggiato con le sonde NASA ed ESA alla scoperta dei segreti di Marte, Giove, Saturno. E in tutte le principali missioni pianificate per i prossimi anni - da Venere alle comete, fino ai limiti estremi del nostro Sistema solare - ci sarà un pezzo di Italia. Oggi però lo spazio non è solo più uno straordinario settore della ricerca. E' anche un'importante opportunità economica. Il mercato delle telecomunicazioni e della navigazione satellitare - solo per citare un campo applicativo - è in continua espansione e l'ASI, con la sua esperienza nella costruzione messa in orbita di satelliti, opera perché l'Italia sia pronta a coglierne le occasioni. (fonte: http://www.asi.it/it/agenzia/che-cose-lasi)


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

I

l mondo degli informatici è generalmente percepito da chi è fuori dalla professione come una sorta di club esoterico i cui membri parlano e scrivono di cose incomprensibili con un linguaggio per soli iniziati i cui di M. C. Spada interessi appaiono lontani dalla vita dei comuni mortali. Ma, a volte, anche nel nostro ambiente può capitare di imbattersi in scritti che risultino di lettura scorrevole e gradevole come mi è successo qualche tempo fa mentre inseguivo alcuni miei ragionamenti che accompagnavo con le ormai consuete ricerche in Internet. Si tratta di un libro al quale per questo articolo ho rubato il titolo - Cinquant’anni con i bit – sottotitolato “Piccole storie personali nell’era informatica” scritto dal prof. Ing. Pierluigi Ridolfi qualche anno fa (2007). Già nella prefazione si assapora il gusto di una storia che non può che essere affascinante, Ridolfi, si presenta così: «Mi sento uno degli ultimi testimoni di una fase eroica, che ha visto nascere l’informatica in Italia e ne ha poi contribuito all’espansione.» dopo averci detto che iniziò a lavorare con i calcolatori nel lontano 1957 in occasione della preparazione della sua tesi di laurea. Ridolfi ci racconta alcuni episodi della sua vita professionale, che dal termine degli studi al 1994 si è svolta in IBM, essendo così testimone dell’evoluzione che ha attraversato l’informatica a partire dagli anni delle prime applicazioni commerciali fino alla prima diffusione di Internet. Successivamente ha continuato l’attività nel settore informatico come consulente e ha ricoperto importanti incarichi governativi, nominato prima dal consiglio dei ministri Componente dell’Autorità per l’Informatica nella Pubblica Amministrazione (AIPA) e successivamente Presidente della “Commissione interministeriale per l’impiego delle tecnologie ICT per le categorie deboli e svantaggiate” e Presidente della “Commissione interministeriale per la gestione telematica del flusso documentale e dematerializzazione”. La lettura del libro scorre veloce sia perché si tratta fondamentalmente di una storia che si sviluppa in brevi episodi, sia per la scelta dell’autore di dedicare agli aneddoti e ad alcuni approfondimenti uno spazio a parte nella forma di “schede” (brevi capitoli) inserite in fondo al testo a guisa di appendice. Vi voglio citare alcuni passi che ho trovato particolarmente divertenti: all’inizio della sua attività operò su un calcolatore, l’IBM modello 650, che aveva a disposizione 2.000 “voci di memoria”. Sì avete letto bene, allora non si parlava ancora di byte o “parole” bensì di “voci” e queste non erano rappresentazioni di numeri binari, ma erano rappresentazioni di numeri decimali di dieci cifre ciascuno che potevano contenere tanto delle istruzioni quanto dei dati (architettura di Von Neumann). Il formato delle istruzioni impiegava le prime due cifre (posizioni) per il codice operativo dell’istruzione, seguito da quattro cifre per l’indirizzo di memoria del primo operando e le successive quattro per l’indirizzo del secondo, che era anche la destinazione del risultato. Insomma era già un’architettura ISA del tutto simile a quelle dei processori RISC che sarebbero arrivati molti anni dopo. Gli

indirizzi di memoria di quella macchina erano ovviamente “limitati” all’intervallo 0000-1999. Ridolfi ci narra di quanto fosse geniale il suo capo di allora nello scrivere programmi per quell’architettura che tecnicamente era realizzata su un tamburo rotante ottimizzando a mano (attraverso opportune tabelle) l’interleave delle istruzioni nella memoria in modo da massimizzare le prestazioni del programma (!). «In questo lavoro il mio capo era un mago: i suoi programmi non potevano essere migliorati perché erano perfetti. Il suo capolavoro era la procedura delle paghe, che occupava ben 1.998 voci, perfettamente armonizzate sul tamburo». Ma ogni mito è destinato a crollare e arrivò un giorno che per implementare il calcolo per l’esenzione di una tassa a cui aveva diritto un lavoratore che aveva avuto un settimo figlio sarebbe stato necessario aggiungere ben tre (!) voci al programma superando così la memoria disponibile. Il capo propose come prima soluzione il licenziamento del dipendente troppo prolifico; poi venne adottata una soluzione di compromesso: trattandosi dell’unica busta paga a richiedere tale calcolo si optò per fare il cedolino a mano. Nel capitolo 5 troviamo la “nascita” del byte con il System/360. Il byte era composto da due nibble di 4 bit ciascuno aventi sedici combinazioni e questo portò all’introduzione della notazione esadecimale. L’architettura, per allora rivoluzionaria, prevedeva una parola di 32 bit e una codifica dei caratteri basata su una nuova rappresentazione che ne consentiva una grande varietà: l’EBCDIC. Scopriamo qui che tutte queste innovazioni, soprattutto la notazione esadecimale che veniva vista come un codice esoterico, furono osteggiate per tutta la primavera del 1964 con una violenta polemica dal settore commerciale che temeva che la maggioranza dei clienti avrebbe rifiutato queste macchine perché incomprensibili. Sappiamo com’è andata a finire… Tra le curiosità degne di nota, troviamo una spiegazione completa e dettagliata della genesi del nome HAL 9000 per il celeberrimo elaboratore di “2001 - Odissea nello Spazio”, la vera storia del PC-IBM, un interessante spaccato delle origini delle immagini a colori in digitale e una divertente raccolta di casi di rapporto cliente-fornitore. Nel chiudere il mio invito ad approfondire la storia dei bit, vi riporto la riflessione che accompagna la chiusura del testo: «Guardando indietro mi ricordo della memoria del 650 e constato che la chiavetta che tengo nell’agenda è capace di contenere un numero di dati centomila volte più grande. Penso al dramma delle performance dello Stretch e le confronto con quelle, molto maggiori, del semplice PC sul quale sto scrivendo queste note. Penso a Internet e alle reti di comunicazioni, del tutto inesistenti allora. Una rivoluzione che dura da cinquant’anni. Ma se guardiamo in avanti che cosa ci possiamo aspettare? Tra cinquant’anni che cosa potremo raccontare di nuovo? Nessun lo sa, anche perché l’esperienza ci induce a concludere che non c’è nulla di più difficile di prevedere del futuro, anche quando è già cominciato». Buona lettura…

STORIA e CULTURA

Cinquant’anni con i bit

Riferimenti CV-Ridolfi2.pdf Cinquant’anni con i bit - P. Ridolfi

7


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

L’astrofotografia amatoriale e l’ingegneria

STORIA e CULTURA

G

li astrofili dilettanti si distinguono in due categorie: la prima raggruppa chi fa osservazione visuale, la seconda chi fotografa. Per tutti è necessario usare il telescopio e quindi un supporto che lo sostenga, chiamato di di C. F. Tagliani Canobbio “montatura”. Mentre per i visualisti è sufficiente una montatura altazimutale, ovvero un sistema meccanico che permette movimenti paralleli all’orizzonte (azimut) e perpendicolari ad esso (zenit), per chi intenda scattare fotografie è necessaria una maggiore precisione, garantita dalle così dette “montature equatoriali”. Per chi fa astrofotografia sono inoltre necessari un PC, una camera Charge-Couple Device (CCD), un focheggiatore e un telescopio meno potente montato coassialmente rispetto al principale e dotato di una piccola telecamera. Le montature equatoriali permettono di inseguire il moto apparente di un astro con un unico movimento e fanno si che rimanga sempre inquadrato nello stesso punto del campo di osservazione. Inoltre, particolare non trascurabile, nel campo visivo tutti gli oggetti rimangono nella stessa posizione, senza ruotare. Di queste montature esistono vari sottotipi, ma le più usate dagli astrofili dilettanti sono due: quella a forcella e quella alla tedesca. Nella montatura a forcella il telescopio è appunto all' interno di una forcella. Nella montatura alla tedesca il telescopio è sempre posizionato da una parte (ora est ora ovest del meridiano dell'osservatore) mentre dalla parte opposta sono posizionati dei contrappesi di bilanciamento. Questa montatura presenta il problema della reversibilità degli assi al meridiano: se si insegue un oggetto da est ad ovest, dal suo sorgere fino al tramontare, quando questo si trova al meridiano, per poterne proseguire l'osservazione occorre riposizionare il

Sopra - Doppio ammasso in PERSEO (apod 1-1-13)

8

telescopio invertendo la posizione telescopiocontrappesi. Infine per avere un funzionamento ottimale le montature equatoriali devo essere "stazionate", ovvero il loro asse deve essere messo parallelo all'asse terrestre. Anche di telescopi esistono vari tipi, che si dividono in due principali categorie: il galileiano, o rifrattore, che è caratterizzato da un sistema di lenti in cui viene sfruttata la rifrazione per mettere a fuoco gli oggetti; il catadiottrico, o riflettore, con un sistema di specchi in cui, per la messa a fuoco, viene sfruttata la riflessione. I catadiottrici sono comodi in quanto hanno una lunghezza contenuta, sono più leggeri e per questo motivo facilmente trasportabili. Avendo però una parziale occlusione del tubo, dovuta alla presenza di uno specchio secondario, sono meno luminosi e più adatti per scattare fotografie piuttosto che per l’osservazione diretta. La caratteristica principale di un telescopio è il rapporto focale, ovvero il rapporto che esiste tra lunghezza focale di un obiettivo e il diametro della pupilla di entrata dell’ottica. La focale di uno strumento è la distanza che il fascio di luce in entrata deve percorrere all’interno del tubo ottico, dal suo ingresso nell’obiettivo fino al fuoco dell’oculare. Fino alla fine del secolo scorso la lastra fotografica era usata direttamente per acquisire le immagini. Oggi i CCD permettono di realizzare strumenti con elevata profondità di campo ed elevata risoluzione. In genere sono usati CCD monocromatici e per estrarre i colori sono posti dei filtri in ingresso. Il focheggiatore, invece, è un dispositivo interposto fra il telescopio e la telecamera, che permette di variare la distanza del CCD dal telescopio, in modo che l’immagine sul CCD risulti a fuoco. Poiche’ durante le riprese la temperatura può variare anche di 10°C, le dilatazioni termiche del tubo fanno si che esso si allunghi o ritiri richiedendo una costante rimessa a fuoco. La ruota portafiltri, infine, è posta davanti alla camera fotografica permette di cambiare il filtro davanti all’obiettivo: è possibile così ottenere immagini a colori. Il sogno di tutti gli astrofili dilettanti è quello di poter osservare le stelle in altura, in zone poco illuminate: infatti l'atmosfera diventa più tersa innalzandosi di quota e l’illuminazione dei centri abitati non consente una visione nitida. Durante l'inverno, quando sulla pianura padana incombe la nebbia, se ci si sposta in montagna si può notare come la nebbia funzioni da grande coperchio che oscura l'inquinamento luminoso delle città. Di contro, osservare gli astri e gli oggetti di profondo cielo in montagna costringe a stare al freddo tutta la notte , oltre all’impegno solito di muoversi con l'attrezzatura, montarla e smontarla. Per ovviare a questi problemi nel 2011 è sorto il Parco Astronomico “Astrobrallo” su un’area messa a disposizione dal comune di Brallo di Pregola, dove in precedenza vi era un campo sportivo. Sono state posizionate inizialmente due cupole a sfera, in vetroresina, di fabbricazione polacca, rivestite di una particolare vernice che riflette la parte infrarossa della radiazione solare e consente di diminuire la tempera-


Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

Sopra - Comparazione dell’interfaccia programmi-strumentazione

to su un dispositivo a basso costo, un LINKSYS NSLU2, nativamente ideato come NAS e negli anni, con il fiorire di una comunità dedicata al porting di linux, utilizzato per altri scopi. Si è quindi ricompilato il programma opensource WEATHERVIEW, per farlo girare su questo dispositivo. La telecamera FISHEYE ha un’uscita composita e per questa ragione si è dovuto interfacciarla con un videoserver che consente di utilizzarla come una telecamera IP a tutti gli effetti. Questa, come quasi tutte le telecamere presenti al parco astronomico, mette in linea le immagini con una periodicità di 5-10 minuti, ma se si è connessi in VPN, l’accesso alle telecamere è in tempo reale. Dall’ inaugurazione (nella primavera 2011) ad oggi sono state pubblicate più di 200 fotografie sul sito http://www.astrobrallo.com. Il 1° gennaio 2013 la NASA sul sito apod.nasa.gov ha pubblicato una foto scattata dai nostri telescopi. Tutti gli anni vengono organizzati degli starpartyes in cui durante la notte si osservano le stelle e viene spiegato come orientarsi in cielo e come riconoscere le costellazioni. Il prossimo appuntamento è per il 23-24 aprile 2016 in cui si terrà un “solarparty” poichè nuovi soci di Astrobrallo sono appassionati di osservazione del sole. Per la prima volta faremo un’ osservazione diurna aperta al pubblico e ci sarà una conferenza sulla nascita e la vita di una stella, con l’esposizione fotografica delle migliori foto scattate al sole.

STORIA e CULTURA

tura all’interno nelle giornate calde, a protezione della strumentazione, dotate ognuna di un telescopio. A queste si sono aggiunte nel tempo due postazioni mobili (roulotte) a tetto scorrevole, anch’esse dotate di un telescopio. I quattro telescopi sono remotizzati: purtroppo l'area non è fornita di servizio telefonico e quindi una delle prime problematiche da risolvere è stata quella di connettere l'area ad internet. In prima battuta, la connessione sui telescopi delle cupole e' stata realizzata tramite ponti radio, raggiungendo il paese più vicino servito da adsl. Per una maggiore affidabilità del sistema, dopo circa un anno, a questa prima connessione è stata affiancata una connessione adsl wifi fornita da un internet provider di Piacenza. Per entrambe le connessioni sono stati utilizzati dei router “LINKSYS WRT54GL” con firmware modificato DDWRT. Questi router supportano la connessione VPN in PPTP. La possibilità di connettersi in VPN facilita l'operatività da remoto in quanto permette di accedere a tutte le periferiche (telecamere, strumenti di misura, schede relais) indirizzando dispositivi e rispettive porte direttamente, senza dover ridirigere nulla tramite router. Ove possibile, sono stati utilizzati programmi opensource. Ogni postazione è dotata di PC, telescopio, montatura, CCD, varie telecamere IP ed una o più schede relais che permettono di interagire con la strumentazione in loco. Il PC ha installato come sistema operativo Windows e vari software dedicati per comandare montatura, telescopio e CCD. Il software utilizzato come planetario virtuale, tramite la piattaforma ASCOM, supporta le montature piu’ utilizzate. Tramite questo programma, in base alla data ed all’ora, sono conosciute le posizioni degli astri e degli oggetti celesti che si possono osservare. Una volta deciso quale oggetto si vuole riprendere, basta un semplice click con il mouse per far si che il telescopio venga centrato sull’oggetto e lo segua per tutta il tempo necessario alle riprese. Per accedere al computer remoto vengono utilizzati due programmi: Teamviewer e/o Thightvnc, perchè si è cercato di ridondare i programmi e gli strumenti per migliorare l’affidabilità del sistema. Una volta connessi con il PC remoto si opera quindi come in loco, con l’unica differenza che non si conoscono le condizioni meteo nella postazione remota. Per ovviare a questo problema sono presenti una stazione meteo e una telecamera FISHEYE che mostra lo stato del cielo in tempo reale. Il programma che legge i dati meteo e li rende disponibili sul web, è carica-

Sopra - Il parco astronomico Astrobrallo, sorto nel 2011.

9


STORIA e CULTURA

Ingegneria dell’informazione - Notizie dalla commissione n. 14, aprile 2016

10


Ingegneria dell’informazione Notizie dalla commissione

Diamo i numeri

LINK UTILI

www.ording.pv.it Sito Ordine Ing. di Pavia

Il tema della sicurezza informatica occupa ormai molte pagine di cronaca ed è diventato argomento noto ai più, anche se non conosciuto come si dovrebbe. Siti governativi, archivi di dati aziendali, furti di identità sono solo tra le casistiche di attacco più clamorose. Proviamo così a dare un brevissimo quadro di insieme riportando un estratto dal rapporto CLUSIT 2016: già nel rapporto precedente si evidenziava una tendenza del fenomeno degli attacchi informatici che si è ulteriormente consolidata nell’anno passato e nel 2016. Nel corso di quest’anno, quindi, il principale problema non sarà tanto che si verrà attaccati, ma capire quali saranno gli impatti degli attacchi andati a buon fine sulla sicurezza di organizzazioni, utenti, clienti e partner, e come impedire al maggior numero possibile di incidenti di verificarsi.

Sopra - Distribuzione degli attaccanti per tipologia

Il campione utilizzato per estrarre questi dati è costituito da 1.012 attacchi gravi di pubblico dominio e da questo emerge chiaramente che, con l’esclusione delle attività riferibili ad attaccanti della categoria “Information Warfare” e “Hacktivism”, dal punto di vista numerico nel 2015 gli attacchi gravi di pubblico dominio compiuti per altre finalità sono in aumento rispetto al 2014, in particolare per quanto riguarda la categoria “Cybercrime”, che presenta un tasso di crescita percentuale marcato, con oltre il 30% in più rispetto all’anno precedente. Di seguito, invece, riportiamo la distribuzione delle tecniche di attacco per tipologia:

Sopra - Distribuzione delle tecniche di attacco per tipologia

Fonte: Rapporto CLUSIT 2016

www.ciii.it Sito Comitato Italiano Ingegneria dell’Informazione

www.cii-croil.it Sito collaborativo CII-CROIL


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.