Subscribe to our RSS Feeds
Nella Città dell'uomo, per l'Ing. Adriano Olivetti, la bellezza, l'amore, la verità e la giustizia, rappresentavano un'autentica promozione spirituale. Gli uomini, le ideologie, gli Stati che avranno dimenticato una sola di queste forze creatrici non potranno indicare agli altri e alle nuove generazioni il cammino della civiltà.

Windows Blog Italia

BENVENUTI IN QUESTO SPAZIO WEB DEDICATO ALLA DIVULGAZIONE E ALLE INIZIATIVE IN AMBITO ICT. GRAZIE E BUONA LETTURA BY ALASSIO iTEK!

-> Hi-TECH NEWS


-> FLASH NEWS
I PRIMI SEI DELLA CLASSIFICA DEGLI ARTICOLI PIU' LETTI

...

LE ULTIME NOVITA' DI ALASSIO iTEK

QUANTUM COMPUTING...

0 Comments »

 

      ...oltre al suo impiego, combinando “bit, neuroni e qubit” ovvero “super computer, intelligenza artificiale e computer quantistici”, si ottiene e si otterrà sempre di più una “discovery accelerata” applicabile alla ricerca tecnologica e non solo.

 

Sempre più aziende e centri di ricerca investono capitale sullo sviluppo del cosiddetto “quantum computing”. A partire dal 2018, la “Quantum Flagship Iniziative” europea, ha messo in campo un miliardo di euro in dieci anni.

Lanciando una rapida occhiata altrove, notiamo che il colosso IBM, in occasione del Consumer Electronics Show di Las Vegas 2019, ha lanciato il modello “IBM Q System One”, il primo computer quantistico in ambito commerciale. Un esempio che ci mostra chiaramente come il quantum computing e la fisica subatomica facciano già parte del mondo del business. Non è un caso che il computer quantistico targato IBM, mediante cloud, può già essere impiegato nelle aziende per applicazioni commerciali (crittografia, farmaco personalizzato, modelli finanziari e previsioni meteorologiche).

In California, Google possiede un laboratorio di ricerca dedicato allo sviluppo quantistico (Quantum Artificial Intelligence Lab), per l'integrazione dell'intelligenza artificiale al calcolo quantistico, lavoro principalmente finalizzato allo sviluppo di semiconduttori ed algoritmi dedicati. John Martinis, direttore nonché uno dei massimi esperti in ambito di ricerca quantistica, ha dichiarato recentemente che Google è prossima alla creazione di un computer in grado di dimostrare la netta superiorità del calcolatore quantistico rispetto ai super computer tradizionali (quantum supremacy).

I cosiddetti “quantum computer” sono calcolatori che sfruttano sia le leggi della fisica che della meccanica quantistica per lo studio delle particelle subatomiche. L'unità fondamentale è il “qubit” o bit quantistico, legato allo stato in cui si trova una particella o un atomo, le cui peculiarità consentono di svolgere calcoli velocissimi. Nel metodo computazionale classico, ogni bit è rappresentato da zero o uno (sistema binario) mentre nel computing quantistico, il qubit, sfruttando le leggi della meccanica quantistica, può essere contemporaneamente zero e uno. Un bit classico immagazzina un valore binario (0 oppure 1), un qubit, può immagazzinare un’arbitraria sovrapposizione di stati di 0 e di 1. Tutto ciò è reso possibile grazie alla sovrapposizione degli stati quantistici, peculiarità che abilita i calcoli in parallelo anziché un calcolo alla volta, moltiplicando esponenzialmente potenza e velocità anche per calcoli complessi, riducendo notevolmente i tempi di elaborazione da anni a minuti. Oltre alla sovrapposizione di stati, i qubit hanno ulteriori proprietà che derivano dalle leggi della fisica quantistica come l’”entanglement” o correlazione tra un qubit ed un altro, da cui deriva una forte accelerazione nel processo di calcolo avviato.

Al centro delle potenzialità rivoluzionarie del quantum computing, c’è quindi il “qubit”, elemento base di un computer quantistico. Le tecnologie sviluppate dalla fisica fondamentale per gli acceleratori possono essere utilizzate per realizzare nuovi tipi di qubit, capaci di conservare intatta l’informazione immagazzinata per tempi molto più lunghi di quanto sia possibile attualmente, consentendo così l’applicazione dei computer quantistici per la risoluzione di problemi complessi.

Oltre all’iniziativa americana, in Europa si sta muovendo in parallelo e con obiettivi simili, la Quantum Flagship, supportata dalla EU in ambito di “Horizon 2020” e “Horizon Europe”. Uno dei problemi attualmente più importanti nella scienza della computazione quantistica è quello di estendere il cosiddetto “tempo di coerenza”, il tempo cioè in cui un qubit (bit quantistico) mantiene inalterate le informazioni contenute. Comprendere e mitigare le fonti che generano la “decoerenza” dei qubit è fondamentale per l’ingegneria dei futuri computer e sensori quantistici. Lo stesso vale per i sensori quantistici, il cui spettro di sensibilità dovrà permettere di affrontare questioni da tempo irrisolte in molti campi della scienza. Il superamento di queste limitazioni avrà un grande impatto in diversi ambiti, dalle scienze della vita alla biologia, dalla medicina alla sicurezza, consentendo inoltre misure di incomparabile precisione e sensibilità nella scienza di base.

Lo stato subatomico genererebbe però delle problematiche che il quantum computing deve superare. La prima sfida è il mantenimento della qualità dei qubit, tendenti a perdere rapidamente le qualità quantiche in circa cento microsecondi, a causa di fattori quali le vibrazioni, le fluttuazioni della temperatura ambientale e le onde elettromagnetiche. Le particelle sono volatili e fragili, infatti cambiano stato, con conseguente perdita di dati ed informazioni utili al processo di calcolo. Per il funzionamento della tecnologia quantistica, sono inoltre necessarie temperature vicino allo zero assoluto (di circa -273°C). Attualmente, il metodo più comune per ottenere queste temperature è l'utilizzo di gas liquefatti (ad esempio l’isotopo elio-3), sistema assai oneroso. A tal proposito, un team di ricercatori della TUM (Technical University of Munich) ha sviluppato un sistema di raffreddamento magnetico per temperature estremamente basse, adatto per l’elettronica quantistica e già commercializzato dalla startup Kiutra; metodo alternativo che eviterebbe il ricorso all’elio-3.

Nel 2001, l'IBM inaugurò l’era dei computer quantistici mediante la creazione di un elaboratore quantistico a 7 qubit presso l'Almaden Research Center.

Nel 2017, sempre IBM realizza e rende operativi due computer quantistici rispettivamente a 16 e 17 qubit.

Nel febbraio 2019, la medesima azienda annuncia al CES di Las Vegas, un computer da 20 qubit ma nei laboratori arriva a simulare il funzionamento del computer quantistico a 56 qubit, un livello considerato da super computer, mentre nell'ottobre 2019, inserisce un computer da 53 qubit tra le sue super macchine quantistiche.

Ad oggi, IBM possiede diciotto sistemi quantici che mette a disposizione della sua community e dei suoi clienti. Gli utenti sono più di duecentomila, tra cui più di cento clienti della rete “IBM Q Network”, che collaborano sulla ricerca fondamentale nell’informatica quantistica, sullo sviluppo di applicazioni per il quantum computing in settori industriali diversi e sulla formazione dei prossimi ingegneri ed esperti quantistici. IBM non lavora solo allo sviluppo dell’hardware per il quantum ma guida lo sviluppo di un software open source chiamato “Qiskit”, software scritto principalmente in linguaggio Python.

Al CES 2019, IBM ha presentato ilQ System One”, il primo sistema integrato universale di elaborazione quantistica, progettato sia per la ricerca scientifica che per l’uso commerciale e ha annunciato l’apertura del suo primo “Quantum Computation Center” a Poughkeepsie (New York), dove saranno ospitati alcuni dei più avanzati sistemi quantistici di IBM basati su “IBM Cloud”. Questi sistemi saranno aperti ai membri di “IBM Q Network”, programma commerciale di quantum computing di IBM. Nel suo nuovo sistema integrato, l'azienda ha previsto una serie di componenti custom quali hardware quantistico per produrre qubit di qualità, ingegneria criogenica, per mantenere isolato e opportunamente raffreddato l’ambiente quantico, elettronica di alta precisione, firmware quantistico per la gestione e gli aggiornamenti automatici, più computazione classica per fornire accesso sicuro al cloud.

Il Department of Energy (DOE) degli Stati Uniti finanzia (115 milioni di dollari in cinque anni ) il Superconducting Quantum Materials and Systems Center (SQMS) con sede e coordinamento al Fermilab (Fermi National Accelerator Laboratory) di Chicago. L’INFN (Istituto Nazionale di Fisica Nucleare italiano) parteciperà al progetto con il suo know-how scientifico e tecnologico, realizzando anche una facility per dispositivi quantistici nei suoi Laboratori Nazionali del Gran Sasso. Il Fermilab di Chicago, di cui è Direttore Nigel Lockyer, è il laboratorio selezionato per guidare uno dei cinque centri nazionali che, nell’ambito della National Quantum Initiative statunitense, lavoreranno per portare progressi trasformativi nella scienza dell’informazione quantistica.

Al Fermilab lavorano oltre centocinquanta ricercatori italiani e collaborano importanti aziende italiane leader nelle tecnologie di frontiera. I fisici italiani, presenti con ruoli di rilievo sin dagli anni ’80, sono impegnati in esperimenti nello studio dei neutrini, con gli esperimenti NOvA, ICARUS e LBNF/DUNE e i muoni con gli esperimenti Muon g-2 and Mu2e.

Anna Grassellino, ricercatrice del Fermilab che ha iniziato la sua carriera all’INFN, di cui è Presidente Antonio Zoccoli, al SQMS avrà il compito di guidare lo sviluppo di un computer quantistico d’avanguardia, con prestazioni mai raggiunte sinora e basato su tecnologie superconduttive. Inoltre, il centro svilupperà nuovi sensori quantistici con importanti applicazioni nella fisica fondamentale, nella ricerca sulla materia oscura ed altre particelle esotiche.

L’INFN, con un contributo da parte del DOE di circa 1,6 milioni di dollari, contribuirà al progetto grazie al suo “know-how” competitivo a livello mondiale in fisica teorica, nelle tecnologie superconduttive, criogeniche e nello sviluppo di rivelatori. Nell’ambito di SQMS, da evidenziare la realizzazione di una facility per misure, test e validazione dei dispositivi quantistici ai Laboratori Nazionali del Gran Sasso dell’INFN, unica sede al mondo per attività a bassissime radioattività ambientali e per le riconosciute competenze in ambito criogenico. L’impiego dei dispositivi quantistici realizzati da SQMS, consentirà all’INFN di sviluppare rivelatori più sensibili per l’osservazione di particelle esotiche che potranno essere impiegati, per esempio, in esperimenti sulla materia oscura. Una delle aspettative è quella che i risultati del progetto possano aprire la strada a studi teorici più accurati di fisica fondamentale e possano rivoluzionare le metodologie di analisi dei dati dei grandi esperimenti agli acceleratori. Sicuramente le migliori prestazioni di calcolo potranno fornire un contributo sostanziale anche in altri ambiti tecnico-scientifici, quali ad esempio la biologia e le biotecnologie.


Partners del Superconducting Quantum Materials and Systems Center:

Ames Laboratory del DOE, Colorado School of Mines, Fermi National Accelerator Laboratory, Goldman Sachs, Illinois Institute of Technology, Italian National Institute for Nuclear Physics, Janis Research, Johns Hopkins University, Lockheed Martin, NASA Ames Research Center, National Institute of Standards and Technology, Northwestern University, Rigetti Computing, Stanford University, Temple University, Unitary Fund, University of Arizona, University of Colorado Boulder, University of Illinois-Urbana Champaign.

 

Andrea Sicco

 

1/20/2021 03:05:00 PM

ALASSIO, NUOVA PREVISIONE TEORICA DEI TERREMOTI

0 Comments »
 


Da una ricerca condotta dal gruppo "ingg. Sicco & Partners di Alassio", sulla base di un software sviluppato negli anni '90 presso l'Istituto Internazionale di Geofisica Matematica per la previsione teorica dei movimenti tellurici dell'Accademia delle Scienze dell'ex Unione Sovietica, è stato sviluppato un nuovo software comprendente un insieme di algoritmi per la previsione dei terremoti a breve e medio termine.


Negli anni '90, i risultati dei test del software sovietico, utilizzati in venti differenti zone sismiche, ebbero un'attendibilità pari all'80% e con tali algoritmi furono pronosticati terremoti come quello verificatosi a Tien Shan (1987), in Armenia (1988), negli Stati Uniti (1986, 1987, 1989) e in Costa Rica (1991).


Attualmente, il responsabile del gruppo di ricerca e del software italiano di ultima generazione è Andrea Sicco che ne detiene il codice sorgente, ponendo in essere un procedimento sistematico per il calcolo dei cosiddetti "megasismi" a carattere periodico.


Le previsioni a medio termine, riguardanti eventi sismici con alta probabilità di verificarsi, sono elaborate su un periodo temporale di alcuni anni e per una zona spaziale più estesa di quella prossima al presunto epicentro del terremoto. Gli algoritmi di diagnostica sviluppati analizzano i periodi in cui potrebbe verificarsi un'elevata attività tellurica in base ad una serie di variazioni sismiche di bassa e media intensità. Con l'incremento dell'accuratezza nel monitoraggio sismico, si riduce ulteriormente l'errore nella localizzazione dell'epicentro. Gli algoritmi di previsione a breve e medio termine sono stati sviluppati in cooperazione con sismologi americani mentre l'algoritmo per la previsione dei sismi periodici è stato elaborato attraverso l'analisi delle onde terminali (after-shock) di un megasisma.


Le previsioni eseguite mediante i nuovi algoritmi, consentono di anticipare il processo organizzativo ed attuativo delle iniziative antisismiche e cioè gli esercizi teorici nelle zone eventualmente interessate, le dichiarazioni dello stato di allerta in tempo utile per la protezione della popolazione civile, i servizi di informazione, le ristrutturazioni e le ricostruzioni degli edifici.

2/12/2020 12:36:00 AM

ALASSIO, NAVIGANDO TRA SMARTPHONE ED APP

0 Comments »

…come i cittadini convivono con le nuove tecnologie mobili di comunicazione


di Andrea Sicco




Secondo un nostro più recente sondaggio, gli alassini risulterebbero sempre più legati ai propri cellulari e all'utilizzo dei relativi software applicativi installati. Attualmente, il tempo di utilizzo medio stimato si aggirerebbe intorno alle 5-6 ore quotidiane.
La funzionalità "voce", secondo quanto dichiarato, sarebbe praticamente utilizzata da tutti gli utenti ma non tutti, invece, utilizzerebbero le app gratuite di messaggistica istantanea (Whatsapp e/o Telegram). In media, le telefonate per singolo utente, si aggirerebbero intorno ad una decina di telefonate al giorno mentre i messaggi di testo scritti ed inviati, mediante app, sarebbero circa una sessantina, cui si aggiungerebbero quelli vocali (circa una quindicina).
Il 5% degli alassini dichiara di non essere iscritto a nessun gruppo "Whatsapp" e/o "Instagram", mentre il 55% aderisce da uno a cinque gruppi, il 28% da sei a dieci gruppi ed il 12% ad oltre una decina di gruppi.
Nelle ultime 24 ore, gli intervistati che hanno scambiato messaggi con meno di cinque persone, mediante queste app, si aggirano attorno al 28%. Un 35% ha sentito, attraverso questi canali, tra le cinque e le dieci persone, un 25% tra le dieci e le venti persone, un 12% tra le venti e le trenta persone.
Secondo quanto verificato in merito alle abitudini di tutti gli utenti, i cari e vecchi SMS risulterebbero decisamente destinati all'estinzione per scarso nonché marginale utilizzo.
In crescita invece l'utilizzo degli "assistenti virtuali", un 45% dichiara di usarli abitualmente (un 15% tutti i giorni, un 25% qualche volta alla settimana ed un 5% raramente), un 15% li ha provati ed ha smesso, un 20% ancor non li conosce ma vorrebbe provarli. Un buon 20% non si dice interessato a questo tipo di servizio.
Nel 35% dei casi, la prima chiamata del mattino va ai genitori, nel 25% a moglie o marito e nel 15% a fidanzato o fidanzata. Contattare gli amici del cuore è un'attività che non va oltre il 5%, l'amicizia del cuore però recupera posizioni quando, per il diretto interessato, si tratta di fare una telefonata nel tentativo di migliorare il proprio umore (in questo caso la scelta supera un buon 20%).
Un 20% dei consultati, dice di poter resistere senza curiosare tra messaggi ed altri contenuti online per meno di un'ora, seguito da un 18% che dice tra una e due ore. Un 30% resiste tra le tre e le sei ore, un 15% tra le sei e le dodici ore e un 17% tra le dodici e le ventiquattro ore.
Tra 10 anni, il 60% degli utenti attuali pensano di possedere ed utilizzare uno smartphone (a sommare un 40% che pensa sia probabile), presupponendo una vita ancor lunga per questo tipo di dispositivi. Un buon 90% immaginano un futuro smartphone più leggero, con schermo flessibile e più grande, il restante 10% non riesce ad immaginare come potrà essere il futuro degli smartphone.
Sul tema del ricambio del dispositivo attualmente in uso (che per il 55% degli intervistati ha meno di tre anni di vita e non ha intenzione di cambiarlo), un 15% pensa che lo cambierà entro sei mesi ed un 30% entro circa un anno.
Da quanto riscontrato, gli alassini non fanno eccezione dal resto dell'Italia, Paese ai primi posti delle classifiche mondiali per il numero di acquisti di telefonini ed oggetti hi-tech.
12/19/2019 10:43:00 PM

LA FABBRICA DELL'UOMO MACCHINA

0 Comments »

"Ogni uomo, se lo decide, può essere lo scultore del proprio cervello..."
(Santiago Ramòn y Cajal)


di Andrea Sicco



L'informatico ed inventore Ray Kurzweil prevede che già in questo secolo saremo in grado di inviare messaggi elettronici e fotografie direttamente da cervello a cervello, conservandone copia ed eseguendone backup (salvataggio di sicurezza dei dati).
Le ricerche in tale ambito (interfacciamento cervello-computer) procedono speditamente verso ulteriori e nuovi risultati. Si sta lavorando alla comunicazione cervello-cervello fra topi, fra umani e roditori e fra umani.

Nel 2013 Rajesh Rao, ricercatore dell'Università di Washington, con procedimento non invasivo, riuscì a giocare ad un videogioco a distanza, controllando, con la propria mente, il dito di una mano del collega Andrea Stocco presente in un diverso laboratorio del medesimo campus universitario. Nel dettaglio, un casco di elettrodi registrava l'attività cerebrale di Rao e, mediante internet, inviava l'attività direttamente alla cuffia di Stocco, nella quale un TMS installato (dispositivo per la stimolazione magnetica transcranica) trasmetteva gli ordini di movimento.

Nel febbraio 2016, un gruppo di ricercatori dell'Università di Pittsburgh sperimentò un dispositivo ad elettrodi  inserito nella corteccia motoria del cervello di un paziente tetraplegico per raccogliere gli ordini generati dal suo cervello, per poi trasmetterli al meccanismo del suo braccio protesico, in grado di eseguire movimenti (afferrare, sollevare e spostare oggetti).

Nell'ottobre 2016, un team diretto e coordinato dal neuroscienziato ed ingegnere biomedico Robert Gaunt, all'Università di Pittsburgh, fu in grado di far recuperare le funzionalità sensoriali del tatto ad un paziente tetraplegico mediante un braccio cibernetico collegato a microelettrodi impiantati nella corteccia somatosensoriale e collegati alle dita dell'arto artificiale. Nello specifico, quando un dito veniva toccato, i sensori trasmettevano la sensazione di contatto sotto forma di segnale elettrico alla zona della corteccia cerebrale responsabile del senso del tatto in quel dito e ciò induceva, nel cervello del paziente, una sensazione tattile del tutto simile a quella normale.

Con inizio negli anni '70 e con la prima sperimentazione nel 2002 da parte di Kevin Warwick, (ingegnere esperto di robotica che si impiantò nell'avambraccio un chip con matrice di cento elettrodi in grado di registrare l'attività elettrica dei neuroni da trasferire ad un “computer trasformatore” dei dati ricevuti, raccolti in ordini di movimento ed inviati ad un braccio robotico situato dall'altra parte dell'Atlantico in grado di riprodurli fedelmente) lo studio dei circuiti neurali con i relativi schemi di attività, contemporaneamente al progresso della tecnologia applicata al cervello umano, svilupperà sistemi di collegamento tra materia cerebrale e macchina, sempre più avanzati ed interessanti, aprendo così nuovi orizzonti nel panorama scientifico e tecnologico dell'ingegneria biomedica.
 
11/18/2019 04:40:00 PM

GEOMAGNETISMO

0 Comments »
...E' L'ORA DI AGGIORNARE NUOVAMENTE I TELEFONI E NON SOLO
 
di Andrea Sicco






A gran richiesta da parte di alcuni lettori interessati al cosiddetto "World Magnetic Model" ossia ai dati dell'attuale campo magnetico a cui fa riferimento la moderna navigazione, a partire dalle navi sino ad arrivare al funzionamento di strumenti più comuni come smartphone e Gps, affronteremo ora tale argomento, in ambito di geomagnetismo, i cui esperti si riuniranno il 30 Gennaio per fare il punto di una situazione in continua evoluzione nel tempo.

Esistono due tipologie di poli terrestri: quello geografico, attorno al quale ruota il pianeta Terra e quello magnetico, ad una distanza di circa 500 km, attorno al quale ruota invece il campo magnetico terrestre.
I poli geografici rappresentano i punti d’incontro dell’asse di rotazione terrestre con la superficie del pianeta. I poli magnetici sono generati dal campo magnetico terrestre. È come se un’enorme calamita, a forma di barra, fosse disposta internamente alla Terra, in posizione quasi coincidente con l’asse di rotazione. La coincidenza non è perfetta e l’ago di una bussola che indica il Polo Nord magnetico forma un piccolo angolo rispetto al Polo Nord geografico. Questo angolo si chiama declinazione magnetica ed il suo valore è differente, a seconda della località.
La posizione dei due poli magnetici è variabile nel tempo: nel 1831, il Polo Nord magnetico era a circa 70 gradi di latitudine nord e 97 gradi di longitudine ovest, oggi è invece a 74 gradi di latitudine nord e 100 gradi di longitudine ovest, nell’arcipelago canadese.
C'è un punto in cui la direzione dei due poli appare coincidente ed è situato sul centesimo meridiano ovest, in un qualsiasi punto a sud del settantaquattresimo parallelo nord. La presenza di rocce magnetiche nella crosta terrestre disturba la bussola, pertanto, anche in questo caso, la declinazione magnetica può non essere uguale a zero.
Il Polo Nord magnetico fu rilevato nel 1831 nell'Artico del Canada da James Ross, non risulta stabile e, attualmente, si sta spostando piuttosto rapidamente verso la Siberia. Il suo recente movimento ha preso una vera e propria accelerata, in 20 anni si è spostato quasi quanto in 100 anni. Nell'eventualità di notevole movimento, si potrebbero verificare dei problemi negli spostamenti intercontinentali. Chi, invece, utilizza il Gps per modesti tragitti, non ne subirà le conseguenze.
Il campo magnetico opposto, posizionato sotto il Sud America e sotto l'Oceano Pacifico orientale, ebbe un picco d'intensità piuttosto anomalo nell'anno 2016 ma ciò non dovrebbe essere riconducibile ad un'inversione del campo magnetico, cioè quando il Polo Nord magnetico diventa Polo Sud e viceversa, fenomeno che si verifica una volta ogni 700000 anni circa, ma più semplicemente a fenomeni locali.
Si ritiene che il campo magnetico terrestre sia originato dalle correnti elettriche che si muovono all’interno del pianeta. I movimenti del ferro fuso che costituisce il nucleo esterno del nostro pianeta generano forti correnti elettriche che, a loro volta, producono il campo magnetico. L'impulso geomagnetico avvenuto sotto il Sud America potrebbe essere ricondotto a onde idromagnetiche nel profondo del nucleo mentre il movimento veloce del Polo Nord magnetico potrebbe essere collegato ad un getto, ad alta velocità, del ferro liquido localizzato sotto il Canada.


10/31/2019 06:28:00 PM

Visual Studio Community 2015

0 Comments »

4/13/2016 06:09:00 PM

ELETTRONICA "VINTAGE"

0 Comments »

"UN PO' DI STORIA OLIVETTIANA..."

di Andrea Sicco


A gran richiesta da parte dei lettori di ALASSIO iTEK, ripercorriamo le strade che condussero ai numerosi successi a livello mondiale da parte della più conosciuta fabbrica italiana di calcolatori elettronici degli anni sessanta.
Il nostro breve viaggio partirà dai progetti realizzati dal gruppo di lavoro diretto dal Prof. Ing. Piergiorgio Perotto, un settore aziendale orientato dal medesimo non tanto verso la gamma medio-grande dei calcolatori ma piuttosto verso il calcolo da tavolo, il trattamento dei dati di ufficio e l’automazione delle filiali bancarie. Si realizzarono le cosiddette "fatturatrici", combinando un moltiplicatore elettronico "UME" con le contabili meccaniche "Audit". Si realizzarono terminali come il "TC380", associando un'unità elettronica programmabile ad una telescrivente. Nasceva così un nuovo gruppo di esperti che avrebbe posto in essere la "Perottina" o "Programma 101" (P101), una nuova calcolatrice programmabile da tavolo. Nel 1965 questo compatto prototipo di tecnologia avanzata già trasportabile, segnò una pietra miliare nella storia dell’elettronica ed informatica italiana a livello internazionale, essendo la prima realizzazione al mondo di macchina elettronica già definibile come "Personal Computer".
Perotto, assieme ai progettisti della "P101" De Sandre e Garziera, scelse, come memoria interna, una *linea di ritardo di tipologia "magnetostrittiva", un filo di acciaio vettore della trasmissione sonica, in alcuni millisecondi, di un treno di impulsi rappresentanti un migliaio di bit. Per la "P101" tale scelta si rivelò ben presto come un vero e proprio successo.

La stessa tecnologia di gestione di memoria era già stata adottata per un altro prototipo, tra cui, quello condotto da un altro gruppo di esperti, denominato "35 elettronica", un elaboratore di dimensioni maggiori ma concettualmente simile. Nella 35, al fine di raggiungere una capacità di memoria desiderata, senza prolungare eccessivamente i tempi di accesso, si decise di utilizzare non una linea ma quattro linee magnetostrittive in parallelo. Il tutto fu inviato dall’ufficio sistemi a fare quella che più tardi sarebbe stata una "independent review del progetto 35". Fu tale progetto ad incontrare purtroppo alcune difficoltà tecniche. La sincronizzazione tra quattro linee si rivelò estremamente instabile, richiedendo tarature giornaliere. Per far fronte al problematico processo di sincronizzazione, ed al trattamento al volo dei dati emessi da quattro linee diverse, era stata costruita una logica complessa, ormai arrivata oltre 1.800 NOR gates con altrettanti transistor. Il costo complessivo di questa struttura logica aveva già superato quello di una memoria a nuclei, come ad esempio quella di 4K, già in uso nell’elaboratore "Elea 4001" che implementava una capacità superiore con un tempo di accesso enormemente inferiore rispetto alle cosiddette linee magnetostrittive.

Nel giro di circa un mese di tempo, emerse l’impostazione della "4035" che, con circa 730 transistor iniziali ed oltre ad una matrice di memoria RAM a nuclei, svolgeva la funzione di unità centrale e di controllo di una stampante parallela. Fu possibile realizzare una logica di controllo a sequenza mediante la scelta di un set di istruzioni semplificato e senza ricorrere necessariamente ad una memoria ROM di microprogrammi. Le operazioni venivano svolte entro il tempo degli accessi alla RAM strettamente necessari. La moltiplicazione, per esempio, era gestita da un software dedicato. Nei test complessivi, la nuova soluzione superava, per più di un ordine di grandezza, la velocità della 35. La velocità disponibile veniva sfruttata anche per il controllo delle due operazioni di input-output simultanee, gestite sdoppiando la logica di sequenza dell’unità centrale, in modo da farle seguire due attività tra di loro asincrone. Tutta la logica di priorità e d'interlacciamento tra le due operazioni simultanee comprendeva 6 NOR gates, una configurazione talmente ottimizzata da meritare il brevetto. Il sistema fu infatti successivamente brevettato. Le strutture dei dati della 4035 erano state definite in coerenza con l’architettura "byte-oriented" della serie statunitense "360 IBM".

La "General Electric" stava acquisendo i laboratori dalla Olivetti quando il progetto esecutivo di "Elea 4035" era già più che avviato, giungendo alla traduzione in piastrine e cablaggi, a confermare un periodo di severa ma puntuale revisione di tutte le iniziative in corso.
Tutti i progetti vennero raffrontati con le specifiche che la General Electric aveva approntato per la gamma dei prodotti che intendeva collocare sui mercati internazionali. Gli esami finali diedero risultati purtroppo negativi per quasi tutti i progetti in corso, salvo una possibilità emersa per la macchina 4035. Quest’ultima si avvicinava, come costi e prestazioni, alle specifiche GE di una macchina denominata "Triad", in realtà non un elaboratore ma un "terminale batch", cioè un’unità analoga a prodotti simili della IBM e della Univac, destinata esclusivamente a ricevere dati da linea telefonica per poi stamparli e già predisposta a leggere schede perforate per trasmetterne i dati in linea. Fu collegato al 4035 un governo linea per mettere a punto le sovrapposizioni della linea con ulteriori input-output. Un messaggio trasmesso in linea doveva cioè corrispondere a più righe stampate oppure a più schede lette. La sovrapposizione "1 a 1", tra due operazioni elementari di input-output, non era più sufficiente, si dovevano cioè sovrapporre "1 a n". Ben presto si raggiunse l’obiettivo e la GE riconobbe che il risultato ottenuto soddisfaceva le specifiche della Triad e, con le sue caratteristiche di elaboratore "general purpose", si era confermato affidabile anche in prospettiva di un mercato molto più ampio di quello precedentemente ipotizzato.

La 4035 fu ribattezzata "Olivetti General Electric" o "OGE Elea 4-115" e, con l’uscita della Olivetti dalla "joint venture" con la GE, semplicemente "GE 115". La guida del gruppo, per gli aspetti organizzativi, fu affidata a Lugari. Dolazza dimostrò la possibilità di miglioramento delle prestazioni del 115 passando dal dimensionamento temporale di caso pessimo ad un dimensionamento accuratamente definito in modo statistico: "il ciclo di memoria venne ridotto, semplicemente tarando le temporizzazioni, da 10 a 5,5 microsecondi". Il 115 fu lanciato nel ‘65 e restò il prodotto base per circa dieci anni.

Nell’ambito del gruppo internazionale, GE, di cui faceva parte oltre alla OGE anche la "Bull General Electric", si avviò l’iniziativa per realizzare una linea di elaboratori "Linea 100", destinata a soddisfare la fascia al di sopra del 115 e al di sotto dei "GE 400 e 600", modelli realizzati negli Stati Uniti d'America.

Gli esperti olivettiani, con i colleghi francesi, stabilirono un’architettura hardware compatibile verso l’alto, a partire dal 115, riuscendo a convincerli che la compatibilità poteva essere impostata come estensione propria del set di istruzioni 115, senza penalizzare idee e obiettivi da loro già definiti in precedenza per un elaboratore di classe media nominato "140". La linea così impostata comprendeva, oltre al 115 che subì anche un ridisegno esterno detto "New Line" ed un downgrade commerciale detto "105", un nuovo elaboratore affidato alla Olivetti, detto "130" (in downgrade anche "120") e nella parte alta il "140" della Bull, modello abbandonato prima dell’industrializzazione.

Nel ‘66, e nei primi mesi del ‘67, si lavorò sull’impostazione logica del 130, che utilizzava i primi circuiti integrati MSI, da 16 flip-flop su un chip per costruire un set di registri, anticipando così una tecnica successivamente battezzata "bit-slice". Soverini e Collina, assieme ad altri colleghi, completarono ed ingegnerizzarono la macchina.

La Olivetti, nel frattempo, si prefissò un nuovo, ulteriore, effettivo passaggio all’elettronica, dopo quello interrotto dalla cessione dei laboratori aziendali alla statunitense General Electric, nella ormai consueta indifferenza della classe politica italiana.

*Memoria "a linea di ritardo": l'uso delle memorie a linea di ritardo risale agli anni quaranta e può essere imputata a John Adam Presper Eckert. Questa tipologia di memoria in ambito elettronico-informatico fu utilizzata in alcuni elaboratori elettronici dell'epoca e richiedeva una periodica lettura e riscrittura dei dati, pena la degradazione delle informazioni memorizzate. Rispetto alle moderne memorie digitali, quest'ultima era una memoria ad accesso sequenziale. Le informazioni s'inserivano all'interno della memoria come impulsi elettrici, la memoria traduceva il segnale in un'onda meccanica a propagazione lenta in un mezzo ad elevata densità (mercurio). Alternativamente le onde si propagavano in una bobina detta magnetostrittiva o in un cristallo detto piezoelettrico. Il mezzo fisico era in grado di memorizzare da centinaia fino a migliaia di impulsi contemporaneamente. Una volta che le onde meccaniche raggiungevano la fine del mezzo, venivano convertite in impulsi elettrici e nuovamente reinserite nel mezzo stesso. L'accesso a un generico dato richiedeva l'attesa del passaggio del segnale, ovvero che, in media, il segnale attraversasse metà del mezzo fisico, richiedendo alcuni microsecondi.


Nell'ambito del convegno sui temi dell’E-Health Care e delle Scienze della Vita (www.lifetechforum.it), che si svolgerà il 6 e il 7 Aprile presso il CISEF (Centro Internazionale Studi e Formazione Germana Gaslini) si terrà la 

ASSEGNAZIONE DEL PREMIO
"PER L'INNOVAZIONE DIGITALE"
   DEDICATO A PEROTTO E ZUCCA

L'evento avrà luogo giovedì 7 aprile alle ore 16

con interessanti interventi e vedrà anche la partecipazione di alcuni vincitori degli anni passati (vedi locandina)
L’ingresso è libero; il CISEF si trova in Via Romana della Castagna (Genova Nervi: http://www.cisef.org/dove_siamo.php )

Con l'occasione ricordo che è aperta l'iscrizione ad AICA e che il Vostro sostegno ci è indispensabile per organizzare manifestazioni quale questa a supporto di giovani talenti, oltre a sostenere lo sviluppo del sistema delle competenze digitali in Italia. Le modalità di iscrizione sono reperibili sul sito www.aicanet.it

Roberto Ferreri
 

3/25/2016 11:01:00 AM

CASA FUTURA

0 Comments »



Viaggio nel mondo tecnologico della domotica

di Andrea Sicco

Dispositivi elettronici di ultima generazione, soluzioni ed innovazioni tecnologiche attendono ansiosamente l'accesso di casa vostra, d'ufficio e non solo.
Era prevedibile che una diffusione capillare della connessione a banda larga sui dispositivi mobili (smartphone, tablet, notebook, ecc) a costi sempre più bassi e concorrenziali, estremamente semplici da installare, da programmare ed utilizzare, trasformasse le abitazioni e/o i luoghi di lavoro in "ambienti hi-tech", più autonomi, più sicuri ed "intelligenti".

Attualmente, il panorama tecnologico delle proposte commerciali risulta già estremamente interessante e più che variegato.
Le aziende del settore, al fine di poter gestire le nuove proposte, stanno realizzando piattaforme web compatibili con altre piattaforme (Apple, Google-Android, Microsoft, ecc) al fine di rendere possibile la comunicazione in modalità semplice, intuitiva ed efficace tra sensori e videocamere di sorveglianza con dispositivi mobili dotati di apposita applicazione, gestibili da postazioni interne all'ambiente o da remoto cioè da postazioni presenti in ambienti esterni e lontani. Si sta lavorando per assicurare un equilibrato rapporto tra privacy e sicurezza. Da sottolineare la funzione video di monitoraggio "ad esclusione" che permetterà di accedere, dal proprio smartphone ed in ogni momento, ad una qualsiasi videocamera installata per vedere che cosa stia accadendo in un determinato momento, registrando in memoria un video solamente se verrà rilevato un evento inatteso. Rilevatori di movimento ed interruttori saranno gestibili, in tempo reale, da internet per poter accendere o spegnere e, più in generale, monitorare i consumi di ogni singolo elettrodomestico connesso in un qualsiasi ambiente di casa e/o di lavoro. Mediante semplici ed apposite *App, una serie di sensori per il controllo delle intrusioni, di fumo e incendio, perdite d'acqua dagli impianti idraulici, sarà in grado di inviare notifiche al dispositivo mobile collegato da diverse postazioni in cui risultino presenti anche delle telecamere attivate. Sensori smart rileveranno l'apertura e/o la chiusura di porte e finestre, notificando ed inviando aggiornamenti ogni volta che verrà rilevato un movimento o verificata una variazione di temperatura, di luminosità con possibilità di intervenire a distanza, accendendo o spegnendo le fonti di luminosità, i sistemi di riscaldamento e/o di raffreddamento collegati a prese telecomandate. Da sottolineare le funzionalità di "centraline intelligenti" interfacciabili con reti wi-fi domestiche.

Inoltre, le aziende stanno lavorando per garantire all'utente finale un'installazione e una configurazione dei nuovi dispositivi, senza ricorrere necessariamente a tecnici specializzati o ad invasivi interventi di opere murarie. Seguendo queste linee guida, si faciliterà, in modo significativo, la diffusione della domotica.

Quando, ad aprirvi la porta, non sarà più una persona ma un simpatico robot gestito a distanza, la vera sorpresa non sarà questa situazione ma piuttosto la semplice constatazione che le vostre disposizioni saranno state eseguite fedelmente, senza perdite di tempo e senza contestazioni di sorta.

*App: termine che deriva dall'abbreviazione di "applicazione" ed indica la variante delle applicazioni informatiche dedicate ai dispositivi elettronici di tipologia mobile, quali smartphone e tablet.

 


9/21/2015 10:13:00 AM

INTERNET E INDUSTRIA 4.0

0 Comments »




"...Nella ragnatela dove e quando i sogni digitali diventano idee elettroniche"

di Andrea Sicco


Internet è tuttora definito come il più vasto e funzionale sistema di comunicazione via computer e linea telefonica più esteso al mondo. Sviluppato come evoluzione della rete "ARPANET" (nata nel 1969 da un progetto del Pentagono per connettere tra loro, e ad alta velocità, alcune e potenti postazioni-computer), in pochi anni si è esteso a decine e decine di nodi, ampliandosi sempre di più, dando luogo a numerose interconnessioni ed avviandosi a diventare quel servizio che tutti noi conosciamo ed utilizziamo quotidianamente.
L'insieme delle informazioni in transito, raccolto e distribuito in modalità ipertestuale, da cui il nome "WWW" (World Wide Web) ovvero "ragnatela estesa a tutto il mondo", non è nato come Internet e non va pertanto confuso, inteso, identificato come Internet ma è più recente, risale al 1989 e la sua introduzione si deve a un'iniziativa del CERN di Ginevra che ha voluto, in tal modo, facilitare e migliorare lo scambio di dati e di informazioni tra i ricercatori. Il protocollo noto come "HTTP" o "HyperText Transfer Protocol" (protocollo di trasferimento di un ipertesto), facilita la creazione di ipertesti e la navigazione tra di essi. Un opportuno linguaggio ipertestuale, il famoso "HTML" o "HyperText Markup Language" (linguaggio a marcatori per ipertesti), permette di impostare i documenti in formato standard; mentre un programma di riconoscimento (il browser) ne consente la lettura.

Con il passare degli anni, la grande rete commerciale globale ha portato innovazioni di grande impatto, moltiplicando l'inventiva ed estendendosi in un modo tale che solamente quando è in corso se ne può comprendere la portata.
Inizialmente, servizi come l'Instant Messaging e i Social Network furono ideati sfruttando una rete planetaria con funzione principale di condivisione delle informazioni ma, attualmente, Internet indica nuove esigenze alle quali rispondere con applicazioni di telecontrollo, telemetria e sicurezza che consentano di appoggiarsi ad una infrastruttura mediante la quale sia possibile monitorare ed operare su qualsiasi oggetto e da ogni parte del mondo. La telemedicina, ad esempio, permette di eseguire diagnosi a distanza su pazienti nei luoghi più disagiati del pianeta. L'esigenza di collegare al web oggetti di uso comune, di elettronica indossabile, di elettronica di bordo ed elettrodomestici, ottimizzerà ulteriormente la nostra vita. Il web consentirà la creazione di nuovi modelli di calcolo sulla base delle attività quotidiane di un singolo individuo, di monitorare le condizioni ambientali circostanti, di operare a distanza con sistemi basati su realtà virtuale.

Nell'ambito dell' "Industria 4.0" o industria del futuro, macchine ed interi insediamenti produttivi interagiranno, comunicheranno tra loro e con l'operatore, per migliorare la produttività e, soprattutto, la sicurezza, grazie all'estensione industriale di quella che è già definita "Industrial Internet of Things". In questo scenario, sarà quanto mai necessario rendere possibile il potenziamento proprio dell'infrastruttura Internet per supportare l'incremento del flusso di dati che vi si riverseranno e per fornire l'accesso alle miriadi di dispositivi con relativa richiesta di connessione. Non è infatti una semplice casualità che Internet sia passata al "protocollo Ipv6"; protocollo che estende a 232 gli indirizzi di rete disponibili. Le applicazioni fisse come, per esempio, gli elettrodomestici e i sistemi di sicurezza intelligenti, si appoggeranno alla rete cablata ma le applicazioni mobili, indossabili e presenti in luoghi non cablati, richiederanno necessariamente una rete wireless, la cui tecnologia non risulta ancora ben definita. La telefonia mobile "LTE" o ed il futuro "5G" si confermeranno come tecnologie di fondamentale importanza. Il mondo della ricerca punta molto anche sulle connessioni wireless "punto-punto" o "punto-multipunto" su "bande ISM", peraltro, meno complesse e meno costose delle reti cellulari. Risulterà necessario l'utilizzo di apparati che consentano collegamenti a grande distanza, mantenendo potenza di trasmissione e di basso consumo.
Il tutto darà lavoro a nuovi e più numerosi produttori, da quelli impegnati nella produzione di "microcontrollori low-power" sino ad arrivare a quelli che produrranno "soluzioni RF".
Per concludere, e per fare un esempio, i "protocolli Long Range" recentemente sviluppati, grazie alla capacità di minimizzare l'effetto del rumore, permetterebbero già di rendere leggibili deboli segnali trasmessi con potenze ridottissime.


6/12/2015 04:56:00 PM

MADE IN SAVONA

0 Comments »



Google premia le eccellenze nel digitale

C'è tempo sino a giovedì 30 aprile 2015 per iscriversi alla selezione del progetto "Made in Italy: eccellenze in digitale".

Questo progetto per diplomati e laureati savonesi è promosso da Google con la collaborazione di 64 Camere di commercio e permetterà ai giovani italiani di lanciare il proprio progetto sul web.

128 borse di studio per chi elaborerà progetti digitali che possano aiutare ed incentivare il comparto commerciale delle imprese che operano in ambito agroalimentare, culturale e turistico.

Inoltre, per chi vincerà, ci sarà un corso formativo e 9 mesi di lavoro in azienda.

Per ottenere ulteriori informazioni in merito, cliccare sul collegamento sotto riportato: http://www.eccellenzeindigitale.it


4/27/2015 11:24:00 AM

Mobilificio FIORIN - un nostro progetto realizzato nel 1990

Mobilificio FIORIN - un nostro progetto realizzato nel 1990
Centro artigianale e commerciale sito in Leca d'Albenga (Savona), reg. Carrà, via al Piemonte n° 1. Progettista, direttore dei lavori e calcolatore dei cementi armati: Alessandro Sicco

Blog, Website and Web

Wikipedia

Risultati di ricerca