home studio grafico stampa volantinaggio advertising esterno pubblicità mobile
campagne politiche partners gallery consulting guide contatti
computer internet www pubblicità online grafica risparmio
Le Guide di Salehi Consulting
Il Mondo dei Computer

First Published: Mon, 1 Nov 2004 10:00:00 GMT

ATTENZIONE! Il contenuto di questa documentazione è IN COSTRUZIONE.

Vista la complessità della materia il suo scopo principale è quello di dare uno sguardo alla evoluzione generale tenendo d’occhio gli sviluppi futuri di hardware e software, rimandando alle fonti adeguate per una trattazione più approfondita di tali materie.

Tutte le fonti, quando presenti, vengono riportate in fondo, nei paragrafi: Link Esterni e Riferimenti.

Il mondo dei computer. Breve viaggio nel mondo dei computer….

Sommario
La Storia dei Computer

I computer sono parte integrante della nostra società. Sono delle macchine in grado di elaborare dati e, di conseguenza, informazioni secondo codici prefissati. Gli elaboratori elettronici hanno avuto e continuano ad avere una enorme evoluzione.

Quì di seguito i passaggi principali che hanno segnato lo sviluppo tecnologico dei computer.

1936 Alan Turing inventa la Macchina di Turing, da lui chiamata “a-machine”, dove la "a" iniziale significa “automatic”.

1946 Nasce negli Stati Uniti d’America l’ENIAC (Electrical Numerical Integrator and Calculator), il primo elaboratore elettronico.

1951 J. Presper Eckert e John Mauchly, già tra gli inventori dell’ENIAC, danno alla luce l’UnivAC (Universal Automatic Computer) che a differenza dell’ENIAC, poteva essere programmato per svolgere qualsiasi compito. I computer escono dai laboratori per raggiungere i primi utilizzatori paganti.

1952 Il 4 novembre del 1952 fù una data che segnò la storia di diversi campi. La CBS (C Broadcast S) utilizza un UnivAC per predire i risultati delle elezioni presidenziali negli Stati Uniti d’America. Il risultato fù strabiliante con scostamenti dell’ordine del 1%. Dalle elezioni del 1956 in poi tutti i network televisivi americani si sono dotati di supporti informatici per lo sviluppo delle previsioni.

1958 Jack S. Kilby, nei laboratori della Texas Instruments, realizza il primo circuito stampato basato sul germanio. L’anno successivo Robert Noyce produce il primo circuito stampato basato sul silicio. Nasce una nuova industria.

1959 entra in produzione il primo elaboratore italiano costruito in serie: l’ELEA 9003.

1964 è l’anno degli S/360 di IBM, la prima famiglia di computer compatibili tra loro.

1965 ci porta il packet switching &lsquo,commutazione di pacchetto’. Su questa tecnica di trasmissione dati sono tuttora basati la maggior parte dei protocolli di rete.

1966 Viene costruito l’ILIAC IV, il primo computer parallelo e appaiono sul mercato le prime calcolatrici tascabili.

1967 è l’anno della nascita di un indicatore di posizione per un sistema di visualizzazione, il mouse.

1970 comparsa nei supermercati statunitensi dei codici a barre per la lettura automatizzata dei prezzi delle merci con i relativi computer alla cassa.

1971 A. Shugart inventa il disco floppy.

1974 viene ricordato per il kit di montaggio dell’Altair 8800 della MITS (Micro Instruments Telemetry Systems) a 397 dollari. Era basato sul microprocessore Intel 8008 e lo si può considerare il primo pc (personal computer) commerciale della storia.

1976 Steve Jobs e Steve Wozniak fondano Apple e presentano la scatola di montaggio dell’Apple I. Prezzo consigliato 666,66 dollari. È subito un successo.

1977 È la volta del VAX 11/780 di Digital Equipment e di Apple II.

1978 Texas Instruments immette sul mercato Speak & Spell, il primo giocattolo parlante e Intel presenta il microprocessore 8086.

1980 È l’anno del RISC (Reduced Instruction Set Computer). Gli artefici furono, ognuno per prorpio conto, David Patterson dell’università di California a Berkeley, IBM e HP (Hewlett-Packard).

1981 Il 12 agosto del 1981 fù presentato il primo pc IBM. Era dotato di un microprocessore 8088 funzionante ad una frequenza di 4.7 MHz e di sitema operativo PC-DOS 1.0 di Microsoft. Si apre l’era dei compatibili.

1982 È l’anno della nascita di Sun Microsystems (Stanford University Network) ad opera di Scott McNealy, Andy Bechtolsteim, Vinod Khosla e Bill Joy, e di SGI (Silicon Graphics).

1983 è l’anno di Compaq (Compatibility quality) e dei primi portatili.

1984 È l’anno del primo Macintosh.

1986 Danny Hillis, sovvenzionato dalla DARPA, costruisce la Connection Machine CM-1. Una macchina parallela composta da 64.000 elementi di calcolo ad un bit. Nel corso della dimostrazione trovò tutte le occorrenze di una parola chiave nel testo di 16.000 articoli in un ventesimo di secondo.

1987 IBM presenta la sua linea di pc PS/2.

1989 Intel mette in commercio il processore 80486.

1991 Tandy presenta il primo lettore di CD-ROM.

1993 Intel presenta il processore Pentium.

1995 Intel presenta il processore Pentium Pro.

1997 Intel presenta il Pentium II.

1999 Intel rilascia il Pentium III.

CPU - Central Processing Unit

Il numero di componenti presenti nel circuito di una CPU (Central Processing Unit) o processore è passato dai 4,000 del microprocessore 4004 del 1970 agli oltre 40 milioni dei processori della generazione del 2001 e, questo dato, è destinato a cambiare con il passare del tempo per lo sviluppo delle tecnologie di miniaturizzazione e l’utilizzazione di nuovi materiali.

La tabella 1 mostra la crescita del numero di transistor contenuti nei microprocessori della famiglia X86.

Tabella 1: Evoluzione dei microprocessori.
Processore Anno Transistori Frequenza [Hz] Architettura [bit] Tecnologia [nm]
4004 1970 4,000 1,000,000 ? 0.24
8008 1973 8,000 4,700,000 ? 0.24
8086 1978 29,000 10,000,000 ? 0.24
80386 1986 275,000 27,500,000 32 0.24
80486 1989 1,200,000 100,000,000 32 0.24
Pentium 1993 3,200.000 200,000,000 32 0.24
PPro 1996 5,500,000 255,500,000 32 0.24
PII 1997 6,500,000 366,500,000 32 0.24
PIII 1999 10,000,000 1,000,000,000 32 0.24-0.18
PIV 2001 42,000,000 2,000,000,000 32 0.18-0.14
PIVEE 2006 178,000,000 3,200,000,000 64 0.065
Il Linguaggio dei Computer

I calcolatori o elaboratori elettronici sono macchine in grado di elaborare informazioni trasformandole in altre informazioni. Una definizione alquanto generale è la seguente: informazione è un qualunque insieme di segnali che condizionano l’evoluzione di un sistema. Nell’informatica questa definizione assume un significato ancor più ristretto, si intende, per informazione tutto ciò che può essere rappresentato tramite opportune sequenze di simboli in un alfabeto prefissato.

Nel 1954, grazie a Grace Hopper, vede la luce il compilatore A-O, il capostipite dei linguaggi di programmazione. Nel 1957 viene commercializzato da IBM il linguaggio fortran (formulas translator), rivolto principalmente al mondo tecnico-scentifico.

Nel 1959 esce il Cobol (Common business oriented language), il primo linguaggio indipendente dalla macchina di utilizzazione.

Tra il 1960 e il 1965 si sviluppa il progetto, tra America Airlines e IBM, di un sistema per la gestione computerizzata delle prenotazioni aeree che prende il nome di Sabre. Nel 2000, lo stesso sitema, completatosi ed evolutosi, è interfacciato al Web, collega oltre 30.000 agenzie di viaggio, 3 milioni di clienti privati e aziendali, 400 linee aeree, 50 società di noleggio di automobili, 35.000 hotel, dozzine di linee ferroviarie, linee di traghetti e di navi da crociera.

Il 1961 si contraddistingue per la nascita del timesharing ideato da John McCarthy e sviluppato da Fernando Corbuto due docenti del MIT (Massachusetss Institute of Technology). l’idea è che un programma in esecuzione su una macchina può essere interrotto, il suo stato, al punto d’interruzione, viene memorizzato per lasciare la esecuzione dei passi di un altro programma per poi essere ripreso dallo stesso punto. Con questo concetto l’interattività dell’utente con la macchina diventa più pratica.

Nel 1962 la Purdue University istituisce il primo croso di laurea in &lsquo,computer science’ che quando comparve in Italia (19XX) venne poi malamente tradotto con &lsquo,scienza dell’informazione’ e solo successivamente in &lsquo,informatica’.

Il 1963 è l’anno del codice ASCII (American Standard Code for Information Interchange) che assegna a caratteri, numeri, segni di punteggiatura e caratteri di controllo un valore univoco. Nella tabella sottostante viene riportato il suddetto codice. I valori delle prime due righe e l’ultimo dell’ultima sono i caratteri di controllo (return, back space, line feed, carriage return, escape, delete, etc.).
 

Tabella 2: Il codice ASCII a 7 bit.
NUL SCH STX ETX EOT ENQ ACK BEL BS HT LF VT FF CR SO SI
DLE DC1 DC2 DC3 DCA NAK SYN ETB CAN EM SUB ESC FS GS RS US
space ! " # $ % & ' ( ) * + , - . /
0 1 2 3 4 5 6 7 8 9 : ; < = > ?
@ A B C D E F G H I J K L M N O
P Q R S T U V W X Y Z [ \ ] ^ _
` a b c d e f g h i j k l m n o
p q r s t u v w x y z { | } ~ DEL

Il 1964 è la volta del linguaggio BASIC.

Nel 1969 i Bell Labs decidono di abbandonare il progetto di un sistema operativo multiutente e multitasking Multics. Due ricercatori, Dennis Ritchie e Ken Thompson, decidono di crearne uno nuovo, Unix.

Nel 1971 Niklaus Wirth crea il linguaggio Pascal.

Nel 1973 Dennis Ritchie, ai Bell Labs, sviluppa il linguaggio C.

Il 1979 è l’anno di VisiCalc (Visible Calculator) di VisiCorp. Ideato da Bob Frankson e Dan Bricklin fù il primo spreadsheet (foglio di calcolo) commerciale. Da questo momento, ogni azienda ha almeno un buon motivo per acquistare un pc.

Tabella 3: Vendite di prodotti software sul mercato americano.
Anno Milioni di dollari
1981 140 $
1984 1,400 $

Il 1983 vede il lancio di Lotus 1-2-3, un altro spreadsheet. Il suo lancio pubblicitario non avvenne, come consuetudine, attraverso le riviste specializzate ma attraverso pagine e pagine su &lsquo,Wall Street Journal’, &lsquo,Business Week’, &lsquo,Fortune’. Lotus voleva una nuova clientela, quella degli uomini d’affari, dei manager.

Nel 1985 Bjarne Stroustrup dà i natali al più diffuso linguaggio di programmazione a oggetti &lsquo,object-oriented’, il C++.

Nel 1987 Microsoft lancia, insieme ad IBM, il sitema operativo OS/2 1.0 e, da sola, Windows 2.0. Nell’anno successivo viene fondata la OSF (Open Software Foundation) per la definizione di standard nei sistemi aperti.

Nel 1990 Microsoft presenta Windows 3.0, Tim-Berners-Lee, fisico ricercatore del CERN (Centre Europeen Recherge Nuclear) di Ginevra, sviluppa l’HTML (Hyper Text Markup Language) e l’HTTP (Hyper Text Transfer Protocol).

Nel 1992 Microsoft lancia il sistema operativo Windows NT rilasciato poi l’anno successivo.
Nel 1993 l’NCSA (National Centre for Supercomputing Applications) lancia il browser Mosaic.

Nel 1994 esce la versione 1.0 del sitema operativo Linux per opera di Linus Torvalds, uno studente dell’Università di Helsinki.

Il 1995 è contraddistinto dal lancio di Windows 95 da parte di Microsoft, Sun Microsystems rilascia il linguaggio JAVA.

Il 1996 è l’anno dei database (basi di dati) Oracle, Informix, IBM e Sybase.

Nel 1998 Microsoft lancia Windows 98.

Nel 2000, sempre Microsoft, rilascia Windows 2000.

Programma Istruzioni che il calcolatore esegue.

Istruzione Una frase che utilizza parole o/e simboli propri del linguaggio utilizzato.

Linguaggio E’ definito da un vocabolario, da regole sintattiche e semantiche.

Vocabolario Insieme delle parole e dei simboli propri del linguaggio.

Primitive Sono parole con significato primitivo, originario, che il calcolatore può comprendere ed eseguire. Si chiamano primitive perché non sono definite da altre istruzioni. Sono quindi le parole base che vanno a formare il vocabolario.

Procedure Sono nuove parole che vengono "inventate" durante la scrittura dei programmi e che vanno ad arricchire anch’esse il vocabolario.

Regole Sintattiche Permettono di costruire frasi corrette combinando fra di loro le parole del vocabolario.

Regole Semantiche Data una frase sintatticamente corretta, esse ne definiscono il significato.
 

italiano Binario ternario ottale Decimale esadecimale
zero 0 0 0 0 0
uno 1 1 1 1 1
due 10 2 2 2 2
tre 11 10 3 3 3
quattro 100 11 4 4 4
cinque 101 12 5 5 5
sei 110 20 6 6 6
sette 111 21 7 7 7
otto 1000 22 10 8 8
nove 1001 100 11 9 9
dieci 1010 101 12 10 A
undici 1011 102 13 11 B
dodici 1100 110 14 12 C
tredici 1101 111 15 13 D
quattordici 1110 112 16 14 E
quindici 1111 120 17 15 F
Sguardo al Futuro

Che cosa ci riserva il futuro?
Questa è una bella domanda a cui da sempre si vorrebbe dare risposta. Ecco cosa ne pensano cinque oracoli moderni.

Bill Gates chairman e CEO di Microsoft.
Fino a questo momento non abbiamo visto ancora nulla di quello che la tecnologia informatica può fare. Tra dieci anni il pc sarà un piccolo schermo che si potrà tranquillamente portare in giro oppure che si troverà incastonato nel piano di una scrivania e che servirà per visionare lettere e documenti. Il concetto di archivio, così come lo intendiamo oggi - pile di documenti di carta -, risulterà antiquato. Oggi anche quelli di noi che ricorrono alla tecnologia il più possibile continuano a mettere su carta molte cose: tra non molto i progressi nel campo dell’hardware e del software renderanno tutto ciò puramente digitale. Le innovazioni saranno comunque molte. Per esempio lavoreremo con computer che condivideranno i dati e saranno sempre collegati ad Internet. Non sarà più necessario spostare i dati: semplicemente i nostri file compariranno. Credo che nel giro di dieci anni i libri, la musica e le fotografie saranno tutti in formato digitale. La gente si stupirà quando si troverà di fronte un modulo di carta. Sono disposto a giocare la mia reputazione, ma credo fermamente che nei prossimi dieci anni qualsiasi modulo di carta sparirà. Chi baserà il suo lavoro principalmente sui dati avrà a disposizione un computer, un dispositivo contenente un processore dalla potenza incredibile, in grado di offrire risposte immedite: si porterà questo dispositivo appresso, per esempio ad una riunione, e tutte le informazioni saranno lì. I computer saranno in grado di replicare le informazioni e, quando verranno lanciati degli aggiornamenti, i dati raggiungeranno tutti i computer e tutte le applicazioni. I sistemi operativi si occuperanno dell’autenticazione e del riconoscimento vocale e a nessuno interesserà sapere dove risiederà il server”.

Ray Kurzweil, ha brevettato diverse tecnologie hardware e software, fondatore di una decina di societa di informatica, ha scritto diversi libri e vinto diversi premi letterari e scientifici. Da anni è impegnato nella progettazione di prodotti per i disabili.
Entro il 2019 un computer da 1.000 dollari avrà la stessa potenza di calcolo del cervello umano: 20 milioni di miliardi di operazioni al secondo. Entro il 2029, 1.000 dollari di computer equivarranno a 1.000 cervelli. Questo riguarda la capacità dell’hardware. Il software impiegherà di più, ma nel 2029 saranno in grado di pareggiare la flessibilità e l’intelligenza del cervello umano. In parte questo avverrà effettuando il &lsquo,reverse engineering’ del cervello. Una volta raggiunto un livello di intelligenza comparabile a quella umana, i computer la surclasseranno necessariamente perché in grado di condividere con estrema facilità le proprie conoscienze e le abilità che hanno appreso. Personalmente penso che il mondo dell’intelligenza umana e quello delle macchine cominceranno a crescere assieme. Piazzeremo impianti neurali intelligenti nei nostri cervelli per migliorare le capacità sensoriali e le nostre percezioni, la memoria e le facoltà di raggionamento. In effetti lo stiamo già facendo, anche se in modo molto limitato. Saremo anche capaci di collegarci al Web direttamente con il cervello, senza bisogno di apparecchiature esterne, e la realtà virtuale sarà molto più convincente della versione molto rudimentale che ci è dato di sperimentare oggi”.The Law of Accelerating Returns by Ray Kurzweil (in English)

Scott McNealy presidente e CEO di Sun Microsystem.
Il concetto di computer non esisterà più, la stessa parola diventerà poco utilizzata. I computer si troveranno solo nelle stanze che ospiteranno i server. Tutto il resto si trasformerà in dispositivi collegati alla rete. Non esisteranno più personal computer, ma solo dispositivi di rete. Utilizzeremo smart card o tecnologie simili che ci permetteranno di far sapere ad altri dispositivi collegati alla rete chi siamo e a che cosa possiamo accedere. Digiteremo la nostra password e potremo accedere a qualsiasi servizio per il quale abbiamo pagato. L’idea che attualmente abbiamo delle interfaccie dei computer non sarà più tale. Nel giro di dieci anni andremo tutti in giro tenendo sotto il braccio (o sulla scrivania) il nostro mainframe personale, ci porteremo in giro senza problemi 40 milioni di righe di codice”.

Arno Penzias premio Nobel per la fisica e consulente dei Bell Labs.
In futuro tutto, o molto, verrà personalizzato in funzione della singola persona. Nel mondo del lavoro in questo modo si otterrà il massimo della produttività. McDonalds, per esempio, già sta attuando questa strategia: la persona dietro il bancone, anche se non sa fare i conti, deve solo premere il tasto corrispondente al Big Mac. Le interfaccie verranno progettate espressamente per noi. Una persona potrà essere mancina, o avere dei difetti di pronuncia - tutti abbiamo qualche difetto - ma con il tempo le macchine si occuperanno di supplire ai nostri difetti. I programmi individuali saranno sempre più personalizzati, e impareranno a conoscere i nostri comportamenti attraverso la presenza, in background, di un meccanismo di data mining. Questi programmi chiederanno: &lsquo,Cosa fai di solito quando ti trovi in situazioni simili a questa?’ Non si potranno eliminare gli standard, ma sarà certamente possibile far apparire una cosa standard agli occhi del computer e personalizzata agli occhi dell’utente”.

John Seely Brown responsabile scentifico di Xerox e direttore del PARC.
Uniremo i mondi della scienza organica e dell’informatica, realizzando componenti inorganici con proprietà di autodiagnosi e riparazione che potranno definirsi quasi biologiche. Questi componenti, che potrebbero anche essere microscopici, saranno in grado di eseguire azioni fisiche in modo molto accurato. Pensate, per esempio, alle stampanti a colori ad alta velocità: oggi necessitano di un’accurata registrazione dell’immagine, che viene generata quattro volte; un domani, attraverso pezzi di silicio microscopici che agiranno come cigli, la stampante sarà in grado di regolare la carta anche di un solo micron per far si’ che tutti i colori siano allineati in modo perfetto. Quello che avremo, quindi, sarà una superficie in movimento senza alcuna parte visibile in movimento, il che ci permetterà di realizzare una enorme quantità di nuove applicazioni”.

Vedi anche

Riferimenti
  • Alfred V. Aho, Jefferey D. Hullman, J. [1994]. Fondamenti di Informatica. Zanichelli.
  • Maestrini [1994]. Sistemi Operativi. McGraw - Hill.
  • N. Barkakati [1996]. I Segreti di Linux. Edizioni Apogeo.
Note e Citazioni
  1. ^ " Toronto Hydro to Install Wireless Network in Downtown Toronto". Bloomberg.com.
Generali
Link Esterni
Generali
Articoli
Storia
  • The Dream Machine: J.C.R. Licklider and the Revolution That Made Computing Personal M. Mitchell Waldrop
Note
  1. nota00