ASSISTENZA E VENDITA PER AZIENDE E PRIVATI
Questa è la lista dei principali personaggi che hanno dato inizio all’era informatica. Per facilitarne la lettura, questo articolo è stato diviso in 6 parti.
Questa è la seconda parte, partiamo dall’anno 1900, se sei interessato a tutti i personaggi:
– la prima parte, fino al 1899
Nel 1939, ottenne la sua PhD in fisica alla Harvard University. Durante questo periodo ebbe a che fare con equazioni differenziali complesse, che poteva risolvere solo in modo numerico, ma trovava il processo troppo tedioso, così pensò ad un sistema elettro-meccanico in grado di svolgere questo lavoro al suo posto. Il computer fu originariamente chiamato ASCC (Automatic Sequence Controlled Calculator), mentre più tardi prese il nome di Harvard Mark I.
Grazie all'alla cooperazione di ingegneri della IBM il progetto fu portato a termine e venne installato nel febbraio del 1944 ad Harvard. Richard Milton Bloch, Robert Campbell e Grace Hopper entrarono a far parte del progetto più tardi come programmatori. Nel 1947 Aiken completò la Harvard Mark II, più tardi lavorò alla Harvard Mark III e alla Harvard Mark IV, la quale era completamente elettronica.
Un altro importante contributo di Aiken fu l'introduzione di un programma specializzato della scienza informatica all'università di Harvard nel 1947, pochi decenni più tardi il programma comparve in altre università.
È generalmente considerato come uno dei più grandi matematici della storia moderna, a lui si devono contributi fondamentali in numerosi campi della conoscenza come la teoria degli insiemi, analisi funzionale, topologia, fisica quantistica, economia, informatica, teoria dei giochi (una disciplina che studia modelli matematici di interazione strategica tra agenti razionali), fluidodinamica e in molti altri settori della matematica.
Nel 1944 venne a conoscenza da un suo collega, Herman Goldstein, impegnato anch'esso nel Progetto Manhattan, dei tentativi effettuati presso il laboratorio balistico di costruire una macchina capace di trecento operazioni al secondo. Von Neumann ne fu profondamente colpito e vide nuovi e affascinanti scenari.
Il primo incontro con un calcolatore fu poco tempo dopo, con la macchina Harvard Mark I (ASCC) di Howard Aiken, costruita in collaborazione con l'IBM; poi conobbe ENIAC (Electronic Numerical Integrator And Computer) presso il Ballistic Research Laboratory, un ammasso enorme di valvole, condensatori e interruttori da trenta tonnellate di peso, costruita da Prosper Eckert e John Mauchly.
Questo primordiale computer era utile nei calcoli balistici, meteorologici e sulle reazioni nucleari, ma era una macchina limitata, quasi priva di memoria e di elasticità, che eseguiva solo operazioni predeterminate. Per migliorarla bisognava utilizzare l'intuizione avuta da Alan Turing una decina d'anni prima nel suo articolo sui numeri computabili, cioè permettere al computer (l'hardware) di eseguire istruzioni codificate in un programma (software) inseribile e modificabile dall'esterno.
Nel 1945 pubblicò come frutto di questi studi First Draft of a Report on the Edvac.
L'EDVAC (Electronic Discrete Variables Automatic Computer) era la prima macchina digitale programmabile tramite un software basata su quella che fu poi definita l'architettura di von Neumann.
uno psichiatra britannico e uno dei pionieri e divulgatori della cibernetica. Fu noto anche semplicemente come Ross Ashby o W. Ross Ashby.
Frequentò la Sidney Sussex College dell'Università di Cambridge, ove ricevette il bachelor in zoologia nel 1924. In questo periodo coltivava anche altri interessi, come quelli per l'astronomia e la matematica, decise poi di dedicarsi alla medicina, frequentando il St. Bartholomew's Hospital a Londra dal 1924; ricevette poi a Cambridge una laurea di primo livello in medicina (MB B.Ch.) nel 1928, un diploma in Psicologia Medica nel 1930, e la laurea in medicina, sempre a Cambridge, nel 1935.
Nel 1930 iniziò a lavorare come psichiatra al Leavesdon Mental Hospital vicino a Londra, e per i successivi trenta anni proseguì la sua carriera di psichiatra in varie posizioni in Gran Bretagna. Tra il 1945 e il 1947 fu in India come ufficiale medico dell'esercito britannico.
Fu membro del Ratio Club e fu in contatto con il gruppo dei partecipanti alle Macy Conference on Cybernetics. Nel 1952 e nel 1956 aveva pubblicato le sue due opere maggiori, "Design for a Brain - The origin of adaptive behaviour" e "An introduction to cybernetics".
Dal 1960 e fino al 1970 si trasferì negli Stati Uniti, come docente al Dipartimento di Biofisica e Ingegneria Elettronica dell'Università dell'Illinois, che in quegli anni era un importante centro di ricerca cibernetica guidato da Heinz von Foerster; in questo ruolo conobbe e influenzò molti esponenti della cosiddetta cibernetica del secondo ordine.
Ashby concepì e realizzò un dispositivo elettromeccanico che chiamò "omeostato", che divenne presto popolare. L'omeostato è uno dei primi dispositivi in grado di adattarsi all'ambiente; ha mostrato comportamenti come l'abituazione, il rafforzamento e l'apprendimento attraverso la sua capacità di mantenere l'omeostasi in un ambiente che cambia, iniziato a progettare nel 1946 fu poi costruito da William Ross Ashby nel 1948 al Barnwood House Hospital
Divenne celebre in seguito ad una decisione presa al termine del processo Honeywell v. Sperry Rand nel 1973 riguardo ad un brevetto, che lo riconobbe inventore del primo computer digitale elettronico automatico. La sua macchina è chiamata ABC cioè Atanasoff–Berry Computer.
Figlio di un immigrato bulgaro, Atanasoff ricoprì i ruoli di professore e direttore di un centro governativo di ricerca durante la guerra, e poi di dirigente di ricerca.
La calcolatrice meccanica Monroe, che era lo strumento migliore a sua disposizione durante lo sviluppo della sua tesi di dottorato, realizzò la sua poca praticità e l'eccessiva fatica nell'utilizzo; Atanasoff incominciò a cercare metodi di calcolo più veloci. Allo Iowa State College, Atanasoff fece ricerche sull'uso dei calcolatori Monroe e delle tabulatrici IBM nei problemi scientifici. Nel 1936 inventò una calcolatrice analoga a queste per analizzare le superfici geometriche. L'accuratezza necessaria per i suoi calcoli lo spinse a considerare una soluzione digitale al problema, anziché proseguire con metodi meccanici.
Secondo Atanasoff, alcuni principi operativi dell'Atanasoff–Berry Computer (ABC) furono da lui concepiti in un lampo di intuizione durante l'inverno tra il 1937 e il 1938 dopo una passeggiata a Rock Island nell'Illinois. Con una sovvenzione di 650$ ottenuta nel settembre 1939 e con l'assistenza di Clifford Berry, un suo studente laureato, il primo prototipo di ABC venne creato già nel novembre di quell'anno.
L'idea chiave utilizzata nell'ABC include l'uso del sistema binario e della logica Booleana per risolvere simultaneamente più di 29 equazioni lineari. L'ABC non possiede una CPU, ma è concepito come dispositivo elettronico che utilizza tubi sottovuoto per effettuare i calcoli digitali. Inoltre, usa memorie rigenerative separate su condensatori, che operano con un processo utilizzato ancora oggi nelle memorie DRAM.
Insieme a J. Presper Eckert inventò uno dei primi calcolatori, chiamato ENIAC (acronimo di Electronic Numerical Integrator and Computer), leggendario primo computer general purpose della storia elaborato all'Università della Pennsylvania, dove Mauchly era docente di ingegneria elettrica. Il processore serviva a calcolare le traiettorie balistiche per l'esercito statunitense ed entrò in funzione negli anni '40. In seguito si è interessato anche allo sviluppo di altri calcolatori sempre più avanzati, nonché della diffusione degli stessi nei diversi settori di applicazione, come quelli militare, industriale, amministrativo e scientifico. Il suo nome è infatti legato anche all'EDVAC, al BINAC e all'UNIVAC I.
Matematico, logico e accademico statunitense. Ha dato importanti contributi allo sviluppo della logica matematica e ai fondamenti dell'informatica teorica. Dimostrò per primo il cosiddetto paradosso della conoscibilità di Church-Fitch
È stato ricercatore dei Bell Labs e riconosciuto a livello internazionale come uno dei padri del moderno computer digitale. Era noto per il suo lavoro negli anni '30 e '40 sulla realizzazione di circuiti digitali a logica booleana utilizzando relè elettromeccanici come elemento di commutazione.
Stibitz, che ha ideato il computer digitale elettrico nel 1937 presso i Bell Labs, completò una sommatrice a relè che in seguito chiamò "Modello K", che ha utilizzato per calcolare l'addizione binaria. Le repliche del "Modello K" ora risiedono al Computer History Museum, allo Smithsonian Institution, alla William Howard Doane Library della Denison University e all'American Computer Museum di Bozeman, dove vengono assegnati i George R. Stibitz Computer and Communications Pioneer Awards.
Alla fine del 1938 la Bell Labs autorizzò un programma di ricerca completo coordinato da Stibitz. Il loro computer per numeri complessi, completato nel novembre 1939 e messo in funzione nel 1940, era in grado di eseguire calcoli su numeri complessi. In una dimostrazione alla conferenza dell'American Mathematical Society al Dartmouth College nel settembre 1940, Stibitz utilizzò una telescrivente modificata per inviare comandi al Computer dei numeri complessi di New York tramite le linee telegrafiche. È stata la prima macchina informatica mai utilizzata in remoto.
Nel 1932 per la prima volta riuscì a decifrare i messaggi tedeschi criptati con la macchina Enigma ideata da Arthur Scherbius. Il successo di Rejewski permise ai suoi colleghi inglesi nel corso della seconda guerra mondiale di decifrare per un certo periodo un grande numero di messaggi tedeschi, dando un importante contributo alla sconfitta della Germania nazista.
L'invenzione deriva dagli studi iniziati nel 1932 dal matematico polacco e da una sua prima realizzazione sotto forma di macchina calcolatrice completata nel 1938.
Una volta ricostruita la struttura logica di Enigma usando la teoria delle permutazioni, Rejewski progettò un dispositivo elettromeccanico, il “ciclometro”, che permetteva di ricostruire velocemente la posizione iniziale dei rotori; in seguito venne usata anche la tecnica dei "fogli perforati", ed infine venne costruita la “bomba crittologica”, un rudimentale calcolatore basato sul metodo forza bruta.
La "Bomba" era una macchina composta da molti moduli: ciascun modulo consisteva di uno scaffale di ferro largo 2,10 metri, alto 1,90, profondo 60 centimetri, e pesante circa una tonnellata. Ogni modulo metteva in movimento 108 rotori (più tre di controllo) in gruppi di 12 per fila, che eseguivano gradualmente la decodifica dei messaggi.
Con questo mastodontico apparato dal dicembre 1932 venne decriptato un buon numero di messaggi cifrati tedeschi; nel 1937 fu stimata al 75% la percentuale di messaggi Enigma decifrati dall'Ufficio Cifra polacco.
Tra il 1938 e il 1939 i tedeschi cambiarono le regole di cifratura, aumentando il numero dei rotori della macchina Enigma da 3 a 5, così che il metodo dei polacchi perse gran parte della sua efficacia. In quel periodo la decrittazione di messaggi Enigma da parte dell'Ufficio Cifra polacco divenne sporadica. In effetti, nel 1940 furono decrittati con l'aiuto della "Bomba" solo 178 messaggi.
Era un ingegnere inglese impiegato presso l'ufficio postale generale britannico. Durante la seconda guerra mondiale, Flowers ha progettato e costruito Colossus, il primo computer elettronico programmabile al mondo, per aiutare a decriptare i messaggi tedeschi.
Flowers propose un'alternativa più sofisticata della Bomba di Marian Rejewski, usando un sistema elettronico, che il suo staff chiamò Colossus, usando forse 1.800 valvole termoioniche (tubi a vuoto) invece di 150 e avendo un solo nastro di carta invece di due (quindi richiedeva una sincronizzazione) generando elettronicamente i modelli delle ruote. Costruito presso i Post Office Research Labs, utilizzando alcuni dei suoi fondi.
All'età di 16 anni la sua domanda di ammissione anticipata al Vassar College fu respinta (i suoi voti in latino erano troppo bassi), ma fu ammessa l'anno seguente. Ottenne il Ph.D. in matematica nel 1934 a Yale, insegnando per i due anni successivi presso Vassar, per poi entrare a far parte della Riserva della Marina nel 1943.
Famosa per il suo lavoro sul primo computer digitale della Marina, Harvard Mark I, fu assegnata presso l'ufficio per l'Ordenance Computation Project dell'università di Harvard.
Nel 1949 entrò nella Eckert-Mauchly Computer Corporation, la società che aveva sviluppato l'ENIAC, fra i primi computer digitali in circolazione, e che in quel periodo stava progettando l'UNIVAC I (il primo modello di computer commerciale). Grace M. Hopper, lavorando sull'idea di compilatore (sull'A-0 System), ebbe un ruolo primario nello sviluppo e nella progettazione del COBOL.
Continuò intensamente il suo lavoro di progettista e ricercatrice presso l'istituto e dopo essersi congedata dalla Riserva nel 1966 venne immediatamente richiamata per lavorare alla standardizzazione del linguaggio per i computer militari. Fu definitivamente congedata nel 1986 col grado di contrammiraglio. È famosa anche per aver diffuso l'uso del termine bug per indicare un malfunzionamento di un computer, dopo aver estratto una falena dal Marc II
Un inventore austriaco nato a Vienna. Tra le sue innovazioni c'era il circuito stampato. Nel 2012, la rivista Printed Circuit Design & Fab l'ha portato alla Hall of Fame.
Iniziò a fabbricare una radio utilizzando un circuito stampato, mentre cercava di vendere alcune delle sue idee. In questo periodo, l'Odeon lo assunse per lavorare sulla loro tecnologia cinematografica.
È l'unico ad aver vinto due premi Nobel in Fisica.
Nel 1956 per il transistor, assieme a William Bradford Shockley e Walter Brattain, e nel 1972 per la teoria fondamentale della superconduttività ordinaria assieme a Leon Neil Cooper e John Robert Schrieffer, nota anche come teoria BCS.
Il fisico e ingegnere Julius Edgar Lilienfeld progettò il primo transistor in Canada nel 1925, descrivendo un dispositivo simile all'attuale transistor ad effetto di campo. Tuttavia, Lilienfeld non pubblicò alcuna ricerca a tal proposito e nel 1934 l'inventore tedesco Oskar Heil brevettò un dispositivo molto simile.
Conosciuto soprattutto per la fondazione del ramo della logica matematica conosciuta come teoria della ricorsione insieme con Alonzo Church, Kurt Gödel, Alan Turing ed altri, e per l'aver inventato le espressioni regolari. Fornendo metodi per determinare quali problemi sono risolvibili, il lavoro di Kleene portò allo studio di quali funzioni fossero calcolabili. Tra le altre cose, l'algebra di Kleene, la star di Kleene, il teorema di ricorsione di Kleene ed il teorema di punto fisso di Kleene sono stati chiamati così in suo onore. Ha anche contribuito all'intuizionismo matematico fondato da Luitzen Egbertus Jan Brouwer.
Oskar Heil e la moglie Agnesa Arsenjewa, nel loro pioneristico documento, svilupparono il concetto di tubi a vuoto a velocità modulata, nei quali un fascio di elettroni poteva essere emesso sotto forma di "grappoli", generando, con un grado di efficienza molto alto, onde radio di frequenza e potenza molto elevate rispetto ai tubi a vuoto/termoionici convenzionali. Ciò diede la luce al "Heil Tube", il primo generatore di microonde facilmente realizzabile, che fu il precursore dell'invenzione del klystron e del reflex klystron, basato sui medesimi principi. Questi dispositivi rappresentano una pietra miliare nello sviluppo delle tecnologie sulle microonde, in particolare radar, e i tubi a vuoto a velocità modulata sono molto usati anche ai giorni nostri.
Heil viene spesso citato quale inventore del primo dispositivo a transistor, basato su numerosi brevetti da lui pubblicati.
Fu anche l'inventore dell'altoparlante con tecnologia "Heil Air Motion Transformer" che rese famosi i diffusori ESS AMT-1A nella metà degli anni 70. (Il diaframma di Heil è costituito di mylar a cui è incollato uno strato di alluminio conduttivo).
Un fisico statunitense che con John Bardeen e Walter Houser Brattain fu insignito, nel 1956, del Premio Nobel per la Fisica, per "le loro ricerche sui semiconduttori e la scoperta dell'effetto transistor".
L'esperimento di Haynes e Shockley, che dimostrò la possibilità di iniettare lacune in una barretta di germanio mediante un contatto a punta, misurandone mobilità e vita media, fu il precursore del primo "transistor a filamento" e diede il via alla moderna elettronica dei semiconduttori.
Gli sforzi intrapresi da Shockley per commercializzare un nuovo design di transistor negli anni cinquanta e sessanta portarono alla creazione della Silicon Valley in California, che sarebbe così divenuta uno dei centri nevralgici per lo sviluppo dei dispositivi a semiconduttore.
Si mantenne agli studi vendendo propri quadri in stile futurista, coltivò poi la pittura come hobby per tutta la vita.
Divenuto giovane ingegnere aeronautico, avrebbe voluto affermarsi come progettista, approfittando del grande sviluppo dell'aviazione militare tedesca.
Iniziò ad interessarsi all'informatica per poter eseguire in fretta e senza fatica i molti e complessi calcoli necessari per la progettazione dei velivoli. Fu così che Zuse intraprese nel 1936 la progettazione e la costruzione di una macchina in grado di eseguire calcoli velocemente, ma dotata di una certa versatilità d'uso, Il prototipo dello Z1, che venne costruito in casa dei genitori, che lo aiutarono economicamente. La prima macchina di Konrad Zuse presentava una struttura già molto simile a quella dei moderni computer: era programmabile, dotata di memoria e di un'autonoma unità di calcolo in virgola mobile basata sul sistema binario. Inoltre lo "Z1" funzionava ad una velocità di clock generata da un motore elettrico, regolabile manualmente con un potenziometro da un minimo di circa 0,3 cicli al secondo fino al massimo di 1 hertz, cioè un ciclo di calcolo al secondo.
Le istruzioni venivano immesse tramite un nastro di celluloide perforato simile ad una pellicola cinematografica da 35 mm, sul quale venivano poi scritte anche le risposte del calcolatore. La macchina di Zuse utilizzava la tecnologia elettromeccanica disponibile negli anni trenta, ed era basata su un originale sistema di memorie meccaniche costituite da piastrine metalliche scorrevoli sovrapposte e dotate di incastri a geometria variabile (sistema che brevettò nel 1936) azionate da un motore elettrico, che la rendevano simile nell'aspetto e nel suono prodotto ad una specie di grosso centralino telefonico poggiato su tavolo. In origine la chiamò "V1", dove "V" è l'iniziale in tedesco di "Modello Sperimentale". Successivamente denominò la macchina "Z1", dall'iniziale del proprio nome. Tuttavia la natura meccanica dei componenti determinava talvolta dei malfunzionamenti della macchina. Fu per questo che in seguito, durante la seconda guerra mondiale, Zuse iniziò ad utilizzare i relè, dapprima solo per le unità di calcolo della macchina Z2 (1938-1939), e successivamente per tutti i componenti della macchina Z3 (1939-1941).
Il calcolatore "Z1", completato nel 1938, è considerato in assoluto come il primo computer moderno, avendo anticipato di alcuni anni il Colossus, realizzato nel 1944 dal geniale Alan Turing per la decifrazione dei messaggi prodotti da Enigma, nonché i primi enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli Stati Uniti nella seconda metà degli anni quaranta. A Konrad Zuse si deve anche l'invenzione del primo linguaggio di programmazione della storia, ideato per fornire le istruzioni allo "Z1": il Plankalkül. Negli anni seguenti e soprattutto nel secondo dopoguerra Zuse proseguì i suoi studi realizzando macchine sempre più avanzate e perfezionate, e fondando una propria impresa di produzione di computer, la "Zuse KG", che ebbe un grande successo commerciale fino agli anni settanta.
Oggi molte delle sue macchine, originali o ricostruite da Zuse stesso negli anni ottanta come la Z1, sono conservate nel Museo della Tecnica di Berlino.
Il convegno internazionale di Informatica del 1998 riconobbe a Konrad Zuse con il suo "Z1" il ruolo di inventore del primo computer programmabile "funzionante" della storia.
Il suo lavoro influenza la nascita della disciplina dell'informatica, grazie alla sua formalizzazione dei concetti di algoritmo e calcolo mediante l'omonima macchina, che costituì un significativo passo avanti nell'evoluzione verso il moderno computer.
Per questo contributo è solitamente considerato il padre della scienza informatica e dell'intelligenza artificiale, da lui teorizzate già negli anni trenta, è anche uno dei più brillanti crittoanalisti che operarono nel Regno Unito durante la seconda guerra mondiale, per decifrare i messaggi scambiati da diplomatici e militari delle Potenze dell'Asse.
Turing lavorò nel principale centro di crittoanalisi del Regno Unito (Bletchley Park), dove ideò una serie di tecniche per violare i cifrari tedeschi e costruendo, nel 1939 la prima macchina elettromeccanica chiamata "Bomba" (dagli studi iniziati nel 1932 dal matematico polacco Marian Rejewski e da una sua prima realizzazione sotto forma di macchina calcolatrice completata nel 1938) e in seguito progettando la seconda chiamata "Colossus" per decodificare codici creati dalla macchina crittografica Enigma.
Nato a Pueblo (Colorado), ha frequentato la "Centennial High School", dimostrando un forte interessamento al campo scientifico.
Laureatosi all'Università di Stanford nel 1934, conosce in questa occasione il suo futuro socio, Bill Hewlett.
Nel 1939, incoraggiato da F.E. Terman e con un capitale di 538$, insieme ad Hewlett costituì nel suo garage di Palo Alto la società Hewlett-Packard (HP), un'azienda rivolta al mercato dell'elettronica.
Hewlett nacque ad Ann Arbor (Michigan), dove il padre insegnava alla Facoltà di Medicina dell'Università del Michigan.
Nel 1916 la famiglia si trasferì a San Francisco dopo che il padre prese una posizione simile alla Stanford Medical School.
Frequentò la Lowell High School e fu accettato all'Università di Stanford come favore nei confronti del padre.
Hewlett ricevette il suo bachelor's degree dall'Università di Stanford nel 1934, un Master in ingegneria elettrica dal MIT nel 1936, e il titolo di Ingegnere Elettrico da Stanford nel 1939.
Nel 1939 insieme a David Packard fondano la Hewlett-Packard, nata come produttrice di componenti elettroniche, diventando in seguito uno dei più grandi produttori di computer e periferiche.
É stato un informatico britannico, vincitore del Premio Turing nel 1967 per il progetto e la costruzione di EDSAC.
L'Electronic Delay Storage Automatic Calculator (EDSAC) è uno dei primi computer elettronici digitali della storia. È stato progettato e costruito dall'Università di Cambridge (Inghilterra), in particolare da Maurice Wilkes e la sua squadra, ispirati dal documento di John von Neumann sull'EDVAC First draft of a report on the EDVAC. L'EDSAC è il terzo computer a programma memorizzato della storia e il terzo computer della storia basato sull'architettura di von Neumann, dopo lo Small-Scale Experimental Machine e il Manchester Mark 1.
In particolare, un suo articolo del 1958, dal titolo "Microprogramming" ha contribuito notevolmente alla diffusione della microprogrammazione e ne costituisce un riferimento classico.
Il contributo di Licklider allo sviluppo di Internet consiste più di idee che non di invenzioni. Ha previsto l'esigenza di calcolatori in rete con interfaccia utente facili da usare. Le sue idee prevedevano computazione grafica, interfacce punta-e-clicca, biblioteche digitali, commercio elettronico, operazioni bancarie on-line e software che esiste su una rete e migra laddove necessario.
Licklider è stato determinante nel concepire, finanziare e gestire la ricerca che ha portato ai moderni personal computer e a Internet.
Nel 1963, per scherzo, invia un documento ai suoi colleghi intitolato Memorandum for members and affiliates of the Intergalactic Computer Networks dove teorizza la possibilità di una Internet interplanetaria. In suo onore fu dato il nome Licklider Transmission Protocol a un protocollo delle IPN.
É stato un matematico statunitense, famoso per l'ideazione del Codice di Hamming, un codice correttore lineare. Il codice di Hamming può rilevare e correggere gli errori di un singolo bit. In altre parole, la distanza di Hamming tra le code-word trasmesse e ricevute deve essere zero o uno per una comunicazione affidabile. In alternativa, il codice può rivelare (ma non correggere) errori doppi.
Dopo il dottorato conseguito all'Università dell'Illinois nel 1942, Hamming fu professore all'Università di Louisville fino all'inizio della Seconda guerra mondiale. Nel 1945 fece parte del Progetto Manhattan, programmando uno dei calcolatori digitali per calcolare le soluzioni delle equazioni fornite dai fisici del progetto.
Nel 1968 ricevette il Premio Turing.
fu uno dei fondatori della semantica denotazionale e un pioniere del linguaggio di programmazione e del time-sharing.
Le sue ricerche spaziano nei campi della psicologia cognitiva, dell'informatica, dell'economia, del management e della filosofia della scienza. Con circa un migliaio di pubblicazioni, molte citatissime, è uno dei più importanti scienziati sociali del XX secolo.
Il genio e l'influenza di Simon sono evidenziati dai molti premi ricevut:
il premio Turing della Association for Computing Machinery (1975) insieme ad Allen Newell per aver dato "contributi fondamentali all'intelligenza artificiale, alla psicologia cognitiva e al trattamento delle liste";
il Premio Nobel per l'economia "per le sue pionieristiche ricerche sul processo decisionale nelle organizzazioni economiche" (1978);
la Medaglia Nazionale per la Scienza (1986); e il premio della American Psychological Association per gli eccezionali contributi alla psicologia (1993).
Simon è stato anche un pioniere nel campo dell'intelligenza artificiale, creando con Newell i programmi "Logic Theory Machine" (1956) e "General Problem Solver" (G.P.S.) (1957). Il G.P.S. è stato forse il primo tentativo di separare la strategia di problem solving dall'informazione sui problemi da risolvere. Ambedue i programmi furono sviluppati usando il linguaggio Information Processing Language (IPL) (1956) sviluppato da Newell, Cliff Shaw e Simon.
Nel 1932, dopo un lavoro da telegrafista per la Western Union, sotto la guida di Andrew Coltrey, iniziò gli studi presso l'Università del Michigan, dove, nel 1936, conseguì due lauree triennali: in matematica e in ingegneria elettronica.
Shannon si iscrisse quindi al MIT dove frequentò, tra l'altro, il laboratorio nel quale, sotto la direzione di Vannevar Bush, si lavorava alla realizzazione dell'analizzatore differenziale, un calcolatore analogico. Nel 1938 conseguì il titolo di Master of Science in ingegneria elettronica presentando la tesi sull'analisi simbolica dei relè e dei circuiti. In questo studio Shannon dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori (dispositivi che possono essere in uno di due stati) segue esattamente le regole dell'algebra di Boole, se si fanno corrispondere i due valori"VERO" e "FALSO" della logica simbolica allo stato APERTO o CHIUSO di un interruttore. Pertanto un circuito digitale può essere descritto da un'espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra. Shannon definì così un potente metodo, ancora oggi usato, per l'analisi e la progettazione dei sistemi digitali di elaborazione dell'informazione.
Durante l'estate del '41, per alcuni mesi lavorò nei Laboratori Bell; subito dopo, accettò un'offerta per lavorare a tempo pieno su progetti di interesse militare. Sarebbe rimasto ai Bell Labs fino al 1972.
I primi progetti di Shannon riguardarono i dispositivi automatici di puntamento antiaereo ed i problemi connessi di riduzione del rumore.
Iniziò anche ad occuparsi di crittografia, lavorando al progetto di un dispositivo digitale per la segretezza delle comunicazioni telefoniche.
Nel 1948 pubblicò in due parti il saggio sulla teoria matematica della comunicazione, che poneva la base teorica per lo studio dei sistemi di codificazione e trasmissione dell'informazione. In questo lavoro si concentrò sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente. Fu in questa ricerca che Shannon coniò la parola bit, per designare l'unità elementare d'informazione.
La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare le informazioni in modo da poterle trasferire e collegare tra loro.
Nel 1949 pubblicò un altro notevole articolo, La teoria della comunicazione nei sistemi crittografici, con il quale praticamente fondò la teoria matematica della crittografia. Shannon è inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).
Nel 1956 fu eletto membro della National Academy of Sciences. Dal 1958 al 1978 fu professore al MIT.
Nonostante il professore di matematica le avesse detto di stare a casa ad accudire e crescere i bambini, decise di studiare giornalismo perché le avrebbe permesso di viaggiare molto lontano.
Durante la Seconda guerra mondiale, mentre gli uomini stavano combattendo, l'esercito statunitense aveva bisogno di donne che fossero in grado di calcolare le traiettorie balistiche, fu quindi assunta alla Moore School of Engineering per lavorare come computatrice (persona che svolgeva i calcoli), e fu presto scelta come una delle sei donne che dovevano programmare ENIAC, per svolgere elettronicamente i calcoli delle traiettorie balistiche per il Ballistic Research Laboratory, dell'esercito degli Stati Uniti. Il loro lavoro su ENIAC ha fatto guadagnare a ciascuna un posto nella Women in Technology International.
Ebbe molte idee produttive, principalmente di notte, tanto da portare le altre programmatrici a scherzare su di lei dicendo che "risolveva più problemi lei durante il sonno che altre persone da sveglie."
Dopo la seconda guerra mondiale, lavorò al Remington Rand e al National Bureau of Standards. Fu il capo del settore delle Ricerche nella Programmazione, laboratorio di Matematica Applicata al David Taylor Model Basin nel 1959. Aiutò a sviluppare UNIVAC, progettando pannelli di controllo che posizionano il tastierino numerico accanto alla tastiera e portando gli ingegneri a sostituire l'esterno nero di Univac con il tono grigio-beige che è diventato il colore universale dei computer.
Fu tra coloro che scrissero il primo sistema generativo di programmazione (SORT/MERGE), inoltre usò un mazzo di carte da gioco per sviluppare l'albero decisionale per la funzione di ordinamento binario; scrisse il codice per impiegare un gruppo di dieci unità nastro per leggere e scrivere i dati, come necessario durante il processo e scrisse anche il primo pacchetto di analisi statistica, utilizzato per il censimento degli Stati Uniti del 1950.
Nel 1953 divenne supervisore della programmazione avanzata in una parte del Navy’s Applied Math lab nel Maryland, dove rimase fino al 1966. Holberton collaborò con John Mauchly allo sviluppo del set di istruzioni C-10 BINAC, considerato il prototipo di tutti i linguaggi di programmazione moderni. Partecipò anche allo sviluppo dei primi standard per il linguaggio COBOL e FORTRAN con Grace Hopper. Partecipò molto attivamente anche alle prime due revisioni dello standard del linguaggio Fortran.
Clifford Berry è nato a Gladbrook (Iowa), suo padre possedeva un'officina di riparazione di elettrodomestici, dove ha imparato a conoscere le radio. Ottenenne laurea in ingegneria elettrica nel 1939, seguita da un master in fisica nel 1941, presso la allora Iowa State College (Iowa State University).
Nel 1939 collaborò con Atanasoff per la creazione del ABC
Nel 1948 conseguì il dottorato di ricerca in fisica presso la Iowa State University.
Fu uno dei primi informatici, forse meglio conosciuto per la legge di Grosch, che ha formulato nel 1950.
La legge di Grosch è una legge empirica proposta nel 1965, questa legge collega le prestazioni delle applicazioni a quelle del computer. La legge asserisce che avere computer più veloci permette elaborazioni più economiche e quindi, rende questi computer convenienti.
Paul Strassmann, asserisce che la legge di Grosch è stata totalmente confutata e che serve a ricordare che la storia dell'informatica è piena di leggi empiriche errate. Grosch stesso affermò che la legge aveva molto più senso negli anni sessanta e settanta che attualmente. Originariamente era prevista per valutare il prezzo dei servizi informatici.