ASSISTENZA E VENDITA PER AZIENDE E PRIVATI
Questa è la lista dei principali personaggi che hanno dato inizio all’era informatica. Per facilitarne la lettura, questo articolo è stato diviso in 6 parti.
Questa è la terza parte, partiamo dall’anno 1919, se sei interessato a tutti i personaggi:
– la prima parte, fino al 1899
– la seconda parte, dal 1900 al 1918
Un ingegnere elettrico statunitense. Con John Mauchly, ha progettato il primo computer digitale elettronico (ENIAC), ha presentato il primo corso in argomenti di informatica (le lezioni della Moore School), ha fondato la Eckert – Mauchly Computer Corporation e ha progettato il primo computer commerciale negli Stati Uniti, l'UNIVAC, che incorporava l'invenzione di Eckert della memoria della linea di ritardo al mercurio.
É stato un matematico britannico, conosciuto per i suoi contributi in analisi numerica, per i quali ha ricevuto il Premio Turing nel 1970. Un anno dopo la sua morte gli è stato assegnato il Premio Chauvenet.
Durante la guerra nel 1940, iniziò a lavorare sulla balistica ma si trasferì al National Physical Laboratory nel 1946, dove lavorò con Alan Turing al progetto informatico ACE. Il Pilot ACE fu il primo computer costruito nel Regno Unito, venne sviluppato presso il National Physical Laboratory (NPL) verso la fine degli anni quaranta, fu sviluppato semplificando il progetto dell'Automatic Computing Engine sviluppato da Alan Turing.
Il Pilot ACE eseguì il primo programma il 10 maggio 1950 e venne presentato alla stampa nel dicembre 1950.
Successivamente, gli interessi di Wilkinson lo portarono nel campo dell'analisi numerica, dove scoprì molti algoritmi significativi.
Bemer ha iniziato la sua carriera come aerodinamico a Douglas Aircraft Company nel 1941, poi ha lavorato per RAND Corporation dal 1951, IBM dal 1957, e Honeywell dal 1974. Ha anche lavorato per UNIVAC.
Bemer è probabilmente il primo sostenitore del concetto di Software Factory. Si è occupato inoltre della standardizzazione del codice ASCII e per tale motivo è spesso considerato il padre o l'ideatore di tale codice.
Ha contribuito al concetto di Time-sharing (condivisione del tempo) per gestire il multitasking e fin dal 1971 ha sollevato il problema del Millennium Bug, ossia la possibile mancanza di corretta rappresentazione dell'anno 2000 nei programmi abituati a trattare l'anno con due sole cifre.
Ken Iverson nato vicino a Camrose, una città nel centro di Alberta (Canada). I suoi genitori erano contadini. Durante la seconda guerra mondiale, prestò servizio prima nell'esercito canadese e poi nella Royal Canadian Air Force. Ha ricevuto la laurea presso la Queen's University e il M.Sc. e dottorato di ricerca presso l'Università di Harvard. Nella sua carriera, ha lavorato per Harvard, IBM, I.P. Sharp Associates e Jsoftware Inc. É stato un matematico e informatico canadese, famoso per avere sviluppato il linguaggio APL (A Programming Language) nel 1957.
Ha ottenuto il Turing Award nel 1979 per i suoi contributi alla notazione matematica e alla teoria dei linguaggi di programmazione.
Nel 1943 conseguì la laurea in chimica presso il Carnegie Institute of Technology (Carnegie Mellon University).
Durante la seconda guerra mondiale, prestò servizio nell'esercito degli Stati Uniti, dove si interessò alla matematica. Ha poi conseguito sia un master (1949) che un dottorato di ricerca. (1950) in matematica al MIT. La sua tesi di dottorato era intitolata "Sulle equazioni integrali, la loro soluzione per iterazione e continuazione analitica". Nel 1952 partecipò al Progetto Whirlwind. Nel 1962 fu eletto presidente dell'Associazione per le macchine informatiche.
Ha ricevuto il Turing Award inaugurale nel 1966, per la sua influenza nell'area delle tecniche di programmazione avanzate e della costruzione di compilatori. In riferimento al lavoro svolto su Internal Translator nel 1956 (descritto da Donald Knuth come il primo compilatore di successo) e come membro del team che ha sviluppato il linguaggio di programmazione ALGOL.
Nel 1948, dopo aver svolto il servizio militare durante la Seconda guerra mondiale nella marina statunitense, completò la sua laurea in fisica alla South Dakota State University . In seguito studiò fisica teorica durante il suo dottorato alla University of Wisconsin-Madison. Nel 1952 sviluppò il suo primo computer il WISC. Nel 1952 andò a lavorare presso IBM dove collaborò allo sviluppo dell'IBM 704, dell'IBM 709 e al progetto Stretch, la base del sistema IBM 7030 Stretch. In segtuito lavorò al System/360 e divenne IBM Fellow nel 1965. Dal 1970 fondò diverse aziende, ma mai con grande fortuna.
Dr. Amdahl fu IBM Fellow nel 1965, e divenne membro della National Academy of Engineering nel 1967. Ha ricevuto molti premi per la sua attività di ricerca e ha depositato molti brevetti, ha ricevuto due Lauree honoris causa per le sue ricerche.
Famoso principalmente per la legge di Amdahl usata spesso nell'informatica parallela per predire l'aumento massimo teorico di velocità che si ottiene usando più processori.
Ha studiato matematica e chimica all'Exeter College dell'Università di Oxford. Nel 1948 si trasferisce a New York per lavorare per l'IBM come programmatore matematico.
Ha ricevuto un Premio Turing nel 1981.
Negli anni sessanta e settanta, mentre lavorava per l'IBM, creò il modello relazionale per la gestione delle basi di dati, pubblicando "A Relational Model of Data for Large Shared Data Banks" ("Un modello relazionale di dati per gestire grandi banche dati condivise") nel 1970.
Con suo grande disappunto, l'IBM tardò a sfruttare i suoi suggerimenti fino a quando la concorrenza cominciò ad implementarli, come Larry Ellison con il database Oracle sulla base delle idee di Codd. Una delle forme normali impiegate nella normalizzazione di basi di dati, la Forma normale di Boyce-Codd, prende proprio il nome da Edgar.
Edgar Codd coniò inoltre il termine OLAP e scrisse le dodici regole dell'esecuzione analitica online (online analytical processing). Fu autore, quindi, di considerevoli contributi all'informatica, ma il modello relazionale, una teoria generale della gestione dei dati che ebbe un enorme seguito, rimane il suo conseguimento più memorabile .
Inventore del disco ottico. Gregg è stato ispirato a creare il disco ottico nel 1958 mentre lavorava presso la società di elettronica della California, Westrex, una parte di Western Electric. Il suo brevetto per un "Videodisk" è stato depositato nel marzo 1962 mentre lavorava per far progredire la registrazione e la riproduzione del fascio di elettroni.
Gregg è andato a lavorare presso la divisione Mincom di 3M con gli esperti ingegneri di videocassette Wayne Johnson e Dean De Moss. I tre uomini hanno successivamente depositato i brevetti per coprire un sistema di registrazione del disco, un modo per duplicare i dischi e riprodurre i segnali TV da dischi fotografici. Quando Mincom incaricò l'SRI di Stanford di approfondire la ricerca, Gregg se ne andò e formò la sua compagnia, Gauss Electrophysics.
Nel 1968 i brevetti Gregg e Gauss furono acquistati da MCA (Music Corporation of America), che contribuì a sviluppare ulteriormente la tecnologia. I suoi progetti e brevetti hanno aperto la strada al LaserDisc, che ha contribuito alla creazione di DVD, compact disc e MiniDisc.
Nel 1963 inventò anche una videocamera a disco video in grado di memorizzare diversi minuti di immagini su un disco video ottico. Non c'erano file di brevetto per la fotocamera e si sa solo poco al riguardo.
Quando Gregg ha improvvisato la sua invenzione, si è immaginato come un consumatore. Ha interpretato che il LaserDisc (noto anche come disco ottico), "doveva essere di un costo estremamente basso, il che implicava la massima semplicità, i costi di materiale e lavorazione più bassi e la facilità d'uso".
Nell'estate del 1958, Kilby era un ingegnere neo assunto alla Texas Instruments e non aveva ancora diritto alle ferie estive. Egli passò l'estate lavorando su un problema nella progettazione dei circuiti che era comunemente chiamato la tirannia dei numeri e finalmente arrivò alla conclusione che la realizzazione di un gran numero di componenti su un singolo pezzo di semiconduttore fosse la soluzione al problema. Il 12 settembre presentò le sue ricerche ad alcuni dirigenti della Texas Instruments. Mostrò loro un pezzo di germanio con un oscilloscopio attaccato, premette un interruttore, e l'oscilloscopio mostrò un'onda sinusoidale, provando che il suo circuito integrato funzionava e che in tal modo aveva risolto il problema. Un brevetto per i "Circuiti elettronici miniaturizzati", il primo circuito integrato, fu ottenuto il 6 febbraio 1959. Oltre a quello sui circuiti integrati, Kilby è conosciuto per brevetti relativi alle calcolatrici portatili e alle stampanti termiche. In totale egli ottenne circa 60 brevetti.
Nato a Roma il 26 giugno 1924, era figlio di Evelyn Wang e del diplomatico Yin Tchou, che lavorava all'interno del Consolato della Repubblica di Cina presso la Santa Sede. Dopo la maturità classica conseguita al Liceo ginnasio Torquato Tasso di Roma, intraprese gli studi di ingegneria elettrotecnica a Roma, presso l'Università La Sapienza, ma li proseguì con una borsa di studio negli Stati Uniti, dove, nel 1947, ottenne il Bachelor of electrical engineering alla Catholic University of America di Washington. Trasferitosi a New York, incominciò a insegnare al Manhattan College mentre, al contempo, si specializzava al Politecnico dell'Università di New York a Brooklyn, dove, nel 1949, ottenne il Master of Science con una tesi dal titolo Ultrasonic Diffraction. Nello stesso anno sposò l'italiana Mariangela Siracusa. Nel 1952, all'età di 28 anni, fu chiamato a insegnare alla Columbia University di New York, nel dipartimento guidato da John R. Ragazzini.
Data la sua conoscenza dell'elettronica, nel 1955 Adriano Olivetti lo portò in azienda, e gli affidò l'incarico di formare un gruppo di lavoro che, in collaborazione con l'Università di Pisa, aveva l'obiettivo di progettare e costruire un calcolatore elettronico tutto italiano, su suggerimento di Enrico Fermi, utilizzando i 150 milioni di lire già stanziati (per un sincrotrone realizzato invece successivamente a Frascati) per la Calcolatrice Elettronica Pisana a valvole e transistor. Nello stesso anno si risposò con la pittrice Elisa Montessori. In seguito incominciò a lavorare al più grande Olivetti Elea, il massimo supercomputer a transistor dell'epoca, costruito poi in 40 esemplari.
Per ovviare alla difficoltà di programmazione dei calcolatori dell'epoca, nel 1954 Backus iniziò la direzione di un progetto di ricerca della IBM per la realizzazione di un linguaggio di programmazione più vicino alla comune notazione matematica. Il progetto sarebbe risultato nel linguaggio Fortran, il primo linguaggio di programmazione ad alto livello ad avere grande impatto, anche commerciale, sulla nascente comunità informatica.
Dopo la realizzazione di Fortran, Backus fu un membro molto attivo del comitato internazionale che presiedette al progetto del linguaggio ALGOL. In tale contesto propose una notazione per la rappresentazione delle grammatiche utilizzate nella definizione di un linguaggio di programmazione (le cosiddette grammatiche libere dal contesto). Tale notazione è nota come BNF, o Forma di Naur e Backus (Backus-Naur Form) ed unisce al nome di Backus quello di Peter Naur, un informatico europeo del comitato ALGOL che contribuì alla sua definizione.
Nel corso degli anni settanta, Backus si interessò soprattutto alla programmazione funzionale, progettando il linguaggio di programmazione FP, descritto nella lezione che tenne per il conferimento del premio Turing, "Can Programming be Liberated from the von Neumann Style?". Si tratta di un linguaggio di interesse soprattutto accademico, che però stimolò una notevole quantità di ricerca.
Dopo dieci anni di lavoro alla Dow Chemical Company a Midland, nel 1960, entra a far parte della General Electric, presso la quale sviluppa l'Integrated Data Store (IDS), uno dei primi sistemi di gestione di database. Lavorando in collaborazione con la Weyerhaeuser Lumber, sviluppa il primo sistema multitasking per i database IDS. Più tardi, alla General Electric, sviluppa il "dataBasic" che offre il supporto database agli utenti dei sistemi Time-sharing in BASIC. Successivamente entra a far parte di una piccola impresa, la Cullinane Information System (più tardi Cullinet). Nel 1983 fonda la Bachman Information Systems, presso la quale si occupa della progettazione di prodotti CASE.
Una raccolta dettagliata di materiale che descrive i suoi lavori nel mondo dei database di Bachman, dal 1951 al 2007, sono disponibili presso il Charles Babbage Institute, Università del Minnesota.
Seymour Roger Cray è stato un ingegnere elettronico statunitense, architetto di molti supercomputer ed imprenditore statunitense fondatore della Cray Research. Suo padre era un ingegnere civile e trasferì nel figlio la passione per la scienza e l'ingegneria. All'età di dieci anni era in grado di costruire un convertitore da schede perforate a codice morse. Lo scantinato di casa sua gli fu dato dai genitori come laboratorio.
Nel 1943 partecipò alla guerra in Europa e in seguito fu trasferito nelle Filippine, dove lavorò alla forzatura del codice giapponese. Nel 1950 torno negli Stati Uniti dove ricevette un B.Sc. in ingegneria elettrica all'University of Minnesota e nel 1951conseguì un M.Sc in matematica applicata.
Durante il lavoro alla CDC, Cray spesso si lamentava delle eccessive interferenze dei manager, per il suo lavoro richiedeva un ambiente calmo e la minor burocrazia possibile, l'ambiente in cui diede vita al 6600 e al 7600 (che furono grandi successi). Alcune scelte poco avvedute della CDC portarono la compagnia vicino alla bancarotta. Durante lo sviluppo dell'8600 la società era a corto di liquidi e quando Cray comunicò alla società che il progetto 8600 andava ripensato dall'inizio la società rifiutò le indicazioni di Cray ordinandogli di continuare con il progetto esistente. La società in quel periodo stava sviluppando anche il CDC STAR-100 e Norris non era pronto a sviluppare un altro progetto a pieno regime dato che la società aveva pochi fondi. Norris propose a Cray di sviluppare l'8600 come progetto secondario con un team ridotto ma Cray non era pronto ad accettare simili condizioni. Cray abbandonò la società nel 1972 e due anni dopo la società dovette annullare il progetto per l'impossibilità di realizzarne una versione affidabile come da Cray predetto. L'anno successivo fondò la Cray Research a Chippewa vicino al laboratorio CDC, Norris decise di investire 300.000 dollari nella nuova società. Come la CDC la Cray Research aveva un laboratorio a Chippewa Falls ma gli uffici commerciali erano a Minneapolis.
Quando il presidente della società fece un viaggio a Wall Street in cerca di finanziatori rimase sorpreso della reputazione che Cray godeva in quegli ambienti. Molti finanziatori erano pronti a fornire i capitali a Cray per sviluppare i suoi sistemi.
Dopo alcuni anni di sviluppo, nel 1976, il Cray-1 venne distribuito. Come i primi progetti Cray era l'intero computer a essere veloce e non solo il processore. Il Cray-1 superava qualsiasi macchina sul mercato incluso lo STAR-100 la macchina che la CDC aveva preferito al progetto 8600 di Cray. Il numero di serie 001 venne installato nei Los Alamos nel 1976, e nell'estate dello stesso anno il primo elaboratore completo venne venduto alla National Center for Atmospheric Research per 8,8 milioni di dollari. La società pensava di vendere circa una dozzina di macchine, la valutazione era fatta tenendo conto delle vendite dei precedenti modelli CDC, e invece le macchine vendute furono più di cento.
in seguito vennero prodotte versioni successive di supercomputer, il Cray-2. Cray X-MP e il Cray-3
Nel 1967, all'università di California, Santa Cruz, fondatore della facoltà di informatica. Ha svolto un ruolo importante nello sviluppo dei programmi accademici ed ha insegnato dal 1970 al 1973. È andato in pensione nel 1994, ma è rimasto attivo come professore emerito, insegnando in corsi di teoria delle informazioni ed analisi dei segnali.
Le realizzazioni di Huffman gli hanno portato numerosi premi ed onorificenze. Tra queste vanno ricordate quelle dell'IEEE come il Computer Pioneer Award ed il Golden Jubilee Award.
Durante la sua vita, Huffman ha dato contributi significativi allo studio delle macchine a stati finiti, dei circuiti di commutazione, nelle procedure di sintesi e nella progettazione dei segnali. Tuttavia, David Huffman è più noto per la leggendaria Codifica di Huffman, un algoritmo di compressione per la codifica lossless (senza perdita di dati) di lunghezza variabile. È il risultato di una tesi scritta quando era dottorando presso il MIT nel 1953.
La "Codifica di Huffman" è utilizzata in ogni applicazione che coinvolge la compressione e la trasmissione dei dati digitali, quali ad esempio fax, modem e reti informatiche.
Huffman ha contribuito in diverse altre aree, compreso la teoria delle informazioni, le procedure di progettazione per i circuiti logici asincroni e la progettazione di segnali per radar ed i sistemi di comunicazione. Ha inoltre contribuito all'analisi delle proprietà matematiche degli origami.
É stato un informatico statunitense, considerato il padre dell'architettura RISC. Ha ricevuto il premio Turing nel 1987.
Nel 1946 ha conseguito la laurea in ingegneria meccanica e il dottorato di ricerca e in matematica nel 1956, presso la Duke University, ha trascorso tutta la sua carriera come ricercatore industriale per IBM, dal 1956 al 1992.
Il progetto con le sue innovazioni più note è stato il minicomputer IBM 801, con la sua realizzazione del design del set di istruzioni dell'architettura potrebbe consentire alte prestazioni a basso costo.
È uno degli inventori dell'algoritmo CYK (C per Cocke). È stato anche coinvolto nel lavoro pionieristico di riconoscimento vocale e traduzione automatica presso IBM negli anni '70 e '80, ed è accreditato da Frederick Jelinek per aver dato origine all'idea di utilizzare un modello di linguaggio trigramma per il riconoscimento vocale.
Cocke è stato nominato IBM Fellow nel 1972. Ha vinto l'Eckert-Mauchly Award nel 1985, l'ACM Turing Award nel 1987, la National Medal of Technology nel 1991 e la National Medal of Science nel 1994, The Franklin Institute's Certificate of Merit nel 1996, il Seymour Cray Computer Engineering Award nel 1999 e la Benjamin Franklin Medal nel 2000.
Nel 2002, è stato nominato Fellow of the Computer History Museum "per il suo sviluppo e implementazione dell'architettura del computer con set di istruzioni ridotto e della tecnologia di ottimizzazione dei programmi.
Considerato il padre dell'architettura RISC.
Nel 1928, all'età di due anni, si trasferisce con la sua famiglia negli Stati Uniti, inizialmente a Boston, poi a Filadelfia, dove lavora con suo padre nella drogheria di famiglia, trasportando generi alimentari. Dopo il liceo, Paul Baran frequenta Ingegneria Elettronica alla Drexel University. Nel 1949, si laurea e successivamente lavora come tecnico sul primo computer commerciale, l'UNIVAC, presso la Eckert-Mauchly Computer Corporation. Poco tempo dopo, si sposa con Evelyn Baran, da cui avrà poi un figlio, David, e si trasferisce a Los Angeles. Qui lavora presso la Huges Aircraft Company di giorno, e frequenta un corso di Ingegneria Informatica presso l'U.C.L.A. di sera. Nella Huges Aircraft Company, il suo lavoro prevedeva l'elaborazione di dati radar e l'Ingegneria dei sistemi. Nel 1959, ottiene il Master in Ingegneria e viene assunto dalla RAND Corporation e vi rimane sino al 1968. Il RAND si occupava dei mezzi di comunicazione militari nel periodo della guerra fredda. Data la scarsa efficacia della rete telefonica a lunga distanza, Baran è chiamato per ideare una rete capace di sopravvivere ad attacchi nucleari. L'Ingegnere pensò ad una rete innovativa che non richiedeva l'utilizzo di switch centralizzati, permettendo il funzionamento della stessa, anche se alcuni nodi fossero stati distrutti dai bombardamenti. Quest'idea è la base delle reti a commutazione di pacchetto odierne.
Nel 1960, Paul Baran fu chiamato dal Presidente del Congresso degli Stati Uniti, per partecipare al team dell'ARPA. Il Progetto più importante a cui lavorò l'ARPA è ARPANET, costato allo Stato americano 2 miliardi e mezzo di dollari. Anche in questo caso, lo scopo primario era la costruzione di una rete trasmissiva. Questa doveva essere veloce, sempre attiva, con una dispersione di risorse minima. Molti studiosi credevano nella potenzialità della rete a commutazione di circuito, Paul invece, riprende il concetto di commutazione di pacchetto e ne spiega le basi in un articolo chiamato, On distributed communications networks. Nel progetto di queste reti, Baran si è ispirato al modello neuronale umano, dove i neuroni sono milioni, e la morte di un neurone/caduta di un collegamento, non pregiudica la fine di una trasmissione o del collegamento, ma altri neuroni fungono da collegamento, ricreando un percorso alternativo; nello stesso modo, secondo Paul Baran, avverrebbe la trasmissione in una rete a commutazione di pacchetto. Quest'idea di Baran viene accolta negativamente dalla comunità scientifica, specialmente negli ambienti militari e industriali. L'AT&T, leader nel settore delle telecomunicazioni, organizzò dei seminari per illustrare le ragioni per cui la commutazione di pacchetto fosse fallimentare. Quest'idea rimase inespressa sino al 1965, quando Donald Watts Davies, fisico inglese, sviluppa una teoria della commutazione di pacchetto simile a quella di Baran.
Baran pubblicò più di 60 testi che spaziavano in vari campi, vinse numerosi premi tra cui: Medaglia d'argento per l'eccellenza del prodotto (per il modem Trailblazer Telebit) da PC WORLD (1986), il Premio Edwin H. Armstrong dalla IEEE Communications Society (1987), la UCLA Advanced Computing Technologies Act Un Pioneer Award (1989). Mr. Baran ha vinto la IEEE Alexander Graham Medal Campana nel 1990, "Per pioniere in commutazione di pacchetto".
Fu un membro della IEEE, ACM, e SPIE. Fece parte del Consiglio Nazionale delle Ricerche (1986-1988) e del comitato editoriale delle reti per più di 10 anni.
Nel 2007 ricevette una prestigiosa medaglia dal presidente degli Stati Uniti George W. Bush, per il prezioso contributo offerto nel campo della tecnologia.
Mori all'età di 84 anni in seguito ad un cancro ai polmoni, il 26 marzo 2011 a Palo Alto.
La commutazione di pacchetto (in inglese packet switching), nelle telecomunicazioni, è una tecnica di accesso multiplo a divisione di tempo, specificamente concepita per il trasporto di dati, utilizzata per condividere un canale di comunicazione tra più nodi in modo non deterministico, suddividendo l'informazione da trasferire in pacchetti trasmessi individualmente e in sequenza, seguendo un meccanismo di instradamento dettato da relative tabelle di "instradamento". La commutazione di pacchetto trova applicazione nelle reti di calcolatori e più in generale nelle reti di telecomunicazione. Esempi di reti basate sulla commutazione di pacchetto sono le reti locali di calcolatori e Internet.
Kenneth Harry Olsen, è stato un ingegnere statunitense che ha co-fondato la Digital Equipment Corporation (DEC) nel 1957 con il collega Harlan Anderson e suo fratello Stan Olsen.
Nasce a Bridgeport, nel Connecticut. Olsen ha iniziato la sua carriera lavorando le estati in un'officina meccanica. Riparare le radio nella sua cantina gli ha dato la reputazione di inventore del quartiere.
Dopo aver prestato servizio nella Marina degli Stati Uniti tra il 1944 e il 1946, Olsen ha frequentato il Massachusetts Institute of Technology(MIT), dove ha conseguito una laurea in ingegneria elettrica, sia Bachelor (1950) che Master (1952).
Durante i suoi studi al MIT, l'Office of Naval Research del Dipartimento della Marina degli Stati Uniti ha reclutato Olsen per aiutare a costruire un simulatore di volo computerizzato. Mentre al MIT ha diretto la costruzione del primo computer di ricerca transistorizzato. Olsen era un ingegnere che aveva lavorato al MIT Lincoln Laboratory sul progetto TX-2.
La connessione più importante di Olsen con Project Whirlwind era il suo lavoro sul Memory Test Computer (MTC), descritto come "un computer per scopi speciali costruito per testare la memoria di base per Whirlwind." A differenza del TX-0 a 18 bit, che era "progettato per essere un predecessore di una macchina più grande a 36 bit, il TX-2," Whirlwind e l'MTC usavano 16 bit.
Nel 1957, Olsen e un collega del MIT, Harlan Anderson, decisero di avviare la propria azienda. Si sono rivolti all'American Research and Development Corporation, una delle prime società di venture capital, fondata da Georges Doriot, e hanno fondato la Digital Equipment Corporation (DEC) dopo aver ricevuto $ 70.000 per una quota del 70%. Negli anni '60, Olsen ha ricevuto brevetti per un interruttore saturabile, un circuito di gate del trasformatore a diodi, una versione migliorata della memoria a nucleo magnetico e il buffer della stampante di linea.
Olsen è stato conosciuto nel corso della sua carriera per il suo stile di gestione e per la promozione dell'innovazione ingegneristica. La valutazione di Olsen dell'innovazione e dell'eccellenza tecnica ha generato e reso popolare tecniche come la gestione delle matrici ingegneristiche, che sono ampiamente utilizzate oggi in molti settori. Olsen apprezzava l'umiltà, guidava un'utilitaria e teneva un semplice ufficio in un vecchio mulino. Era anche un pilota esperto e guidava il suo aereo.
Nel 1977, riferendosi ai computer utilizzati nell'automazione domestica all'alba dell'era dei computer domestici, si dice che Olsen abbia detto: "Non c'è motivo per nessuno di avere un computer a casa sua". Olsen ha ammesso di aver fatto l'osservazione, anche se dice che le sue parole sono state estrapolate dal contesto e si riferiva a computer configurati per controllare le case, non ai PC. Secondo Snopes.com, "l'interpretazione errata fuori contesto dei commenti di Olsen è considerata molto più divertente di quello che intendeva veramente, quindi questa è la versione che è stata promulgata ormai da decenni".
Nel 1986, la rivista Fortune ha nominato Olsen "l'imprenditore di maggior successo d'America", e lo stesso anno ha ricevuto l'IEEE Engineering Leadership Recognition Award. Olsen è stato oggetto di una biografia del 1988, The Ultimate Entrepreneur: The Story of Ken Olsen and Digital Equipment Corporation, scritta da Glenn Rifkin e George Harrar.
Nel 1993, l'Institute of Electrical and Electronics Engineers ha assegnato a Olsen la medaglia IEEE Founders.
È stato nominato membro del Computer History Museum nel 1996. Ha ricevuto la medaglia Vermilye nel 1980. È stato nominato membro onorario dell'UPE (International Honor Society for the Computing and Information Sciences) l'8 ottobre 1975.
Nel 2011, è stato inserito al sesto posto nella lista MIT150 dei 150 migliori innovatori e idee del MIT per il suo lavoro sul minicomputer.
A partire dal 1987 Olsen nelle apparizioni pubbliche ha descritto UNIX come "olio di serpente". Alcuni credevano che stesse facendo una caratterizzazione generale di UNIX, mentre altri credevano che si riferisse specificamente al suo marketing esagerando i suoi benefici. Mentre Olsen credeva che VMS fosse una soluzione migliore per i clienti DEC e spesso parlava dei punti di forza del sistema, approvava e incoraggiava uno sforzo interno per produrre un prodotto UNIX nativo basato su BSD sulla linea di computer VAX chiamato Ultrix. Tuttavia, questa linea non ha mai ricevuto un supporto entusiastico completo al DEC.
Olsen è stato costretto a ritirarsi dal DEC, dimettendosi da presidente nel 1992. Successivamente è diventato presidente di Advanced Modular Solutions. Olsen è stato anche uno dei maggiori contributori di The Family, un'organizzazione religiosa e politica.
Olsen era un amministratore del Gordon College di Wenham, Massachusetts There, the Ken Olsen Science Center was named after him in 2006. Lì, il Ken Olsen Science Center è stato intitolato a lui nel 2006 e dedicato il 27 settembre 2008.
Fernando José Corbató è stato un informatico statunitense, conosciuto per il suo contributo allo sviluppo dei sistemi time-sharing. Ha ricevuto il premio Turing nel 1990.
Corbató è nato il 1 luglio 1926 a Oakland, in California, da Hermenegildo Corbató, un professore di letteratura spagnola del Villarreal, in Spagna, e da Charlotte (nata Carella Jensen) Corbató. Nel 1930 la famiglia Corbató si trasferì a Los Angeles per il lavoro di Hermenegildo all'UCLA.
Nel 1943, Corbató si iscrisse all'UCLA, ma a causa della seconda guerra mondiale fu reclutato dalla Marina durante il suo primo anno. Durante la guerra, Corbató esegue il debug di un'incredibile gamma di attrezzature", ispirando la sua futura carriera.
Corbató ha lasciato la Marina nel 1946, si è iscritto al California Institute of Technology e ha conseguito una laurea in fisica nel 1950. Ha poi conseguito un dottorato di ricerca in fisica presso il Massachusetts Institute of Technology nel 1956. È entrato a far parte del Centro di calcolo del MIT subito dopo la laurea, divenne professore nel 1965 e rimase al MIT fino alla pensione.
Il primo sistema di time-sharing a cui è stato associato era noto come MIT Compatible Time-Sharing System (CTSS), una prima versione del quale è stata dimostrata nel 1961. A Corbató viene attribuito il primo uso di password per proteggere l'accesso ai file su un grande sistema informatico, sebbene in seguito abbia affermato che questo metodo di sicurezza rudimentale si era proliferato ed era diventato ingestibile.
L'esperienza con lo sviluppo di CTSS ha portato a un secondo progetto, Multics, che è stato adottato da General Electric per i suoi sistemi informatici di fascia alta (successivamente acquisita da Honeywell). Multics ha aperto la strada a molti concetti ora utilizzati nei moderni sistemi operativi, tra cui un file system gerarchico, sicurezza orientata all'anello, elenchi di controllo degli accessi, archivio a livello singolo, collegamento dinamico e ampia riconfigurazione in linea per un servizio affidabile. Multics, sebbene di per sé non particolarmente di successo commerciale, ispirò direttamente Ken Thompson a sviluppare Unix, i cui diretti discendenti sono ancora ampiamente utilizzati; Unix è stato anche un modello diretto per molti altri progetti di sistemi operativi successivi.
Premi
Tra i molti premi, Corbató ha ricevuto il Premio Turing nel 1990, "per il suo lavoro pionieristico nell'organizzare i concetti e guidare lo sviluppo dei sistemi informatici per uso generale, su larga scala, con condivisione del tempo e delle risorse".
Nel 2012 è stato nominato Fellow del Computer History Museum "per il suo lavoro pionieristico sulla multiproprietà e il sistema operativo Multics".
Robert Norton Noyce (Burlington, 12 dicembre 1927 – Austin, 3 giugno 1990) è stato un imprenditore e inventore statunitense. Soprannominato "il sindaco di Silicon Valley", fu cofondatore della Fairchild Semiconductor nel 1957 e di Intel nel 1968. A Noyce è accreditata, assieme a Jack Kilby, l'invenzione del circuito integrato: tra la fine del 1958 e l'autunno del 1959, infatti, sia Noyce che Kilby (allora impiegato presso Texas Instruments) produssero i primi modelli funzionanti di microchip (realizzati rispettivamente in silicio e germanio). Lo sviluppo di questa tecnologia, che sta alla base di tutti i moderni chip CMOS, avrebbe condotto Federico Faggin, nel 1968, alla realizzazione del primo microprocessore (Intel 4004) ovvero all'implementazione fisica di una CPU su un singolo circuito integrato.
A 22 anni si laurea in matematica a Stanford per poi specializzarsi, alla Princeton University. Dopo la specializzazione viene assunto alla RAND Corporation, nello stabilimento di Santa Monica, dove lavora per la logistica dell'United States Air Force. Qui collabora con Joseph Cruskal, elaborando con lui due differenti teorie dell'organizzazione. Ottiene il suo dottorato di ricerca presso la Tepper School of Business dove conosce Herbert Simon. In questo periodo Newell continua a lavorare per la RAND Corporation conducendo i propri studi per l'Air Force. Tuttavia proprio in questo periodo crea un primo simulatore capace di esaminare ed analizzare le interazioni nell'abitacolo dell'aereo. Sarà da questi studi che Newell giungerà alla conclusione che l'"information processing" deve essere l'attività centrale dell'organizzazione.
Nel 1954 inizia ad appassionarsi all'intelligenza artificiale, dopo aver partecipato ad un seminario tenuto da Oliver Selfridge. Dopo solo pochi mesi Newell scrisse il libro "The Chess Machine: An Example of Dealing with a Complex Task by Adaptation" dove esponeva la sua neonata teoria sull'IA. Il suo lavoro venne notato da Herbert Simonun, allora giovane economista e psicologo e futuro premio Nobel. Proprio con lui, insieme al programmatore J. C. Shaw svilupparono quello che sarebbe stato poi ricordato come il primo programma intelligente della storia: il Logic Theory Machine. Il lavoro di Newell e Simon apriva così le porte al campo dell'intelligenza artificiale.
Tra le invenzioni più importanti: il processamento e l'elaborazione delle liste (paradigma per il quale riceverà qualche anno più tardi il premio Turing), le applicazioni di nuovi paradigmi di ricerca come l'analisi mezzi-fini e lo sviluppo di nuove euristiche.
Tutte queste scoperte, insieme a molte altre, vennero presentate nel 1956 ad una conferenza sulla possibilità di simulare la coscienza umana tramite le macchine tenuta al Dartmouth College, ritenuta oggi l'effettivo "punto zero" della ricerca sull'intelligenza artificiale (persino questo termine venne coniato da John McCarthy proprio in quell'occasione). Tutti coloro che vi parteciparono divennero negli anni a venire leader nel campo della ricerca sull'IA, Newell e Simon inclusi.
Rafforzati da questa esperienza, i due, tornati a Pittsburgh, formarono il primo laboratorio di intelligenza artificiale all'interno della Carnegie Mellon University e qui diedero vita, nel giro di due decenni, ad una serie di importanti programmi, primo tra tutti il General Problem Solver.
Il lavoro di Newell, che attraverso quarant'anni aveva completamente rivoluzionato il concetto di sistema intelligente, culminò nella creazione del SOAR nel 1990, che fu anche la sua ultima creazione. Newell infatti dedicò tutto il tempo a sua disposizione al miglioramento di questo progetto.
McCarthy si distingueva per le sue conoscenze di logica matematica in relazione all'Intelligenza Artificiale. Una scuola di pensiero diversa, nata al MIT, propone "l'inclusione procedurale del sapere" usando piani di alto livello, asserzioni, e ponendo il primo traguardo nel linguaggio Planner ed in seguito nella Scientific Community Metaphor. La controversia che ne risultò è ancora attuale ed oggetto di ricerca.
McCarthy inventò il linguaggio di programmazione Lisp e pubblicò i suoi progetti sul Communications of the ACM nel 1960. Motivò inoltre la creazione del Progetto MAC al MIT, ma lasciò tale università preferendo Stanford University nel 1962. Lì creò il Laboratorio di Intelligenza Artificiale, che fu per molti anni amico-rivale del Progetto MAC.
Nel 1961, durante le celebrazioni del centenario del MIT, fu il primo a dire che il metodo time-sharing (condivisione a tempo) dei computer avrebbe potuto condurre a un futuro dove la potenza dei calcolatori ed anche specifiche applicazioni avrebbero potuto essere vendute secondo il modello economico dell'utilità. Quest'idea era molto popolare alla fine degli anni sessanta, ma scomparì intorno alla metà degli anni settanta, quando divenne chiaro che l'hardware, il software e le telecomunicazioni del tempo non erano pronte, ma a partire dal 2000, l'idea è tornata in superficie in nuove forme.
Dopo il servizio militare nella marina degli Stati Uniti, nel 1950 conseguì una laurea in matematica all'Università di Harvard e nel 1954 un dottorato nella medesima materia a Princeton.
Nel 1951, Minsky costruì la prima macchina di apprendimento casuale a rete neurale elettronica, lo SNARC.
Lavorò al MIT sin dal 1958. Nel 1963 fu uno dei fondatori del Progetto MAC. Il suo ultimo incarico fu la cattedra di Toshiba Professor of Media Arts and Sciences, e quello di docente di ingegneria elettronica e informatica al MIT.
Tra i suoi brevetti si ricordano:
- nel 1963, il primo display grafico da indossare;
- il microscopio confocale a scansione (predecessore del microscopio confocale a scansione laser, oggi largamente diffuso)
- insieme a Seymour Papert, la prima versione del linguaggio di programmazione Logo.
Scrisse il libro Perceptron (insieme a Seymour A. Papert), che divenne il lavoro fondamentale nel campo dell'analisi delle reti neurali artificiali. La sua critica delle ricerche non rigorose in tale campo è stata considerata responsabile della virtuale scomparsa delle reti neurali artificiali dalla ricerca accademica negli anni
Secondo Papert, il processo di apprendimento è un processo di costruzione di rappresentazioni più o meno corrette e funzionali del mondo con cui si interagisce.
L'essere umano, a prescindere dall'età, ha bisogno di avere a disposizione materiali concreti affinché la conoscenza acquisita sia tanto più vicina alla realtà.
Papert parte dall'osservazione di attività di alcune civiltà africane, in cui i bambini costruivano case in scala o manufatti in giunco. Secondo Papert, la mente ha bisogno di materiali da costruzione appropriati, esattamente come un costruttore: il prodotto concreto può essere mostrato, discusso, esaminato, sondato e ammirato.
La lentezza dello sviluppo di un particolare concetto da parte del bambino non è dovuta alla maggiore complessità o formalità, ma alla povertà della cultura di quei materiali che renderebbero il concetto semplice e concreto. Il bambino apprende così con l'aiuto di oggetti tangibili.
Papert sostiene l'uso del computer come supporto all'istruzione e ambiente d'apprendimento che aiuta a costruirsi nuove idee. Il computer viene così usato come macchina per simulare. Realizza anche il LOGO, un linguaggio di programmazione formalmente molto rigoroso, derivato dal LISP, orientato alla gestione delle liste ed alla grafica della tartaruga (mutuata dal Pascal), comprensibile ed utilizzabile anche da bambini delle scuole elementari, dimostrando tra l'altro l'utilità del computer come supporto per l'apprendimento anche per i più piccoli. L'interprete del LOGO è, infatti, uno strumento che consente ai bambini di utilizzare il computer per ottenere rapidamente, ma utilizzando principi matematici e logici rigorosi, risultati concreti: disegni, musica, poesie generate automaticamente. È un modo per dare ai bambini, e anche a chiunque altro, il controllo del computer.
Nelle didattiche proposte da Papert, ha grande importanza la gestione dell'errore: la sua idea è che l'unico modo per imparare in modo significativo sia quello di prendere coscienza dei propri errori. Compito dell'insegnante è quindi anche quello di guidare il bambino nel caso di errore.
Ha iniziato la sua carriera come astronomo per il quale ha conseguito il dottorato di ricerca nel 1957, ma il suo incontro con i computer ha portato a un cambio di professione. Dal 1959 al 1969 è stato impiegato presso Regnecentralen, la società informatica danese, mentre allo stesso tempo teneva lezioni nell'istituto Niels Bohr e all'Università tecnica della Danimarca. Dal 1969 al 1998, Naur è stato professore di informatica presso l'Università di Copenaghen.
Non gli piaceva il termine "informatica" e suggerì di chiamarla "datalogy" o "data science". Il termine precedente è stato adottato in Danimarca e in Svezia come "datalogi", mentre l'ultimo termine è ora utilizzato per l'analisi dei dati.
Naur ha vinto nel 2005 il Premio Turing per il suo lavoro sulla definizione del linguaggio di programmazione ALGOL 60. In particolare, è stato riconosciuto il suo ruolo di redattore dell'influente Rapporto sul Linguaggio Algoritmico ALGOL 60 con il suo uso pionieristico di BNF (strumento usato per descrivere in modo preciso e non ambiguo la sintassi dei linguaggi di programmazione,). Naur è l'unico danese ad aver vinto il premio Turing.
Laureata in matematica al Mount Holyoke College, nel 1949 ha ottenuto un master's degree in matematica presso l'Università dell'Illinois a Urbana-Champaign, dove ebbe il suo primo incontro con un computer, ma non ne rimase particolarmente impressionata, considerandolo solo un "osceno pezzo di ferraglia".
Iniziò a lavorare nel campo dell'informatica e della programmazione presso la Sperry Corporation, attraverso la sperimentazione su uno dei primi computer digitali, lo Sperry Electronic Digital Automatic Computer (SPEEDAC). Quando nel 1955 la Sperry si fuse con la Remington Rand. Sammet poté lavorare nella divisione UNIVAC I (UNIVersal Automatic Computer).
Dal 1956 al 1958 Sammet avviò uno dei primi corsi per linguaggio di programmazione nel corso di matematica applicata presso l'Adelphi University di Long Island.
In seguito, lavorò per la Sylvania a Needham, nel Massachusetts, nel gruppo di ricerca scientifica che si occupava dello sviluppo del COBOL (Common Business Oriented Language). Fu inoltre incaricata di supervisionare lo sviluppo del software per il progetto MOBIDIC (MOBIle DIgital Computer), un computer costruito per i Signal Corps dell'esercito americano.
Nel 1959 Sammet fece parte del gruppo di sei ricercatori, coordinato da Grace Hopper, incaricato dal Dipartimento della Difesa degli Stati Uniti di definire il linguaggio di programmazione COBOL. Il gruppo di ricerca completò la maggior parte del lavoro in circa due settimane di lavoro senza sosta, all'interno dello Sherry-Netherland Hotel di Manhattan. La loro proposta fu presentata nel novembre del 1959 ed accettata con pochi cambiamenti dai produttori di computer che lavoravano per il Pentagono.
La pubblicazione del COBOL permise a molti costruttori di computer di mettere a disposizione compilatori, diventando così uno dei primi linguaggi a essere standardizzato: lo stesso programma poteva girare su computer di fornitori diversi. Nonostante diverse limitazioni il COBOL è ancora oggi usato in vari ambiti.
Dal 1961 lavorò presso la IBM e diresse il programma di sviluppo per il FORMAC (Formula Manipulation Compiler), il primo linguaggio informatico largamente utilizzato per la manipolazione simbolica delle formule matematiche.
Nel 1965 divenne la prima manager di linguaggio di programmazione nella divisione IBM per lo sviluppo di sistemi, guidando il lavoro sul linguaggio di programmazione ADA.
Nel 1965 Sammet fondò presso la Association for Computing Machinery (ACM) il Comitato di Speciale Interesse per la Manipolazione Simbolica ed Algebrica (SICSAM) e fu presidente del gruppo di Speciale Interesse sul linguaggio di programmazione (SIGPLAN). Dal 1974 al 1976 è stata la prima presidente donna della ACM. Tra le altre onorificenze, è stata membro della National Academy of Engineering.
Dal 1952 al 1956 Kurtz fu assistente informatico e ricercatore presso l'Università di Princeton, dove iniziò a scrivere dei programmi per un calcolatore IBM. Nel 1956 conseguì a Princeton il dottorato in matematica statistica e si trasferì poi presso l'Università di Dartmouth su volere di John George Kemeny, all'epoca direttore della facoltà di matematica.
Nell'estate del 1956 Kurtz studiò il codice macchina su un computer IBM 704 del New England Regional Computer Center (centro informatico creato dal Massachusetts Institute of Technology). Nel 1959 Kurtz fu fatto direttore del reparto informatico. Nel febbraio del 1964 Kurtz e Kemeny presentarono un sistema di time-sharing per permettere agli studenti di usufruire meglio delle risorse di un computer, il Dartmouth Time-Sharing System. Fu acquistato un GE-235 e diversi terminali GE Datanet-30, che furono dislocati in tutta l'università. Grazie a questi terminali gli studenti potevano caricare nel sistema i propri programmi ed il sistema di suddivisione del tempo di calcolo divideva la potenza elaborativa del computer fra tutti i compiti ricevuti. Contemporaneamente al sistema di time-sharing Kuntz e Kemeny avevano sviluppato anche un linguaggio di programmazione facile da usare e che fosse facilmente apprendibile: quel linguaggio fu chiamato Beginner's All-purpose Symbolic Instruction Code, o BASIC, il linguaggio di programmazione più diffuso ed usato. Il primo programma in BASIC fu eseguito il 1º maggio 1964.
Dal 1966 al 1975 Kuntz fu direttore del Centro di Calcolo di Kiewit a Dartmouth, e dal 1975 al 1978 direttore dell'Ufficio dell'Informatica Accademica. Dal 1980 al 1988 Kuntz fu direttore del programma Sistemi d'Informazione e Computer sempre a Dartmouth.
Nel 1983 Kuntz e Kemeny fondarono una società chiamata True BASIC, Inc. per commercializzare il True BASIC, una versione aggiornata e potenziata del BASIC derivata dal Dartmouth BASIC 7, noto anche come ANSI BASIC.
Nel 1991 la IEEE Computer Society ha conferito a Kuntz il premio di "Pioniere dei Computer e nel 1994 è stato fatto membro onorario della Association for Computing Machinery.
Figlio di un generale dell'esercito lettone, e fratello della poetessa Astrid Ivask, dopo la fine della seconda guerra mondiale, lasciò la Lettonia insieme alla famiglia come rifugiato per trasferirsi in Germania, dove Juris Hartmanis ricevette l'equivalente di un master in fisica presso l'Università di Marburg. In seguito si trasferì negli Stati Uniti, dove conseguì un master in matematica applicata presso l'Università di Kansas City nel 1951 e un dottorato di ricerca. in matematica al Caltech sotto la supervisione di Robert P. Dilworth nel 1955. L'Università del Missouri-Kansas City gli ha conferito il titolo di dottore onorario in lettere umane nel maggio 1999.
Dopo aver insegnato alla Cornell University e alla Ohio State University, Hartmanis è entrato a far parte del General Electric Research Laboratory nel 1958. Mentre era alla General Electric, ha sviluppato molti principi della teoria della complessità computazionale. Nel 1965 diviene professore alla Cornell University. Alla Cornell, è stato uno dei fondatori e il primo presidente del suo dipartimento di informatica.
Nel 1989, Hartmanis è stato eletto membro della National Academy of Engineering per i contributi fondamentali alla teoria della complessità computazionale e alla ricerca e all'istruzione in informatica. Hartmanis è membro dell'Association for Computing Machinery e dell'American Mathematical Society. Inoltre, membro della National Academy of Sciences.
È conosciuto per il suo articolo vincitore del premio Turing con Richard Stearns, in cui ha introdotto le classi di complessità temporale TIME(f(n)) e ha dimostrato il teorema della gerarchia temporale. Un altro articolo di Hartmanis del 1977, con Leonard Berman, ha introdotto la congettura di Berman-Hartmanis ancora irrisolta secondo cui tutti i linguaggi NP-completi sono isomorfici in tempo polinomiale.
Studiò chimica e fisica presso l'Università della California, Berkeley e il California Institute of Technology, fu in quest'ultima che ottenne il Dottorato di Ricerca in Chimica.
Nel 1956 fu reclutato come ricercatore presso la neonata compagnia californiana Shockley Semiconductor. In questo luogo scoprì il significato della parola "semiconduttore" (da quel momento nell'arco di 10 anni sarebbe diventato uno dei più grandi visionari del mondo dei semiconduttori). Il rapporto con il suo capo (William Shockley) non fu dei migliori e questo portò lui e altri 7 suoi colleghi ad abbandonare nel 1957 la Shockley Semiconductor ed a fondare un'altra compagnia di silicio: Fairchild Semiconductor. Qui lavorò per 11 anni ed è proprio in questo periodo che enunciò la sua più sensazionale scoperta, che prese il nome di Legge di Moore. Nel 1968 lasciò la Fairchild Semiconductor, insieme ad un suo collega Robert Noyce, per fondare un'altra società di semiconduttori: la Intel. All'età di 72 anni lasciò il board of directors per raggiunti limiti di età ed ora rimane Presidente Onorario di Intel.
Moore inoltre è stato direttore di Gilead Sciences Inc., membro del National Academy of Engineering e IEEE. Nel 1990 ricevette la National Medal of Technology and Innovation direttamente dal Presidente George H. W. Bush.
Nato a Rotterdam, suo padre professore di chimica e sua madre una brillante matematica, da cui lo stesso Edsger afferma di aver imparato la capacità di trovare soluzioni eleganti.
Per via degli ottimi risultati conseguiti nelle discipline scientifiche all'esame finale del 1948, sia i professori che i parenti gli suggerirono di assecondare tale propensione, pertanto andò all'Università di Leida a studiare matematica e fisica per i primi anni e fisica teorica negli ultimi, nonostante avrebbe preferito inizialmente studiare legge. Questi anni universitari sono stati, a detta di Dijkstra, il periodo migliore della sua vita, malgrado fosse in difficoltà economiche, lavorasse molto duramente e dormisse poco.
Nel 1951, mentre era ancora all'Università di Leida a studiare, trovò un annuncio per un corso di tre settimane sulla programmazione dei computer che si sarebbe svolto all'Università di Cambridge in Inghilterra. Edsger colse l'occasione e per questo venne anche invitato da Adrian van Wijngaarden, il Direttore del dipartimento di informatica del Centrum Wiskunde & Informatica (CWI), ad Amsterdam. Nel 1956 Dijkstra conseguì la laurea in fisica.
Finiti gli studi, decide di spostarsi da Leida, dove ha soggiornato dal 1949 al 1956, a Amsterdam per lavorare a tempo pieno al CWI.
Ha lavorato come ricercatore per la Burroughs Corporation agli inizi degli anni '70. Nel 1972 ha ricevuto il Premio Turing.
Nota la sua pessima opinione espressa a proposito dell'uso dell'istruzione GOTO nella programmazione, culminata nel celebre articolo del 1968 Go To Statement Considered Harmful, considerato come uno dei passi fondamentali verso il rifiuto generalizzato dell'istruzione GOTO nei linguaggi di programmazione e della sua sostituzione con più funzionali strutture di controllo come il ciclo while.
Fan dell'ALGOL 60, per cui lavorò nel gruppo che realizzò il primo compilatore per questo linguaggio.
Dijkstra propone un metodo alternativo di programmazione il program derivation, che consiste nello sviluppare in modo parallelo il programma e la dimostrazione.
Si occupò anche di sistemi operativi, sviluppando il concetto di semaforo, implementandolo nel sistema operativo THE, e formulando il famoso problema di sincronizzazione detto problema dei cinque filosofi a cena.
Gran parte del lavoro successivo di Dijkstra riguarda i modi per snellire le argomentazioni matematiche. In una intervista del 2001 dichiarò un desiderio di "eleganza", dove l'approccio corretto consiste nell'elaborare i pensieri mentalmente, senza tentare di comunicarli finché non sono completi.
Dijkstra era noto per le sue opinioni schiette riguardo alla programmazione, e per la sua abitudine di comporre attentamente dei manoscritti con la sua penna stilografica. Molti dei suoi appunti sono stati scansionati e sono disponibili online
L'algoritmo di Dijkstra è un algoritmo utilizzato per cercare i cammini minimi in un grafo con o senza ordinamento, ciclico e con pesi non negativi sugli archi.
Nel 1956 inventò un algoritmo per cercare i cammini minimi in un grafo con o senza ordinamento, questo algoritmo trova applicazione in molteplici contesti quale l'ottimizzazione nella realizzazione di reti (idriche, telecomunicazioni, stradali, circuitali, ecc.) o l'organizzazione e la valutazione di percorsi runtime nel campo della robotica. nominato algoritmo di Dijkstra
Quando aveva tredici anni, l'intera famiglia fuggì in Svezia durante l'occupazione tedesca della Norvegia nella seconda guerra mondiale. Dopo la fine della guerra, Dahl studiò matematica numerica all'Università di Oslo diventando un professore e ricercatore di talento presso l'Università di Oslo. Qui ha lavorato a Hierarchical Program Structures, probabilmente la sua pubblicazione più influente, che è apparsa in collaborazione con C.A.R. Hoare nel libro Structured Programming del 1972 di Dhal, Edsger Dijkstra e Hoare, il libro accademico più noto sul software negli anni '70. Con l'avanzare della sua carriera, Dahl si interessò sempre più all'uso di metodi formali, ad esempio ragionando rigorosamente sull'orientamento agli oggetti. La sua esperienza spaziava dall'applicazione pratica delle idee alla loro base matematica formale per garantire la validità dell'approccio.
Dahl è ampiamente riconosciuto come il principale scienziato informatico norvegese. Con Kristen Nygaard, ha prodotto le idee iniziali per la programmazione orientata agli oggetti (OO) negli anni '60 presso il Norwegian Computing Center (Norsk Regnesentral (NR)) come parte della Simula I (1961-1965) e Simula 67 (1965-1968) linguaggi di programmazione per la simulazione, che sono iniziati come una variante estesa e un superset di ALGOL 60. Dahl e Nygaard furono i primi a sviluppare i concetti di classe, sottoclasse (che consente l'occultamento implicito delle informazioni), ereditarietà, creazione di oggetti dinamici, ecc., Tutti aspetti importanti del paradigma OO. Un oggetto è un componente autonomo (con una struttura dati e procedure o metodi associati) in un sistema software.
Ha ricevuto il Premio Turing per il suo lavoro nel 2001.
Ha ricevuto la medaglia John von Neumann dell'Istituto di ingegneria elettrica ed elettronica (IEEE) del 2002
Architetto, ingegnere del software e informatico, noto principalmente per aver gestito lo sviluppo della famiglia di computer IBM System/360 e il pacchetto di supporto software OS/360. Ha lavorato all'architettura dell'IBM 7030 Stretch, un supercomputer scientifico da 10 milioni di dollari, e del computer IBM 7950 Harvest per la National Security Agency.
Successivamente è diventato responsabile dello sviluppo della famiglia di computer IBM System/360 e del pacchetto software OS/360. Durante questo periodo ha coniato il termine "architettura del computer".
Nel 1976, Brooks è stato eletto membro della National Academy of Engineering per "contributi alla progettazione di sistemi informatici e allo sviluppo di programmi accademici in scienze informatiche".
Brooks ha ricevuto numerosi riconoscimenti, tra cui la National Medal of Technology nel 1985 e il Turing Award nel 1999.
É un informatico israeliano, vincitore del Premio Turing nel 1976 per l'introduzione degli automi a stati finiti non deterministici.
Nella teoria del calcolo, un automa a stati finiti non deterministico (ASFND, in inglese nondeterministic finite automaton, NFA) è una macchina a stati finiti dove per ogni coppia stato-simbolo in input possono esservi più stati di destinazione.
Al contrario degli automi a stati finiti deterministici, gli NFA possono cambiare stato indipendentemente dal simbolo letto, tramite epsilon-transizioni. Gli automi che presentano questo tipo di transizioni sono anche detti ε-NFA.
Avendo partecipato alla progettazione del CTSS (Compatible Time-Sharing System), Pouzin, intorno al 1963, scrisse un programma chiamato RUNCOM che consentiva l'esecuzione di comandi contenuti all'interno di una cartella, può essere considerato l'antenato dell'interfaccia della riga di comando e degli script della shell. Pouzin ha coniato il termine shell per un linguaggio a comandi nel 1964. I concetti di Pouzin furono successivamente implementati in Multics da Glenda Schroeder al MIT. Schroeder ha sviluppato il primo guscio Multics con l'assistenza di un uomo senza nome della General Electric. La shell Multics di Schroeder era il predecessore della shell Unix, che è ancora in uso oggi.
Dal 1967 al 1969 Pouzin ha sviluppato un sistema operativo per il servizio meteorologico nazionale francese, utilizzando CDC 6400 come hardware. Questo sistema è stato creato per le previsioni del tempo e le statistiche ed è stato utilizzato per 15 anni.
Pouzin ha diretto il pionieristico progetto di rete CYCLADES dal 1971 al 1976. Basandosi sulla simulazione di Donald Davies delle reti di datagrammi, ha costruito la rete di commutazione di pacchetto CIGALE. CYCLADES ha utilizzato un'architettura a strati, come ha fatto Internet in seguito, per ricercare concetti di internetworking.
Nel 2002, insieme a Jean-Louis Grangé, Jean-Pierre Henninot e Jean-François Morfin, ha partecipato alla creazione di Eurolinc, un'associazione senza scopo di lucro che promuove il multilinguismo nei nomi di dominio. Nel giugno 2003, Eurolinc è stata accreditata dall'ONU per partecipare al Vertice mondiale sulla società dell'informazione (WSIS).
Nel 2012 ha sviluppato un servizio chiamato Open-Root, dedicato alla vendita di domini di primo livello (TLD) in tutti gli script al di fuori di ICANN. In questo modo le persone possono sviluppare domini di secondo livello gratuitamente.
Russell si unì al Pacific Northwest National Laboratory del Battelle Memorial Institute a Richland, nel 1965, Russell inventò il concetto generale di registrazione e riproduzione digitale ottica.
Ha costruito prototipi e il primo era operativo nel 1973, la sua prima invenzione vista da circa 100 aziende, inclusi ingegneri Philips e Sony.
La prima tecnologia di registrazione ottica, che costituisce la base fisica della tecnologia CD e DVD, fu pubblicata/archiviata per la prima volta dal Dr. David Paul Gregg nel 1958 e dai ricercatori Philips, Kramer e Compaan, nel 1969. Le invenzioni digitali ottiche di Russell erano disponibili pubblicamente dal 1970.
Nel 2000, Russell ha ricevuto il Premio Vollum dal Reed College.
A partire dal 2004, Russell ha fatto consulenza a un laboratorio interno, a Bellevue, Washington.
È stato professore emerito di informatica all'Hillman University, filosofia e logica matematica alla Carnegie Mellon University.
La sua carriera di ricerca ha spaziato tra informatica, matematica e filosofia ed è stata caratterizzata dall'unione dell'illustrazione di concetti fondamentali con rigore informale, con lo sviluppo di problemi matematicamente complessi fondati su questi concetti.
Il suo lavoro in teoria degli automi gli fece conseguire l'ACM Turing Award nel 1976, mentre la sua collaborazione con Christopher Strachey, negli anni '70, pose le basi per i moderni approcci alla semantica dei linguaggi di programmazione. Ha lavorato anche sulla logica modale, topologia e teoria delle categorie.