Esercitazioni

Generazioni di computer 【storia】?

Sommario:

Anonim

La storia dello sviluppo del computer è un argomento che viene spesso utilizzato per fare riferimento a diverse generazioni di dispositivi informatici. Ciascuna delle cinque generazioni di computer è caratterizzata da un significativo sviluppo tecnologico, che ha sostanzialmente cambiato il modo in cui questi dispositivi funzionano. La maggior parte dei principali sviluppi dagli anni '40 ai giorni nostri ha portato a dispositivi informatici sempre più piccoli, economici, più potenti ed efficienti.

Indice dei contenuti

Le cinque generazioni di computer, dal 1940 ad oggi e oltre

Il nostro viaggio di cinque generazioni di computer inizia nel 1940 con circuiti a tubi a vuoto, e continua ancora oggi con sistemi e dispositivi di intelligenza artificiale (AI).

Ti consigliamo di leggere il nostro post su Microsoft espande le sue capacità in base alle GPU Nvidia

Prima generazione: tubi a vuoto (1940-1956)

I primi sistemi di computer utilizzavano tubi a vuoto per circuiti e tamburi magnetici per la memoria, questi computer erano spesso enormi e occupavano intere stanze. Erano anche molto costosi da utilizzare e oltre a utilizzare una grande quantità di elettricità, i primi computer generavano molto calore, che spesso era la causa di un malfunzionamento.

I computer di prima generazione si affidavano al linguaggio macchina, il linguaggio di programmazione di livello più basso, per eseguire operazioni e potevano risolvere solo un problema alla volta. Occorrerebbero operatori o giorni o addirittura settimane per stabilire un nuovo problema. L'immissione dei dati si basava su schede perforate e nastro di carta e l'output veniva mostrato sulle stampe.

UNIVAC ed ENIAC sono esempi di dispositivi informatici di prima generazione. L'UNIVAC fu il primo computer commerciale consegnato a un cliente commerciale, l'Ufficio censimento degli Stati Uniti nel 1951.

Seconda generazione: transistor (1956-1963)

Il mondo vedrebbe i transistor sostituire i tubi a vuoto nella seconda generazione di computer. Il transistor fu inventato ai Bell Labs nel 1947, ma non fu visto in uso diffuso fino alla fine degli anni 1950. Il transistor era di gran lunga superiore al tubo a vuoto, consentendo ai computer di diventare più piccoli, più veloci, più più economico, più efficiente dal punto di vista energetico e più affidabile dei suoi predecessori di prima generazione. Sebbene il transistor generasse ancora una grande quantità di calore, è stato un grande miglioramento rispetto al tubo del vuoto. I computer di seconda generazione facevano ancora affidamento su schede perforate per l'input e copie cartacee per l'output.

Questi team sono passati dal linguaggio criptico della macchina binaria a linguaggi simbolici o di assemblaggio, consentendo ai programmatori di specificare le istruzioni in parole. In quel momento venivano anche sviluppati linguaggi di programmazione di alto livello, come le prime versioni di COBOL e FORTRAN. Questi furono anche i primi computer a memorizzare le loro istruzioni in memoria, che andarono da un tamburo magnetico a una tecnologia a nucleo magnetico. I primi computer di questa generazione furono sviluppati per l'industria dell'energia atomica.

Terza generazione: circuiti integrati (1964-1971)

Lo sviluppo del circuito integrato è stato il segno distintivo della terza generazione di computer. I transistor sono stati miniaturizzati e posizionati su chip di silicio, chiamati semiconduttori, che hanno aumentato notevolmente la velocità e l'efficienza.

Invece di schede perforate e stampe , gli utenti hanno interagito tramite tastiere e monitor e hanno interagito con un sistema operativo, consentendo al dispositivo di eseguire contemporaneamente diverse applicazioni con un programma principale che monitorava la memoria. Per la prima volta sono diventati accessibili a un pubblico di massa, perché erano più piccoli ed economici rispetto ai loro predecessori.

Quarta generazione: microprocessori (1971-oggi)

Il microprocessore ha portato la quarta generazione di computer, poiché migliaia di circuiti integrati sono stati costruiti su un singolo chip di silicio. Ciò che nella prima generazione ha riempito un'intera stanza, ora si adatta al palmo della tua mano. Il chip Intel 4004, sviluppato nel 1971, disponeva tutti i componenti, dall'unità centrale di elaborazione e memoria ai controlli di input / output, su un singolo chip.

Nel 1981 IBM introdusse il suo primo computer per l'utente domestico e nel 1984 Apple introdusse il Macintosh. Man mano che diventavano più potenti, furono in grado di collegarsi per formare reti, che alla fine portarono allo sviluppo di Internet. Anche i computer di quarta generazione hanno visto lo sviluppo di GUI, mouse e dispositivi portatili.

Quinta generazione: intelligenza artificiale (presente e oltre)

I dispositivi di elaborazione di quinta generazione basati sull'intelligenza artificiale sono ancora in fase di sviluppo, anche se oggi esistono alcune applicazioni, come il riconoscimento vocale. L'uso dell'elaborazione parallela e dei superconduttori sta contribuendo a trasformare in realtà l'intelligenza artificiale. L'informatica quantistica e la nanotecnologia molecolare cambieranno radicalmente il volto dei computer negli anni a venire. L'obiettivo dell'informatica di quinta generazione è sviluppare dispositivi che rispondano al contributo del linguaggio naturale e siano in grado di apprendere e auto-organizzarsi.

Si consiglia di leggere:

Questo conclude il nostro articolo sulle generazioni di computer, speriamo che tu l'abbia trovato utile per comprendere l'evoluzione dell'informatica.

Esercitazioni

Scelta dell'editore

Back to top button