Computer
A Computer ist ein Digital Electronic Maschine das kann auf programmiert werden durchführen Sequenzen von Arithmetik oder logische Operationen (Berechnung) automatisch. Moderne Computer können generische Operationssätze ausführen Programme. Diese Programme ermöglichen es Computern, eine Vielzahl von Aufgaben auszuführen. EIN Computersystem ist ein "vollständiger" Computer, der das enthält Hardware-, Betriebssystem (hauptsächlich Software), und peripher Ausrüstung benötigt und für den "vollständigen" Betrieb verwendet. Dieser Begriff kann sich auch auf eine Gruppe von Computern beziehen, die miteinander verbunden sind und zusammen funktionieren, wie z. Computernetzwerk oder Computercluster.
Eine breite Palette von industriell und Verbraucherprodukte Verwenden Sie Computer als Kontroll systeme. Einfache Spezialgeräte wie Mikrowellen und Fernbedienungen sind enthalten, ebenso wie Fabrikgeräte wie Industrieboter und computergestütztes Designsowie allgemeine Geräte wie persönliche Computer und mobile Geräte wie Smartphones. Computer versorgen die Internet, der Milliarden anderer Computer und Benutzer verknüpft.
Frühe Computer sollten nur für Berechnungen verwendet werden. Einfache manuelle Instrumente wie die Abakus Halten Sie Menschen bei Berechnungen seit der Antike unterstützt. Früh in der Industrielle RevolutionEs wurden einige mechanische Geräte gebaut, um lange mühsame Aufgaben zu automatisieren, z. B. Leitmustern für Webstoffe. Elektrischer elektrischer Maschinen hat spezialisiert Analog Berechnungen im frühen 20. Jahrhundert. Der Erste Digital elektronische Berechnungsmaschinen wurden während entwickelt Zweiter Weltkrieg. Der Erste Halbleiter Transistoren In den späten 1940er Jahren folgten die Silizium-basierend Mosfet (MOS -Transistor) und Monolithische integrierte Schaltung (IC) CHIP -Technologien in den späten 1950er Jahren, was zum Leiten führt Mikroprozessor und die Mikrocomputer Revolution in den 1970ern. Die Geschwindigkeit, Leistung und Vielseitigkeit von Computern sind seitdem dramatisch zugenommen, mit Transistor zählt in schnellem Tempo zunehmen (wie vorhergesagt von Moores Gesetz), führen zum Digitale Revolution im späten 20. bis frühen 21. Jahrhundert.
Konventionell besteht ein moderner Computer aus mindestens einem Verarbeitungselement, normalerweise a Zentrale Verarbeitungseinheit (CPU) in Form von a Mikroprozessorzusammen mit irgendeiner Art von Computerspeicher, normalerweise Halbleitergedächtnis Chips. Das Verarbeitungselement führt arithmetische und logische Operationen aus, und eine Sequenzierungs- und Steuereinheit kann die Reihenfolge der Operationen als Reaktion auf gespeicherte ändern Information. Peripher Die Geräte enthalten Eingabegeräte (Tastaturen, Mäuse, Joystickusw.), Ausgabegeräte (Überwachung von Bildschirmen, Druckerusw.) und Eingabe-/Ausgabegeräte, die beide Funktionen ausführen (z. B. die Zeit der 2000er Jahre Berührungssensitiver Bildschirm). Periphere Geräte ermöglichen es, Informationen aus einer externen Quelle abzurufen und das Ergebnis von Vorgängen gespeichert und abgerufen werden.
Etymologie
Laut dem Oxford Englisch Wörterbuch, die erste bekannte Verwendung von Computer war in einem 1613 -Buch namens namens Die Yong Mans erläutern vom englischen Schriftsteller Richard Brathwait: "Ich hage [[sic] Lesen Sie den wahrsten Computer der Zeiten und den besten Arithmetiker, den Euer [sic] atmete, und er reduziert Ihre Tage in eine kurze Zahl. " menschlicher Computer, eine Person, die Berechnungen oder Berechnungen durchführte. Das Wort wurde bis zur Mitte des 20. Jahrhunderts mit der gleichen Bedeutung fortgesetzt. Während des letzten Teils dieser Zeit wurden Frauen oft als Computer eingestellt, weil sie weniger als ihre männlichen Kollegen bezahlt werden konnten.[1] Bis 1943 waren die meisten menschlichen Computer Frauen.[2]
Das Online -Etymologie -Wörterbuch gibt den ersten ähmischen Gebrauch von Computer in den 1640er Jahren bedeutet "einer, der berechnet"; Dies ist ein "Agent -Substantiv von Compute (v.)". Das Online -Etymologie -Wörterbuch gibt an, dass die Verwendung des Begriffs zu bedeutet "'Berechnungsmaschine' (von irgendeiner Art) stammt aus dem Jahr 1897. " Online -Etymologie -Wörterbuch zeigt an, dass die "moderne Verwendung" des Begriffs als 'programmierbare digitale elektronische Computer' von "1945 unter diesem Namen Turing Maschine".[3]
Geschichte
Vor dem 20. Jahrhundert
Geräte werden seit Tausenden von Jahren zur Unterstützung der Berechnung verwendet, hauptsächlich verwendet Eins-zu-eins-Korrespondenz mit Finger. Das früheste Zählgerät war wahrscheinlich eine Form von BLEIBEN. Spätere Rekord -AIDS im gesamten Fruchtbarer Halbmond Enthaltenes Kalkül (Tonkugeln, Zapfen usw.), die die Anzahl der Gegenstände darstellten, wahrscheinlich Vieh oder Körner, die in hohlen, ungelebten Tonbehälter versiegelt sind.[a][4] Die Verwendung von Zählstangen ist ein Beispiel.
Das Abakus wurde ursprünglich für arithmetische Aufgaben verwendet. Das Roman Abakus wurde aus Geräten entwickelt, die in verwendet wurden Babylonien Bereits 2400 v. Chr. Seitdem wurden viele andere Formen von Reckonierungsbrettern oder Tischen erfunden. In einem mittelalterlichen Europäer KontorEin kariertes Tuch würde auf einen Tisch gelegt, und Marker bewegten sich nach bestimmten Regeln als Hilfe zur Berechnung der Geldsummen.[5]
Das Antikythera -Mechanismus Es wird angenommen, dass es der früheste bekannte mechanische ist Analoger Computer, entsprechend Derek J. de Solla Preis.[6] Es wurde entwickelt, um astronomische Positionen zu berechnen. Es wurde 1901 in der entdeckt Antikythera -Wrack von der griechischen Insel von Antikythera, zwischen Kythera und Kretaund wurde bis ungefähr datiert c.100 v. Chr. Geräte mit vergleichbarer Komplexität mit dem Antikythera -Mechanismus würden erst im 14. Jahrhundert wieder auftauchen.[7]
Viele mechanische Hilfsmittel für die Berechnung und Messung wurden für den astronomischen Einsatz und die Navigationsverwendung konstruiert. Das Planisphäre war ein Sterndiagramm erfunden von Abū Rayhān al-Bīrūnī im frühen 11. Jahrhundert.[8] Das Astrolabe wurde in der erfunden Hellenistische Welt entweder im 1. oder 2. Jahrhundert vor Christus und wird häufig auf Hipparchus. Eine Kombination aus der Planisphäre und DioptraDer Astrolabe war effektiv ein analogen Computer, der in der Lage war, verschiedene Arten von Problemen in der Lage zu machen sphärische Astronomie. Ein Astrolabe, der eine Mechanik enthält Kalender Computer[9][10] und Ausrüstung-Weels wurden von Abi Bakr von erfunden Isfahan, Persien im Jahr 1235.[11] Abū Rayhān al-Bīrūnī erfand das erste mechanische Getriebe Lunisolar -Kalender Astrolabe,[12] eine frühe festeverdrahtet Wissensverarbeitung Maschine[13] mit einer Ausrüstungszug und Ausrüstungsräder,[14] c.1000 n. Chr.
Das SektorEin Berechnungsinstrument, das zur Lösung von Problemen im Verhältnis, Trigonometrie, Multiplikation und Teilung sowie für verschiedene Funktionen wie Quadrate und Würfelwurzeln verwendet wurde, wurde im späten 16. Jahrhundert entwickelt und fand die Anwendung in Gunnery, Vermessung und Navigation.
Das Planimeter war ein manuelles Instrument zur Berechnung der Fläche einer geschlossenen Figur, indem es mit einer mechanischen Verknüpfung darüber verfolgt wurde.
Das Rechenschieber wurde um 1620–1630 vom englischen Geistlichen erfunden William erwarbkurz nach der Veröffentlichung des Konzepts des Logarithmus. Es handelt sich um einen handbetriebenen analogen Computer für Multiplikation und Spaltung. Im Laufe der Entwicklung der Folienregel lieferten die zusätzlichen Skalen Reziprocals, Quadrate und quadratische Wurzeln, Würfel und Würfelwurzeln sowie die Wurzeln Transzendentale Funktionen wie Logarithmen und Exponentiale, kreisförmig und hyperbolisch Trigonometrie und andere Funktionen. Folienregeln mit speziellen Skalen werden weiterhin für die schnelle Durchführung von Routineberechnungen verwendet, wie sie E6B Rundschreibenregel für Zeit- und Entfernungsberechnungen in Lichtflugzeugen.
In den 1770er Jahren, Pierre Jaquet-Droz, ein Schweizer Uhrmacherbaute eine mechanische Puppe (baute eine mechanische Puppe (Automat) Das könnte einen Federstift halten. Durch das Umschalten der Anzahl und Reihenfolge der internen Räder können verschiedene Buchstaben und damit verschiedene Nachrichten erstellt werden. Tatsächlich könnte es mechanisch "programmiert" werden, Anweisungen zu lesen. Zusammen mit zwei weiteren komplexen Maschinen befindet sich die Puppe im Musée d'Art d'Histoire von Neuchâtel, Schweizund funktioniert immer noch.[15]
1831–1835 Mathematiker und Ingenieur Giovanni Plana entwickelt a Perpetual Kalendermaschine, was durch ein System von Riemenscheiben und Zylindern und vorbei vorhersagen könnte ewiger Kalender für jedes Jahr von 0 n. Chr. (Das heißt 1 v. Chr.) Bis 4000 n. Chr. Halten Sie die Schaltjahre und die variierende Tageslänge im Auge. Das Gezeitenvorschriftenmaschine vom schottischen Wissenschaftler erfunden Sir William Thomson 1872 war ein großer Versorgungsunternehmen für die Navigation in flachen Gewässern. Es verwendete ein System von Riemenscheiben und Drähten, um die vorhergesagten Gezeitenspiegel für einen festgelegten Zeitraum an einem bestimmten Ort automatisch zu berechnen.
Das Differentialanalysator, ein mechanischer analoge Computer, der zum Lösen entwickelt wurde Differentialgleichung durch Integration, verwendete Rad-and-Disc-Mechanismen, um die Integration durchzuführen. 1876 hatte Sir William Thomson bereits den möglichen Bau solcher Taschenrechner erörtert, aber er war durch das begrenzte Ausgangsdrehmoment des Ball-and-Disk-Integratoren.[16] In einem Differentialanalysator trug der Ausgang eines Integrators die Eingabe des nächsten Integrators oder eine Grafikausgabe. Das Drehmomentverstärker war der Vorschuss, der es diesen Maschinen ermöglichte, zu arbeiten. Ab den 1920er Jahren, Vannevar Bush und andere entwickelten mechanische Differentialanalysatoren.
Erster Computer
Charles Babbageein englischer Maschinenbauingenieur und Polymath, entstand das Konzept eines programmierbaren Computers. Betrachtete das ""Vater des Computers",",[17] Er hat den ersten konzipiert und erfunden mechanischer Computer im frühen 19. Jahrhundert. Nachdem er an seinem Revolutionär gearbeitet hatte Differenzmotor1833 wurde er festgestellt Analytischer Motor, war möglich. Die Eingabe von Programmen und Daten sollte der Maschine über übertragen werden geschlagene Karten, eine Methode, die zu diesem Zeitpunkt verwendet wird, um mechanisch zu leiten Webstoffe so wie die Jacquard Loom. Für die Ausgabe hat die Maschine einen Drucker, einen Kurvenplotter und eine Glocke. Die Maschine könnte auch Zahlen auf Karten schlagen, um später gelesen zu werden. Der Motor umfasste eine Arithmetik-Logikeinheit, Steuerfluss in Form von Bedingte Verzweigung und Schleifenund integriert Erinnerung, damit es zum ersten Design für einen allgemeinen Computer ist, der moderne Begriffe als Turing-Complete.[18][19]
Die Maschine war ungefähr ein Jahrhundert vor ihrer Zeit. Alle Teile für seine Maschine mussten von Hand hergestellt werden - dies war ein großes Problem für ein Gerät mit Tausenden von Teilen. Schließlich wurde das Projekt mit der Entscheidung der Entscheidung aufgelöst Britische Regierung Haltung der Finanzierung aufzuhören. Babbages Versäumnis, die analytische Engine zu vervollständigen, kann hauptsächlich auf politische und finanzielle Schwierigkeiten sowie seinen Wunsch, einen zunehmend anspruchsvollen Computer zu entwickeln und schneller voranzukommen, als jeder andere folgen könnte. Trotzdem sein Sohn, Henry Babbageabsolvierte eine vereinfachte Version der Computereinheit der Analytical Engine (der Mühle) 1888. Er gab 1906 eine erfolgreiche Demonstration seiner Verwendung in Computertabellen.
Analogische Computer
In der ersten Hälfte des 20. Jahrhunderts sind viele wissenschaftlich Computer Die Bedürfnisse wurden von immer anspruchsvoller erfüllt Analogische Computer, die ein direktes mechanisches oder elektrisches Modell des Problems als Grundlage für verwendet haben Berechnung. Diese waren jedoch nicht programmierbar und fehlten im Allgemeinen die Vielseitigkeit und Genauigkeit moderner digitaler Computer.[20] Der erste moderne analoge Computer war ein Gezeitenvorschriftenmaschine, erfunden von Sir William Thomson (später, um Lord Kelvin zu werden) 1872. Die Differentialanalysator, ein mechanischer analoge Computer, der zur Lösung von Differentialgleichungen durch Integration unter Verwendung von Rad- und Disc-Mechanismen entwickelt wurde, wurde 1876 von konzipiert James Thomson, der ältere Bruder des berühmteren Sir William Thomson.[16]
Die Kunst des mechanischen analogen Computers erreichte seinen Zenit mit dem Differentialanalysator, gebaut von H. L. Hazen und Vannevar Bush bei MIT ab 1927. Dies basiert auf den mechanischen Integratoren von James Thomson und die von H. W. Nieman erfundenen Drehmomentverstärker. Ein Dutzend dieser Geräte wurden gebaut, bevor ihre Veralterung offensichtlich wurde. In den 1950er Jahren der Erfolg von Digitale elektronische Computer hatte das Ende für die meisten analogen Computergeräte geschrieben, aber analoge Computer blieben in den 1950er Jahren in einigen speziellen Anwendungen wie Bildung (Bildung (BildungRechenschieber) und Flugzeuge (Kontroll systeme).
Digitale Computer
Elektromechanisch
Bis 1938 die Marine der Vereinigten Staaten hatte einen elektromechanischen analogen Computer entwickelt, der klein genug ist, um an Bord a zu verwenden U -Boot. Das war der Torpedo -Datencomputer, die Trigonometrie verwendete, um das Problem des Schusss eines Torpedos auf ein sich bewegendes Ziel zu lösen. Während Zweiter Weltkrieg Ähnliche Geräte wurden auch in anderen Ländern entwickelt.
Frühe digitale Computer waren elektromechanisch; Elektrische Schalter trieben mechanische Relais, um die Berechnung durchzuführen. Diese Geräte hatten eine niedrige Betriebsgeschwindigkeit und wurden schließlich von viel schnelleren reinelektrischen Computern abgelöst, ursprünglich verwendet Vakuumröhren. Das Z2, erstellt vom deutschen Ingenieur Konrad Zuse 1939 war eines der frühesten Beispiele eines elektromechanischen Relaiscomputers.[21]
1941 folgte Zuuse seiner früheren Maschine mit dem auf Z3, die weltweit erste Arbeit elektromechanisch programmierbar, vollautomatischer digitaler Computer.[22][23] Der Z3 wurde mit 2000 gebaut RelaisImplementieren einer 22 bisschen Wortlänge das arbeitete bei a Taktfrequenz von ca. 5–10 Hz.[24] Der Programmcode wurde auf angeschlagenen geliefert Film Während Daten in 64 Speicherwörtern gespeichert oder von der Tastatur geliefert werden. Es war in gewisser Hinsicht den modernen Maschinen ziemlich ähnlich und zahlreiche Fortschritte wie Gleitkommazahlen. Eher als das schwierigere Implement-Dezimalsystem (verwendet in Charles Babbage's früheres Design) mit a binär Das System bedeutete, dass die Maschinen von Zuses angesichts der zu diesem Zeitpunkt verfügbaren Technologien leichter zu erstellen und potenziell zuverlässiger zu erstellen waren.[25] Der Z3 war selbst kein universeller Computer, sondern konnte erweitert werden, um es zu sein Turing vollständig.[26][27]
ZUSEs nächster Computer, der Z4, wurde zum ersten kommerziellen Computer der Welt; Nach der anfänglichen Verzögerung aufgrund des Zweiten Weltkriegs wurde es 1950 fertiggestellt und an die geliefert Eth Zürich.[28] Der Computer wurde von Zuuss eigener Firma hergestellt, Zuse kg , das 1941 als erstes Unternehmen mit dem alleinigen Zweck der Entwicklung von Computern gegründet wurde.[28]
Vakuumröhrchen und digitale elektronische Schaltkreise
Rein elektronische Schaltung Elemente ersetzten bald ihre mechanischen und elektromechanischen Äquivalente, und gleichzeitig ersetzte die digitale Berechnung das Analog. Die Ingenieurin Tommy Blumen, Arbeiten bei der Postforschungsstation in London In den 1930er Jahren begann, die mögliche Verwendung von Elektronik für die zu untersuchen Telefonaustausch. Die 1934 erbaute experimentelle Ausrüstung wurde fünf Jahre später in Betrieb genommen und wandelte einen Teil des Telefonaustausch Netzwerk in ein elektronisches Datenverarbeitungssystem mit Tausenden von verwendet Vakuumröhren.[20] In den USA, John Vincent Atanasoff und Clifford E. Berry von Iowa State University entwickelte und testete die Atanasoff -berry -Computer (ABC) 1942,[29] Der erste "automatische elektronische digitale Computer".[30] Dieses Design war auch all-elektronisch und verwendete etwa 300 Vakuumröhrchen, wobei Kondensatoren in einer mechanisch rotierenden Trommel für den Speicher befestigt waren.[31]
Während des Zweiten Weltkriegs sind die britischen Code-Breaker bei Bletchley Park erzielte eine Reihe von Erfolgen beim Brechen verschlüsselter deutscher Militärkommunikation. Die deutsche Verschlüsselungsmaschine, Rätselwurde zuerst mit Hilfe des elektromechanischen Angriffs angegriffen Bomben die oft von Frauen geführt wurden.[32][33] Das anspruchsvollere Deutsche zu knacken Lorenz SZ 40/42 Maschine, verwendet für hochrangige Armeekommunikation, Max Newman und seine Kollegen beauftragten Blumen, um das zu bauen Koloss.[31] Er verbrachte ab Anfang Februar 1943 elf Monate, um den ersten Koloss zu entwerfen und zu bauen.[34] Nach einem Funktionstest im Dezember 1943 wurde Colossus in den Bletchley Park verschifft, wo es am 18. Januar 1944 geliefert wurde[35] und griff am 5. Februar seine erste Nachricht an.[31]
Colossus war der erste der Welt elektronisch Digital programmierbar Computer.[20] Es verwendete eine große Anzahl von Ventilen (Vakuumröhrchen). Es hatte Papier-Tape-Eingabe und konnte konfiguriert werden, um eine Vielzahl von durchzuführen booleschen logisch Vorgänge für seine Daten, aber nicht Turing-Complete. Neun Mk II Colossi wurden gebaut (die Mk I wurde in insgesamt zehn Maschinen umgewandelt. Colossus Mark I enthielt 1.500 thermionische Ventile (Röhrchen), aber Mark II mit 2.400 Ventilen war sowohl fünfmal schneller als auch einfacher zu bedienen als Mark I und beschleunigte den Dekodierungsprozess erheblich.[36][37]
Das Eniac[38] (Electronic Numerical Integrator und Computer) war der erste elektronische programmierbare Computer, der in den USA gebaut wurde, obwohl der Eniac dem Colossus ähnlich war, es war viel schneller, flexibler und war es Turing-Complete. Wie der Koloss wurde ein "Programm" auf dem Eniac durch die Zustände seiner Patch -Kabel und -Schalte definiert, weit entfernt von der gespeichertes Programm Elektronische Maschinen, die später kamen. Sobald ein Programm geschrieben wurde, musste es mechanisch in die Maschine mit manuellem Zurücksetzen von Steckern und Schalter eingestellt werden. Die Programmierer der Eniac waren sechs Frauen, die oft gemeinsam als "Eniac -Mädchen" bezeichnet wurden.[39][40]
Es kombinierte die hohe Elektronik mit der Fähigkeit, für viele komplexe Probleme programmiert zu werden. Es könnte 5000 -mal eine Sekunde hinzufügen oder subtrahieren, tausendmal schneller als jede andere Maschine. Es hatte auch Module zum Multiplizieren, Teilen und Quadratwurzeln. Hochgeschwindigkeitsspeicher war auf 20 Wörter (ca. 80 Bytes) begrenzt. Unter der Richtung von gebaut John Mauchly und J. Presper Eckert An der University of Pennsylvania dauerte Eniacs Entwicklung und Konstruktion von 1943 bis Ende 1945 den vollen Betrieb Tausende von Widerständen, Kondensatoren und Induktoren.[41]
Moderne Computer
Konzept des modernen Computers
Das Prinzip des modernen Computers wurde von vorgeschlagen von Alan Turing In seiner Auslandszeitung von 1936, Papier,[42] Auf berechnbare Zahlen. Turing schlug ein einfaches Gerät vor, das er als "Universal Computing Machine" bezeichnete und das jetzt als a bekannt ist Universelle Turing -Maschine. Er bewies, dass eine solche Maschine in der Lage ist, alles zu berechnen, was durch Ausführen von Anweisungen (Programm) auf Band ausgeführt wird, sodass die Maschine programmierbar ist. Das grundlegende Konzept von Turings Design ist das gespeichertes Programm, wo alle Anweisungen für das Computer im Speicher gespeichert werden. Von Neumann erkannte an, dass das zentrale Konzept des modernen Computers auf dieses Papier zurückzuführen war.[43] Turing -Maschinen sind bis heute ein zentrales Studienobjekt in Theorie der Berechnung. Mit Ausnahme der Einschränkungen, die durch ihre endlichen Speicherspeicher auferlegt werden, sollen moderne Computer es sein Turing-Completedas heißt, sie haben Algorithmus Ausführungsfähigkeit entspricht einer universellen Turing -Maschine.
Gespeicherte Programme
Frühe Computergeräte hatten feste Programme. Das Ändern der Funktion erforderte die Wiederverdrahtung und Neustrukturierung der Maschine.[31] Mit dem Vorschlag des gespeicherten Produktionscomputers änderte sich dies. Ein Speicherprogramm-Computer beinhaltet von Design A. Befehlssatz und kann im Speicher eine Reihe von Anweisungen speichern (a Programm) Das beschreibt die Berechnung. Die theoretische Grundlage für den Computer des gespeicherten Programms wurde von gelegt Alan Turing In seiner Zeitung von 1936. 1945 schloss sich Turing dem an Nationales physisches Labor und begann mit der Entwicklung eines elektronischen digitalen Computers für gespeicherte Programme. Sein Bericht von 1945 "Vorgeschlagener elektronischer Taschenrechner" war die erste Spezifikation für ein solches Gerät. John von Neumann am Universität von Pennsylvania Auch zirkulierte seine Erster Entwurf eines Berichts über den EDVAC 1945.[20]
Das Manchester Baby war der erste der Welt Computerprotokollcomputer. Es wurde am gebaut Universität von Manchester in England von Frederic C. Williams, Tom Kilburn und Geoff Tootillund leitete sein erstes Programm am 21. Juni 1948.[44] Es wurde als ein entwickelt Testbed für die Williams Tube, Der Erste Zufallszugriff digitales Speichergerät.[45] Obwohl der Computer nach den Maßstäben seiner Zeit als "klein und primitiv" angesehen wurde, war es die erste Arbeitsmaschine, die alle Elemente enthielt, die für einen modernen elektronischen Computer wesentlich sind.[46] Sobald das Baby die Machbarkeit seines Designs demonstriert hatte, wurde an der Universität ein Projekt eingeleitet, um es zu einem verwendbareren Computer zu entwickeln, die Manchester Mark 1. Grace Hopper war die erste Person, die a entwickelte Compiler Für die Programmiersprache.[2]
Die Marke 1 wiederum wurde schnell zum Prototyp für die Ferranti Mark 1, der weltweit erste im Handel erhältliche allgemeine Computer.[47] Gebaut von Ferranti, es wurde im Februar 1951 an die University of Manchester geliefert. Mindestens sieben dieser späteren Maschinen wurden zwischen 1953 und 1957 geliefert Hülse Labors in Amsterdam.[48] Im Oktober 1947 die Direktoren der British Catering Company J. Lyons & Company beschlossen, eine aktive Rolle bei der Förderung der kommerziellen Entwicklung von Computern zu spielen. Das Leo i Der Computer wurde im April 1951 in Betrieb[49] und leitete den ersten regulären Routine -Bürocomputer der Welt Arbeit.
Transistoren
Das Konzept von a Feldeffekttransistor wurde vorgeschlagen von Julius Edgar Lilienfeld 1925. John Bardeen und Walter Brattainwährend der Arbeit unter William Shockley bei Bell Labsbaute die erste Arbeit Transistor, das Punktkontakttransistor1947 folgten Shockley's Bipolar -Junction -Transistor 1948.[50][51] Ab 1955 ersetzt Transistoren Vakuumröhren In Computer -Designs führt die "zweite Generation" von Computern zu. Im Vergleich zu Vakuumröhren haben Transistoren viele Vorteile: Sie sind kleiner und benötigen weniger Leistung als Vakuumröhrchen. Geben Sie also weniger Wärme ab. Junction -Transistoren waren viel zuverlässiger als Vakuumröhrchen und hatten längere, unbestimmte Lebensdauer. Transistorisierte Computer könnten Zehntausende binärer Logikschaltungen in einem relativ kompakten Raum enthalten. Frühe Junction -Transistoren waren jedoch relativ sperrige Geräte, die bei a schwer zu produzieren waren Massenproduktion Basis, die sie auf eine Reihe spezialisierter Anwendungen beschränkte.[52]
Bei der Universität von Manchester, ein Team unter der Führung von Tom Kilburn Entworfen und gebaut eine Maschine mit den neu entwickelten Transistoren anstelle von Ventilen.[53] Ihr erstes Transistorisierter Computer Und der erste der Welt war Betrieb bis 1953und dort wurde dort im April 1955 eine zweite Version abgeschlossen. Die Maschine nutzte jedoch Ventile, um ihre 125 -kHz Drum -SpeicherEs war also nicht der erste vollständig transistorisierte Computer. Diese Unterscheidung geht an die Harwell CADET von 1955,[54] gebaut von der Elektronikabteilung der Atomergieforschungsanlage bei Harwell.[54][55]
Das Metal-Oxid-Silicon-Feldeffekttransistor (MOSFET), auch bekannt als MOS -Transistor, wurde von erfunden von Mohamed M. Atalla und Dawon Kahng 1959 bei Bell Labs.[56] Es war der erste wirklich kompakte Transistor, der für eine Vielzahl von Verwendungsmöglichkeiten miniaturisiert und massenproduziert werden konnte.[52] Mit hohe Skalierbarkeit,[57] und viel geringer Stromverbrauch und höhere Dichte als bipolare Übergangstransistoren,[58] Das MOSFET ermöglichte es, bauen zu können Hochdichte integrierte Schaltkreise.[59][60] Zusätzlich zur Datenverarbeitung ermöglichte es auch die praktische Verwendung von MOS -Transistoren als Speicherzelle Speicherelemente, die zur Entwicklung von MOs führen Halbleitergedächtnis, was früher ersetzt wurde Magnetkerngedächtnis in Computern. Der MOSFET führte zum Mikrocomputer Revolution,[61] und wurde die treibende Kraft hinter dem Computerrevolution.[62][63] Das MOSFET ist der am häufigsten verwendete Transistor in Computern.[64][65] und ist der grundlegende Baustein von Digitale Elektronik.[66]
Integrierte Schaltkreise
Der nächste große Fortschritt in der Computerkraft kam mit dem Aufkommen der Integrierter Schaltkreis (IC). Die Idee des integrierten Schaltkreises wurde zunächst von einem Radarwissenschaftler konzipiert, der für die arbeitete Royal Radar Establishment des Verteidigungsministerium, Geoffrey W.A. Dummer. Dummer präsentierte die erste öffentliche Beschreibung eines integrierten Schaltkreises am Symposium über den Fortschritt der qualitativ hochwertigen elektronischen Komponenten in Washington, D.C. am 7. Mai 1952.[67]
Die ersten funktionierenden ICs wurden von erfunden von Jack Kilby bei Texas Instrumente und Robert Noyce bei Fairchild Semiconductor.[68] Kilby verzeichnete im Juli 1958 seine ersten Ideen in Bezug auf die integrierte Rennstrecke und demonstrierte erfolgreich das erste funktionierende integrierte Beispiel am 12. September 1958.[69] In seiner Patentanwendung vom 6. Februar 1959 beschrieb Kilby sein neues Gerät als "eine Gruppe von Halbleitermaterial ... wobei alle Komponenten des elektronischen Stromkreises vollständig integriert sind".[70][71] Kilbys Erfindung war jedoch a Hybrid integrierter Schaltkreis (Hybrid ic) und nicht a Monolithische integrierte Schaltung (IC) Chip.[72] Kilbys IC hatte externe Drahtverbindungen, was es schwierig machte, Massenproduktion zu produzieren.[73]
Noyce hatte auch eine halbe Jahr später als Kilby seine eigene Idee eines integrierten Schaltkreises.[74] Noyces Erfindung war der erste echte monolithische IC -Chip.[75][73] Sein Chip löste viele praktische Probleme, die Kilby nicht hatte. Produziert im Fairchild Semiconductor, es wurde aus gemacht, aus Silizium, während Kilbys Chip aus gemacht wurde Germanium. Noyces monolithisches IC war erfunden Verwendung der Planarprozess, entwickelt von seinem Kollegen Jean Hoerni Anfang 1959 basierte der planare Prozess in den späten 1950er Jahren auf Mohamed M. Atallas Arbeiten zur Halbleiteroberfläche durch Siliziumdioxid.[76][77][78]
Moderne monolithische ICs sind überwiegend MOS (Metalloxid-Sämiewerk) Integrierte Schaltungen, gebaut aus Mosfets (MOS -Transistoren).[79] Der früheste experimentelle MOS-IC, der hergestellt werden sollte RCA 1962.[80] Allgemeine Mikroelektronik Später stellte 1964 die erste kommerzielle MOSIC vor,[81] entwickelt von Robert Norman.[80] Nach der Entwicklung der selbstausgerichtetes Tor (Silicon-Gate) MOS-Transistor von Robert Kerwin, Donald Klein und John Sarace bei Bell Labs im Jahr 1967, der erste Silizium-Gate Mos IC mit selbstausgerichtete Tore wurde entwickelt von Federico Faggin 1968 bei Fairchild Semiconductor.[82] Das MOSFET ist seitdem die kritischste Gerätekomponente in modernen ICs geworden.[83]
Die Entwicklung des integrierten MOS -Schaltkreises führte zur Erfindung der Mikroprozessor,[84][85] und kündigte eine Explosion im kommerziellen und personenbezogenen Gebrauch von Computern an. Während das Thema genau, welches Gerät der erste Mikroprozessor war, ist er umstritten, teilweise aufgrund mangelnder Übereinstimmung über die genaue Definition des Begriffs "Mikroprozessor" ist es weitgehend unbestritten, dass der erste Single-Chip-Mikroprozessor der war Intel 4004,[86] Entworfen und realisiert von Federico Faggin mit seiner Silicon-Gate-MOS-IC-Technologie,[84] zusammen mit Ted Hoff, Masatoshi Shima und Stanley Mazor bei Intel.[b][88] In den frühen 1970er Jahren ermöglichte die MOS -IC -Technologie die Integration von mehr als 10.000 Transistoren auf einem einzigen Chip.[60]
System auf einem Chip (SOCS) sind vollständige Computer auf a Mikrochip (oder Chip) die Größe einer Münze.[89] Sie können integriert sein oder nicht haben RAM und Flash-Speicher. Wenn nicht integriert, wird der RAM normalerweise direkt oben platziert (bekannt als Paket auf Paket) oder unten (auf der gegenüberliegenden Seite der Leiterplatte) Der SOC und der Flash -Speicher werden normalerweise direkt neben dem SoC platziert. Seit Eniac im Jahr 1945 sind Computer enorm fortgeschritten, da moderne Socs (wie der Snapdragon 865) die Größe einer Münze haben und gleichzeitig hunderttausend Male leistungsfähiger sind als ENIAC, Milliarden von Transistoren integrieren und nur ein paar Watt verbrauchen von Macht.
Mobile Computer
Der Erste Mobile Computer waren schwer und rannten aus Stromnetz. Die 50 lb (23 kg) IBM 5100 war ein frühes Beispiel. Später Portables wie die Osborne 1 und Compaq tragbar waren erheblich leichter, mussten aber noch eingesteckt werden. Der erste Laptops, so wie die Gitterkompass, entfernte diese Anforderung durch Einbau von Batterien - und mit der fortgesetzten Miniaturisierung von Rechenressourcen und Fortschritten in der tragbaren Akkulaufzeit wurden tragbare Computer in den 2000er Jahren immer beliebter.[90] Dieselben Entwicklungen ermöglichten es den Herstellern, Computerressourcen in den frühen 2000er Jahren in mobile Mobiltelefone zu integrieren.
Diese Smartphones und Tablets Laufen Sie auf einer Vielzahl von Betriebssystemen und wurden kürzlich zum dominierenden Computergerät auf dem Markt.[91] Diese werden von angetrieben von System auf einem Chip (SOCS), die vollständige Computer auf einem Mikrochip der Größe einer Münze sind.[89]
Typen
Computer können auf verschiedene Arten klassifiziert werden, darunter:
Durch Architektur
- Analoger Computer
- Digitaler Computer
- Hybridcomputer
- Harvard Architektur
- Von Neumann Architektur
- Komplexer Befehlssatz Computer
- Reduzierter Befehlssatz Computer
Nach Größe, Formfaktor und Zweck
- Supercomputer
- Hauptrechner
- Minicomputer (Begriff nicht mehr verwendet)
- Server
- Rackmount -Server
- Blade -Server
- Tower Server
- Persönlicher Computer
- Arbeitsplatz
- Mikrocomputer (Begriff nicht mehr verwendet)
- Desktop-Computer
- Tower Desktop
- Slimline Desktop
- Multimedia -Computer (Nichtlineares Bearbeitungssystem Computer, Videobearbeitungs -PCs und dergleichen)
- Gaming -Computer
- All-in-One PC
- Nettop (Kleine Formfaktor -PCs, Mini -PCs)
- Heimkino -PC
- Tastaturcomputer
- Tragbarer Computer
- Dünner Kunde
- Internet -Gerät
- Laptop
- Mobile Computer:
- Tragbarer Computer
- Single-Board-Computer
- Computer anschließen
- Stick PC
- Programmierbare Steuerung
- Computer-auf-Modul
- System auf Modul
- System in einem Paket
- System-on-Chip (Auch als Anwendungsprozessor oder AP bezeichnet, wenn es keine Schaltkreise wie Funkschaltung hat)
- Mikrocontroller
Hardware
Der Begriff Hardware- Deckt alle Teile eines Computers ab, die greifbare physikalische Objekte sind. Schaltungen, Computerchips, Grafikkarten, Soundkarten, Speicher (RAM), Motherboard, Anzeigen, Stromversorgungen, Kabel, Tastaturen, Drucker und "Mäuse" Eingabegeräte sind Hardware.
Geschichte der Berechnung der Hardware
Andere Hardware -Themen
Peripher Gerät (Input-Output) | Eingang | Maus, Klaviatur, Joystick, Bildscanner, Webcam, Grafiktablet, Mikrofon |
Ausgabe | Monitor, Drucker, Lautsprecher | |
Beide | Diskette Fahrt, Festplatte, optische Scheibe Fahrt, Fernschreiber | |
Computerbusse | Kurze Reichweite | RS-232, Scsi, PCI, USB |
Langstrecken (Computernetzwerk) | Ethernet, Geldautomat, FDDI |
Ein allgemeiner Computer hat vier Hauptkomponenten: die Arithmetik-Logikeinheit (Alu), die Steuergerät, das Erinnerung, und die Eingangs- und Ausgabegeräte (gemeinsam als I/O bezeichnet). Diese Teile werden durch miteinander verbunden von Busseoft aus Gruppen von Gruppen von Drähte. In jedem dieser Teile sind Tausende bis Billionen klein Stromkreise welches ausgeschaltet werden kann oder mit einem elektronischer Schalter. Jeder Stromkreis repräsentiert a bisschen (binäre Ziffer) der Information, so dass, wenn sich die Schaltung befindet, eine "1" darstellt und eine "0" darstellt (in positiver logischer Darstellung). Die Schaltungen sind in angeordnet Logik -Tore damit ein oder mehrere der Schaltkreise den Zustand eines oder mehrerer der anderen Schaltungen kontrollieren können.
Eingabegeräte
Wenn unverarbeitete Daten mit Hilfe von Eingabegeräten an den Computer gesendet werden, werden die Daten verarbeitet und an Ausgabegeräte gesendet. Die Eingangsgeräte können von Hand betrieben oder automatisiert werden. Der Verarbeitungsakt wird hauptsächlich von der CPU reguliert. Einige Beispiele für Eingabegeräte sind:
- Computer Tastatur
- Digitalkamera
- Digitales Video
- Grafiktablet
- Bildscanner
- Joystick
- Mikrofon
- Maus
- Overlay -Tastatur
- Echtzeituhr
- Trackball
- Berührungssensitiver Bildschirm
- Lichtstift
Ausgabegeräte
Die Mittel, mit denen der Computer Ausgabe angibt, werden als Ausgabegeräte bezeichnet. Einige Beispiele für Ausgabegeräte sind:
Steuergerät
Das Steuergerät (oft als Steuerungssystem oder zentraler Controller bezeichnet) verwaltet die verschiedenen Komponenten des Computers. Es liest und interpretiert (Decodes) die Programmanweisungen und verwandelt sie in Kontrollsignale, die andere Teile des Computers aktivieren.[d] Steuerungssysteme in fortschrittlichen Computern können die Reihenfolge der Ausführung einiger Anweisungen zur Verbesserung der Leistung ändern.
Eine Schlüsselkomponente, die allen CPUs gemeinsam ist, ist die Programm zähler, eine spezielle Speicherzelle (a registrieren) das verfolgt, an welchem Ort im Speicher die nächste Anweisung gelesen werden soll.[e]
Die Funktion des Steuerungssystems ist wie folgt - dies ist eine vereinfachte Beschreibung, und einige dieser Schritte können gleichzeitig oder in einer anderen Reihenfolge abhängig von der Art der CPU ausgeführt werden:
- Lesen Sie den Code für die nächste Anweisung aus der vom Programmzähler angegebenen Zelle.
- Dekodieren Sie den numerischen Code für den Befehl in eine Reihe von Befehlen oder Signalen für jedes der anderen Systeme.
- Inkrementieren Sie den Programmzähler so, dass er auf die nächste Anweisung zeigt.
- Lesen Sie alle Daten, die der Befehl aus den Zellen im Speicher (oder möglicherweise von einem Eingabegerät) benötigt. Der Standort dieser erforderlichen Daten wird normalerweise im Anweisungscode gespeichert.
- Geben Sie die erforderlichen Daten an eine ALU oder Register an.
- Wenn für die Anweisung eine ALU oder eine spezielle Hardware erforderlich ist, wenden Sie sich an die Hardware, um den angeforderten Vorgang auszuführen.
- Schreiben Sie das Ergebnis aus dem Alu zurück an einen Speicherort oder an ein Register oder möglicherweise ein Ausgabegerät.
- Springen Sie zurück zu Schritt (1).
Da der Programmzähler (konzeptionell) nur ein weiterer Satz von Speicherzellen ist, kann er durch Berechnungen im ALU geändert werden. Durch das Hinzufügen von 100 zum Programmzähler würde die nächste Anweisung von einem Ort 100 Standorte weiter unten im Programm gelesen. Anweisungen, die den Programmzähler ändern Steuerfluss).
Die Abfolge von Operationen, die die Steuereinheit durchläuft, um eine Anweisung zu verarbeiten Computer Programmund in einigen komplexeren CPU -Designs gibt es in der Tat einen weiteren noch kleineren Computer namens a Mikrosequencer, was a betreibt a Mikrocode Programm, das all diese Ereignisse verursacht.
Central Processing Unit (CPU)
Die Steuereinheit, Alu und Register sind gemeinsam als a bekannt Zentrale Verarbeitungseinheit (ZENTRALPROZESSOR). Frühe CPUs bestanden aus vielen getrennten Komponenten. Seit den 1970er Jahren wurde CPUs typischerweise auf einer einzigen konstruiert MOS -integrierte Schaltung Chip namens a Mikroprozessor.
Arithmetische Logikeinheit (ALU)
Die Alu kann zwei Operationsklassen durchführen: Arithmetik und Logik.[92] Der Satz von arithmetischen Operationen, die von einem bestimmten ALU unterstützt werden, kann auf Addition und Subtraktion beschränkt sein oder eine Multiplikation, Abteilung, Abteilung, umfassen. Trigonometrie Funktionen wie Sinus, Cosinus usw. und Quadratwurzeln. Einige können nur mit ganzen Zahlen arbeiten (Ganzzahlen) während andere benutzen schwimmender Punkt zu repräsentieren reale Nummern, wenn auch mit begrenzter Präzision. Jeder Computer, der in der Lage ist, nur die einfachsten Vorgänge auszuführen, kann so programmiert werden, dass die komplexeren Vorgänge in einfache Schritte unterteilt werden, die er ausführen kann. Daher kann jeder Computer so programmiert werden, dass ein arithmetischer Betrieb durchgeführt wird - obwohl es mehr Zeit dauert, wenn seine ALU den Betrieb nicht direkt unterstützt. Ein Alu kann auch Zahlen vergleichen und zurückgeben Boolesche Wahrheitswerte (wahr oder falsch) je nachdem, ob einer gleich ist, größer als der andere ("ist 64 größer als 65?"). Logische Operationen beinhalten Boolesche Logik: UND, ODER, Xor, und NICHT. Diese können nützlich sein, um kompliziert zu erstellen Bedingte Aussagen und Verarbeitung Boolesche Logik.
Superscalar Computer können mehrere Alus enthalten, sodass sie mehrere Anweisungen gleichzeitig bearbeiten können.[93] Grafikprozessoren und Computer mit Simd und Mimd Merkmale enthalten oft Alus, die Arithmetik aufführen können Vektoren und Matrizen.
Erinnerung
Der Speicher eines Computers kann als eine Liste von Zellen angesehen werden, in die Zahlen platziert oder gelesen werden können. Jede Zelle hat eine nummerierte "Adresse" und kann eine einzige Nummer speichern. Der Computer kann angewiesen werden, "die Nummer 123 in die mit 1357 nummerierte Zelle einzulegen" oder "die in Zelle 1357 enthaltene Zahl in Zelle 2468 hinzuzufügen und die Antwort in Zelle 1595 zu setzen". Die im Gedächtnis gespeicherten Informationen können praktisch alles darstellen. Buchstaben, Zahlen, sogar Computeranweisungen können gleich einfach in den Speicher gebracht werden. Da die CPU nicht zwischen verschiedenen Arten von Informationen unterscheidet, liegt es in der Verantwortung der Software, dem, was der Gedächtnis als nur als eine Reihe von Zahlen ansieht.
In fast allen modernen Computern ist jede Speicherzelle zum Speichern eingerichtet Binärzahlen in Gruppen von acht Bits (genannt a Byte). Jedes Byte kann 256 verschiedene Zahlen darstellen (28 = 256); entweder von 0 bis 255 oder –128 bis +127. Um größere Zahlen zu speichern, können mehrere aufeinanderfolgende Bytes verwendet werden (normalerweise zwei, vier oder acht). Wenn negative Zahlen erforderlich sind, werden sie normalerweise in gespeichert Zwei ergänzt Notation. Andere Arrangements sind möglich, sind jedoch normalerweise nicht außerhalb von speziellen Anwendungen oder historischen Kontexten zu sehen. Ein Computer kann alle Informationen im Speicher speichern, wenn er numerisch dargestellt werden kann. Moderne Computer haben Milliarden oder sogar Billionen von Bytes Speicher.
Die CPU enthält einen speziellen Satz von Speicherzellen, die genannt werden Register Das kann viel schneller gelesen und geschrieben werden als der Hauptspeicherbereich. Abhängig von der Art der CPU gibt es typischerweise zwischen zwei und einhundert Registern. Register werden für die am häufigsten benötigten Datenelemente verwendet, um zu vermeiden, dass bei Bedarf Daten zu dem Hauptspeicher zugreifen müssen. Da die Daten ständig bearbeitet werden, wird die Notwendigkeit reduziert, auf den Hauptspeicher zuzugreifen (was im Vergleich zu den ALU- und Steuereinheiten häufig langsam ist), erhöht die Geschwindigkeit des Computers erheblich.
Der Hauptspeicher des Computers gibt es in zwei Hauptsorten:
- Arbeitsspeicher oder RAM
- Nur-Lese-Speicher oder Rom
Der RAM kann an immer dann gelesen und geschrieben werden, wenn die CPU sie befiehlt, aber ROM wird mit Daten und Software vorinstalliert, die sich nie ändert. Daher kann die CPU nur daraus lesen. ROM wird normalerweise verwendet, um die anfänglichen Startanweisungen des Computers zu speichern. Im Allgemeinen wird der Inhalt des RAM gelöscht, wenn die Stromversorgung des Computers ausgeschaltet ist, aber ROM behält seine Daten auf unbestimmte Zeit bei. In einem PC enthält das ROM ein spezialisiertes Programm namens the BIOS Das orchestriert das Laden des Computers Betriebssystem vom Festplattenlaufwerk in RAM, wenn der Computer eingeschaltet oder zurückgesetzt wird. Im Embedded Computer, die häufig keine Festplattenantriebe aufweisen, kann die gesamte erforderliche Software in ROM gespeichert werden. In ROM gespeicherte Software wird oft genannt Firmware, weil es feindlich wie Hardware als Software ist. Flash-Speicher verwischt die Unterscheidung zwischen ROM und RAM, da sie seine Daten beim Ausschalten behält, aber auch umschreiben kann. Es ist jedoch in der Regel viel langsamer als herkömmlicher ROM und RAM, sodass seine Verwendung auf Anwendungen beschränkt ist, bei denen eine hohe Geschwindigkeit nicht erforderlich ist.[f]
In ausgefeilteren Computern kann es einen oder mehrere RAM geben Cache -Erinnerungen, die langsamer als Register sind, aber schneller als das Hauptgedächtnis. Im Allgemeinen werden Computer mit dieser Art von Cache so konzipiert, dass sie häufig automatisch in den Cache in den Cache verschoben werden, ohne dass eine Intervention des Programmierers erforderlich ist.
Eingabe/Ausgabe (E/O)
E/A ist das Mittel, mit dem ein Computer Informationen mit der Außenwelt austauscht.[95] Geräte, die Eingaben oder Ausgabe zum Computer bereitstellen, werden aufgerufen Peripheriegeräte.[96] Auf einem typischen PC enthalten die Peripheriegeräte Eingabegeräte wie die Tastatur und Mausund Ausgabegeräte wie die Anzeige und Drucker. Festplattenfahrten, Diskette fährt und Optische Scheibenfahrten Servieren Sie sowohl Eingangs- als auch Ausgangsgeräte. Computernetzwerk ist eine andere Form von i/o. E/A -Geräte sind oft komplexe Computer mit ihrer eigenen CPU und dem eigenen Speicher. EIN Grafikkarte Kann fünfzig oder mehr winzige Computer enthalten, die die zur Anzeige erforderlichen Berechnungen durchführen 3D -Grafik. Modern Desktop-Computer Enthält viele kleinere Computer, die die Haupt -CPU bei der Durchführung von E/A unterstützen. Ein Flachbildschirm-Display aus der Zeit 2016 enthält eine eigene Computerschaltung.
Multitasking
Während ein Computer als ein gigantisches Programm angesehen werden kann, das in seinem Hauptspeicher gespeichert ist, ist es in einigen Systemen erforderlich, um mehrere Programme gleichzeitig auszuführen. Dies wird durch Multitasking erreicht, d. H. Der Computerschalter zwischen dem Ausführen jedes Programms rasch ausführt.[97] Ein Mittel, mit dem dies geschehen ist, ist ein spezielles Signal, das als ein bezeichnet wird unterbrechen, was regelmäßig dazu führen kann, dass der Computer die Ausführung von Anweisungen nicht mehr ausführte, wo es war, und stattdessen etwas anderes tun. Indem er sich daran erinnert, wo es vor dem Interrupt ausgeführt wurde, kann der Computer später zu dieser Aufgabe zurückkehren. Wenn mehrere Programme "gleichzeitig" ausgeführt werden. Dann kann der Interrupt -Generator mehrere hundert Interrupts pro Sekunde verursachen, was zu einem Programmschalter jedes Mal führt. Da moderne Computer in der Regel Anweisungen ausführen, um mehrere Größenordnungen schneller als die menschliche Wahrnehmung zu sein, scheint es, dass viele Programme gleichzeitig ausgeführt werden, obwohl nur einer in einem bestimmten Zeitpunkt jemals ausgeführt wird. Diese Multitasking-Methode wird manchmal als "Zeit Sharing" bezeichnet, da jedes Programm ein "Stück" der Zeit wiederum zugewiesen wird.[98]
Vor der Ära kostengünstiger Computer bestand die Hauptverwendung für Multitasking darin, vielen Menschen denselben Computer zu teilen. Multitasking würde anscheinend dazu führen, dass ein Computer, der zwischen mehreren Programmen wechselt, langsamer wird, in direktem Verhältnis zu der Anzahl der ausgeführten Programme, aber die meisten Programme verbringen viel Zeit damit, auf langsame Eingabe-/Ausgabegeräte zu warten, um ihre Aufgaben zu erledigen. Wenn ein Programm darauf wartet, dass der Benutzer auf die Maus klickt oder eine Taste auf der Tastatur drückt, dauert es nicht, bis der Veranstaltung Es wartet auf. Dies gibt die Zeit für andere Programme frei, damit viele Programme gleichzeitig ohne inakzeptable Geschwindigkeitsverlust ausgeführt werden können.
Multiprozessierung
Einige Computer sind so konzipiert, dass sie ihre Arbeiten über mehrere CPUs in einer Multiprocessing -Konfiguration auf mehrere CPUs verteilen, eine Technik, die einst nur in großen und leistungsstarken Maschinen wie angewendet wurde, wie z. Supercomputer, Mainframe -Computer und Server. Multiprozessor und Multi-Core (Mehrere CPUs auf einem einzigen integrierten Schaltkreis) Personal- und Laptop-Computer sind jetzt weit verbreitet und werden infolgedessen zunehmend in Marktmärkten verwendet.
Insbesondere Supercomputer haben häufig sehr einzigartige Architekturen, die sich erheblich von der grundlegenden Speicherprogramm-Architektur und von allgemeinen Computern unterscheiden.[g] Sie verfügen häufig über Tausende von CPUs, maßgeschneiderte Hochgeschwindigkeits-Verbindungen und spezielle Computerhardware. Solche Entwürfe sind in der Regel nur für spezielle Aufgaben nützlich, da die große Programmorganisation erforderlich ist, um die meisten verfügbaren Ressourcen gleichzeitig erfolgreich zu nutzen. Supercomputer sehen normalerweise die Verwendung in großem Maßstab Simulation, Grafikrendern, und Kryptographie Anwendungen sowie mit anderen sogenannten "peinlich parallel" Aufgaben.
Software
Software Bezieht sich auf Teile des Computers, die keine materielle Form haben, wie Programme, Daten, Protokolle usw. Software ist der Teil eines Computersystems, das aus codierten Informationen oder Computeranweisungen besteht, im Gegensatz zum physischen Hardware- aus dem das System gebaut wird. Computersoftware umfasst Computerprogramme, Bibliotheken und verwandte nicht ausführbare Daten, wie zum Beispiel Online -Dokumentation oder digitale Medien. Es ist oft unterteilt in Systemsoftware und Anwendungssoftware Computerhardware und Software benötigen einander und kann auch nicht selbst realistisch verwendet werden. Wenn Software in Hardware gespeichert wird, die nicht einfach geändert werden kann, wie mit BIOS Rom in einem (n IBM PC kompatibel Computer, es wird manchmal als "Firmware" bezeichnet.
Sprachen
Es gibt Tausende verschiedener Programmiersprachen - einige für allgemeine Zwecke, andere nützlich für nur hochspezialisierte Anwendungen.
Listen der Programmiersprachen | Zeitleiste der Programmiersprachen, Liste der Programmiersprachen nach Kategorie, Generationsliste von Programmiersprachen, Liste der Programmiersprachen, Nicht englischbasierte Programmiersprachen |
Häufig verwendet Assemblersprachen | ARM, MIPS, x86 |
Häufig verwendet hochrangige Programmiersprachen | Ada, BASIC, C, C ++, C#, Cobol, Forran, Pl/i, Rexx, Java, Lispeln, Pascal, Objekt Pascal |
Häufig verwendet Skriptsprachen | Bourne Drehbuch, JavaScript, Python, Rubin, Php, Perl |
Programme
Das definierende Merkmal moderner Computer, die sie von allen anderen Maschinen unterscheiden, ist, dass sie es sein können programmiert. Das heißt, dass irgendeine Art von Art von Anweisungen (das Programm) kann dem Computer gegeben werden und es wird sie verarbeiten. Moderne Computer basierend auf dem Von Neumann Architektur häufig einen Maschinencode in Form eines Imperative Programmiersprache. In praktischer Hinsicht kann ein Computerprogramm nur einige Anweisungen sein oder sich auf viele Millionen Anweisungen erstrecken, ebenso wie die Programme für Programme Textverarbeitungen und Internetbrowser zum Beispiel. Ein typischer moderner Computer kann Milliarden von Anweisungen pro Sekunde ausführen (Gigaflops) und macht selten einen Fehler über viele Jahre des Betriebs. Große Computerprogramme, die aus mehreren Millionen Anweisungen bestehen Programmierer Jahre zum Schreiben und aufgrund der Komplexität der Aufgabe enthält mit ziemlicher Sicherheit Fehler.
Gespeicherte Programmarchitektur
Dieser Abschnitt gilt für am häufigsten RAM -Maschine–Basierte Computer.
In den meisten Fällen sind Computeranweisungen einfach: Fügen Sie eine Nummer zu einer anderen hinzu, verschieben Sie einige Daten von einem Ort in einen anderen, senden Sie eine Nachricht an ein externes Gerät usw. Diese Anweisungen werden vom Computer vom Computer gelesen Erinnerung und werden im Allgemeinen durchgeführt (hingerichtet) in der Reihenfolge, in der sie gegeben wurden. In der Regel gibt es jedoch spezielle Anweisungen, um dem Computer zu sagen, dass er vor oder rückwärts an einen anderen Ort im Programm springen und von dort aus ausgeführt werden soll. Diese werden als "Sprung" -Beweisungen bezeichnet (oder werden Geäst). Darüber hinaus können Sprunganweisungen erfolgen, um zu passieren bedingt so dass je nach Ergebnis einer früheren Berechnung oder eines externen Ereignisses unterschiedliche Anweisungen verwendet werden können. Viele Computer unterstützen direkt Unterroutinen Durch die Bereitstellung einer Art Sprung, an den sich der Ort "erinnert", von dem er sprang, und eine weitere Anweisung, um nach diesem Sprunganweis zur Anweisung zurückzukehren.
Die Programmausführung könnte mit dem Lesen eines Buches verglichen werden. Während eine Person normalerweise jedes Wort und jede Zeile nacheinander liest, können sie manchmal zu einem früheren Ort im Text zurückspringen oder Abschnitte überspringen, die nicht von Interesse sind. In ähnlicher Weise kann ein Computer manchmal immer wieder die Anweisungen in einem Abschnitt des Programms wiederholen, bis eine interne Bedingung erfüllt ist. Dies nennt man die Kontrollfluss Innerhalb des Programms und es ermöglicht es dem Computer, ohne menschliche Eingriffe wiederholt Aufgaben auszuführen.
Vergleichsweise eine Person, die eine Tasche verwendet Taschenrechner Kann eine grundlegende arithmetische Operation durchführen, z. B. zwei Zahlen mit nur wenigen Tastendrücken. Aber alle Zahlen von 1 bis 1.000 zusammenzusetzen würden Tausende von Knopfdrucken und viel Zeit dauern, mit einer nahezu Sicherheit, einen Fehler zu machen. Auf der anderen Seite kann ein Computer mit nur wenigen einfachen Anweisungen programmiert werden. Das folgende Beispiel ist in der geschrieben MIPS -Assemblersprache:
Start: Addi $ 8, $ 0, 0 # Summe auf 0 initialisieren Addi $ 9, $ 0, 1 # Setzen Sie die erste Nummer auf add = 1 Schleife: slti $ 10, $ 9, 1000 # Überprüfen Sie, ob die Nummer weniger als 1000 beträgt Beq $ 10, $ 0, Fertig # Wenn die ungerade Zahl größer als n ist, beenden Sie hinzufügen $ 8, $ 8, $ 9 # Summe aktualisieren Addi $ 9, $ 9, 1 # Nächste Nummer bekommen j Schleife # Wiederholen Sie den Summiervorgang Fertig: hinzufügen $ 2, $ 8, $ 0 # Summe in das Ausgaberegister einfügen
Nachdem er dieses Programm ausführen soll, wird der Computer die sich wiederholende Additionsaufgabe ohne weitere menschliche Intervention ausführen. Es wird fast nie einen Fehler machen und ein moderner PC kann die Aufgabe in einem Bruchteil einer Sekunde erledigen.
Maschinensprache
In den meisten Computern werden individuelle Anweisungen als gespeichert als Maschinensprache wobei jede Anweisung eine eindeutige Nummer erhält (der Operation Code oder Opcode kurz). Der Befehl zum Hinzufügen von zwei Zahlen zusammen hätte einen Opcode; Der Befehl zum Multiplizieren hat einen anderen Opcode und so weiter. Die einfachsten Computer können eine Handvoll verschiedener Anweisungen ausführen. Die komplexeren Computer haben mehrere Hundert zur Auswahl, jeweils einen eindeutigen numerischen Code. Da der Speicher des Computers Nummern speichern kann, kann er auch die Anweisungscodes speichern. Dies führt zu der wichtigen Tatsache, dass ganze Programme (die nur Listen dieser Anweisungen sind) als Zahlenlisten dargestellt werden und selbst im Computer so manipuliert werden können wie numerische Daten. Das grundlegende Konzept der Speicherung von Programmen im Speicher des Computers neben den Daten, die sie betreiben, ist der Kern des von Neumann oder gespeicherten Programms Architektur.[100][101] In einigen Fällen kann ein Computer einige oder ihr gesamtes Programm im Speicher speichern, das von den Daten getrennt gehalten wird, auf denen er betrieben wird. Dies nennt man die Harvard Architektur nach dem Harvard Mark i Computer. Moderne von Neumann -Computern zeigen einige Eigenschaften der Harvard -Architektur in ihren Entwürfen, wie in CPU -Caches.
Es ist zwar möglich, Computerprogramme als lange Listen von Zahlen zu schreiben (NummernlistenMaschinensprache) und während diese Technik mit vielen frühen Computern verwendet wurde,[h] Es ist äußerst mühsam und potenziell fehleranfällig, dies in der Praxis zu tun, insbesondere für komplizierte Programme. Stattdessen kann jeder grundlegende Anweisung einen kurzen Namen erhalten, der auf ihre Funktion hinweist und leicht zu erinnern ist - a mnemonisch wie hinz, sub, mult oder springen. Diese Mnemonik werden gemeinsam als Computer bezeichnet Montagesprache. Das Konvertieren von Programmen in der Montagesprache in etwas, das der Computer tatsächlich verstehen kann (Maschinensprache), wird normalerweise von einem Computerprogramm namens Assembler durchgeführt.
Programmiersprache
Programmiersprachen bieten verschiedene Möglichkeiten, Programme für Computer auszuführen. nicht wie natürliche Sprachen, Programmiersprachen sollen keine Unklarheit ermöglichen und präzise sein. Sie sind rein geschriebene Sprachen und sind oft schwer laut zu lesen. Sie werden im Allgemeinen entweder in übersetzt Maschinensprache durch eine Compiler oder an Assembler Vor dem Ausführen oder direkt zur Laufzeit von einem übersetzt Dolmetscher. Manchmal werden Programme von einer Hybridmethode der beiden Techniken ausgeführt.
Sprachen auf niedriger Ebene
Maschinensprachen und die Assemblersprachen, die sie darstellen (gemeinsam bezeichnet werden Programmiersprachen mit niedriger Ebene) sind im Allgemeinen einzigartig für die jeweilige Architektur der zentralen Verarbeitungseinheit eines Computers (Zentralprozessor). Zum Beispiel eine Armarchitektur CPU (wie können in a gefunden werden Smartphone oder ein Handheld-Videospiel) Die Maschinensprache eines kann nicht verstehen x86 CPU, die in a sein könnte PC.[ich] Historisch gesehen wurde eine beträchtliche Anzahl anderer CPU -Architekturen erstellt und war ausführlich verwendet, insbesondere einschließlich der MOS -Technologie 6502 und 6510 zusätzlich zum Zilog Z80.
Hochrangige Sprachen
Obwohl es in der Maschinensprache erheblich einfacher ist, ist das Schreiben langer Programme in der Montagesprache oft schwierig und auch fehleranfällig. Daher sind die meisten praktischen Programme in abstrakter hochrangige Programmiersprachen das können die Bedürfnisse der ausdrücken Programmierer Bequemer (und damit helfen, den Programmiererfehler zu reduzieren). Hochebene Sprachen werden normalerweise in Maschinensprache (oder manchmal in die Montagesprache und dann in Maschinensprache) mit einem anderen Computerprogramm namens a "kompiliert" Compiler.[j] Hochstufe Sprachen sind weniger mit der Funktionsweise des Zielcomputers als mit der Assemblersprache und mehr mit der Sprache und Struktur der Probleme zusammen, die durch das endgültige Programm gelöst werden sollen. Es ist daher häufig möglich, verschiedene Compiler zu verwenden, um dasselbe Sprachprogramm auf hoher Ebene in die Maschinensprache vieler verschiedener Computertypen zu übersetzen. Dies ist Teil der Mittel, mit denen Software wie Videospiele für verschiedene Computerarchitekturen wie PCs und verschiedene Computer zur Verfügung gestellt werden können Videospielkonsolen.
Programmdesign
Das Programmdesign kleiner Programme ist relativ einfach und beinhaltet die Analyse des Problems, die Sammlung von Eingaben, die Programmierkonstrukte in Sprachen, die festgelegten Verfahren und Algorithmen anhand oder verwenden, und liefert Daten für Ausgabegeräte und Lösungen für das Problem. Wenn Probleme größer und komplexer werden, werden Merkmale wie Unterprogramme, Module, formale Dokumentation und neue Paradigmen wie objektorientierte Programmierung auftreten. Große Programme mit Tausenden von Codezeilen und mehr erfordern formelle Software -Methoden. Die Aufgabe, große Entwicklung zu entwickeln Software Systeme stellen eine erhebliche intellektuelle Herausforderung dar. Die Herstellung von Software mit einer akzeptabel hohen Zuverlässigkeit innerhalb eines vorhersehbaren Zeitplans und des Budgets war in der Vergangenheit schwierig. die akademische und berufliche Disziplin von Softwareentwicklung konzentriert sich speziell auf diese Herausforderung.
Käfer
Fehler in Computerprogrammen werden genannt "Käfer". Sie können gutartig sein und die Nützlichkeit des Programms nicht beeinflussen oder nur subtile Auswirkungen haben. In einigen Fällen können sie das Programm oder das gesamte System dazu führen."aufhängen", reagieren Sie nicht auf Eingaben wie wie z. Maus Klicks oder Tastenanschläge, um vollständig zu scheitern oder zu Absturz.[102] Andernfalls können gutartige Fehler von einem skrupellosen Benutzer, der eine schreibt, manchmal für böswillige Absichten genutzt werden Ausbeuten, Code, der für einen Fehler konzipiert und die ordnungsgemäße Ausführung eines Computers stört. Fehler sind normalerweise nicht der Fehler des Computers. Da Computer lediglich die von ihnen gegebenen Anweisungen ausführen, sind Fehler fast immer das Ergebnis eines Programmiererfehlers oder einer Aufsicht, die im Design des Programms gestellt wird.[k] Admiral Grace Hopper, ein amerikanischer Informatiker und Entwickler des ersten Compiler, wird dafür gutgeschrieben, dass er den Begriff "Fehler" zum ersten Mal verwendet hat Harvard Mark II Computer im September 1947.[103]
Networking und das Internet
Computer werden seit den 1950er Jahren zur Koordinierung von Informationen zwischen mehreren Standorten verwendet. Das US -Militär SALBEI Das System war das erste großflächige Beispiel eines solchen Systems, das zu einer Reihe von kommerziellen Sondersystemen wie zum Beispiel führte Säbel.[104] In den 1970er Jahren begannen Computeringenieure an Forschungsinstitutionen in den USA, ihre Computer mithilfe der Telekommunikationstechnologie miteinander zu verbinden. Die Bemühungen wurden von ARPA (jetzt DARPA), und die Computernetzwerk das resultierte wurde als die genannt Arpanet.[105] Die Technologien, die das Arpanet möglich machten, breiteten sich aus und entwickelten sich.
Mit der Zeit breitete sich das Netzwerk über akademische und militärische Institutionen hinaus und wurde als Internet bekannt. Die Entstehung von Netzwerken beinhaltete eine Neudefinition der Natur und Grenzen des Computers. Computerbetriebssysteme und -anwendungen wurden so geändert, dass sie die Möglichkeit haben, die Ressourcen anderer Computer im Netzwerk zu definieren und zuzugreifen, z. B. periphere Geräte, gespeicherte Informationen und dergleichen als Erweiterungen der Ressourcen eines einzelnen Computers. Zunächst standen diese Einrichtungen hauptsächlich für Personen zur Verfügung, die in High-Tech-Umgebungen arbeiteten, in den neunziger Jahren jedoch die Ausbreitung von Anwendungen wie E-Mail und der Weltweites Netz, kombiniert mit der Entwicklung billiger, schneller Netzwerktechnologien wie Ethernet und Adsl Saw Computernetzwerk wird fast allgegenwärtig. Tatsächlich wächst die Anzahl der vernetzten Computer phänomenal. Ein sehr großer Teil der Personalcomputer stellt regelmäßig eine Verbindung zum Internet, um Informationen zu kommunizieren und zu erhalten. "Wireless" Networking, die häufig mit Mobiltelefonnetzwerken verwendet werden, hat dazu geführt, dass das Netzwerk auch in mobilen Computing -Umgebungen immer allgegenwärtiger wird.
Unkonventionelle Computer
Ein Computer muss nicht sein elektronischNoch auch eine haben Prozessor, noch RAMnoch ein Festplatte. Während die populäre Verwendung des Wortes "Computer" ein Synonym für einen persönlichen elektronischen Computer ist, ist[l] Die moderne Definition eines Computers ist buchstäblich: "Ein Gerät, das berechnet, insbesondere eine programmierbare elektronische Maschine, die mathematische oder logische Hochgeschwindigkeitsvorgänge ausführt oder die Informationen zusammenstellt, speichert, korreliert oder auf andere Weise verarbeitet. "[106] Jedes Gerät, das Verarbeitet Informationen qualifiziert sich als Computer, insbesondere wenn die Verarbeitung zielgerichtet ist.
Zukunft
Es gibt aktiv Optische Computer, DNA -Computer, neuronale Computer, und Quantencomputer. Die meisten Computer sind universell und können alle berechnen berechnungsbare Funktionund sind nur durch ihre Speicherkapazität und Betriebsgeschwindigkeit begrenzt. Unterschiedliche Konstruktionen von Computern können jedoch eine sehr unterschiedliche Leistung für bestimmte Probleme liefern. Zum Beispiel können Quantencomputer möglicherweise einige moderne Verschlüsselungsalgorithmen brechen (von Quantenfaktor) sehr schnell.
Computerarchitekturparadigmen
Es gibt viele Arten von Computerarchitekturen:
- Quantencomputer vs. Chemischer Computer
- Skalarprozessor vs. Vektorprozessor
- Ungleichmäßiger Speicherzugriff (Numa) Computer
- Registrieren Sie Maschine vs. Stapelmaschine
- Harvard Architektur vs. Von Neumann Architektur
- Zellarchitektur
Von all diesen Abstrakte MaschinenEin Quantencomputer ist das Versprechen für die Revolution des Computing.[107] Logik -Tore sind eine häufige Abstraktion, die für die meisten der oben genannten gelten kann Digital oder Analog Paradigmen. Die Möglichkeit, Listen von Anweisungen zu speichern und auszuführen, die aufgerufen wurden Programme macht Computer extrem vielseitig und unterscheidet sie von Taschenrechner. Das These der Kirche und tätige These ist eine mathematische Aussage dieser Vielseitigkeit: Jeder Computer mit a Mindestfähigkeit (Turing-Complete) ist im Prinzip in der Lage, dieselben Aufgaben auszuführen, die jeder andere Computer ausführen kann. Daher jede Art von Computer (Netbook, Supercomputer, Mobilfunkautomatusw.) ist in der Lage, die gleichen Rechenaufgaben auszuführen, wenn genügend Zeit und Speicherkapazität.
Künstliche Intelligenz
Ein Computer löst Probleme in der Art und Weise, wie er programmiert ist, ohne Rücksicht auf Effizienz, alternative Lösungen, mögliche Abkürzungen oder mögliche Fehler im Code. Computerprogramme, die lernen und anpassen künstliche Intelligenz und maschinelles Lernen. Produkte auf künstlicher Intelligenz basieren im Allgemeinen in zwei Hauptkategorien: Regelbasierte Systeme und Mustererkennung Systeme. Regelbasierte Systeme versuchen, die von menschlichen Experten verwendeten Regeln darzustellen und sind in der Regel teuer zu entwickeln. Musterbasierte Systeme verwenden Daten zu einem Problem, um Schlussfolgerungen zu generieren. Beispiele für Musterbasierte Systeme umfassen Spracherkennung, Schrifterkennung, Übersetzung und das aufstrebende Bereich des Online-Marketings.
Berufe und Organisationen
Da sich die Verwendung von Computern in der gesamten Gesellschaft verbreitet hat, gibt es immer mehr Karrieren mit Computern.
Hardware-bezogen | Elektrotechnik, Elektronisches Ingenieurwesen, Technische Informatik, Telekommunikationstechnik, Optische Ingenieurwesen, Nanoengineering |
Software bezogen | Informatik, Technische Informatik, Desktop-Publishing, Menschliche interaktion mit dem Computer, Informationstechnologie, Informationssysteme, Computerwissenschaft, Softwareentwicklung, Videospielbranche, Web-Design |
Die Notwendigkeit, dass Computer gut zusammenarbeiten und Informationen austauschen können, hat die Notwendigkeit vieler Standardsorganisationen, Clubs und Gesellschaften sowohl formeller als auch informeller Natur hervorgebracht.
Standardgruppen | Ansi, IEC, IEEE, Ietf, ISO, W3c |
Professionelle Gesellschaften | ACM, Ais, Iet, Ifip, BCS |
Frei/Quelloffene Software Gruppen | Kostenlose Software -Stiftung, Mozilla Foundation, Apache Software Foundation |
Siehe auch
- Glossar von Computern
- Computerbarkeitstheorie
- Computersicherheit
- Glossar der Computerhardwarebegriffe
- Geschichte der Informatik
- Liste der Computertermetymologien
- Liste der fiktiven Computer
- Liste der Pioniere in der Informatik
- Pulsberechnung
- Top500 (Liste der mächtigsten Computer)
- Unkonventionelles Computer
Anmerkungen
- ^ Entsprechend Schmandt-Besserat 1981Diese Tonbehälter enthielten Token, von denen die Gesamtsumme der Anzahl der übertragenen Objekte waren. Die Behälter dienten somit als so etwas von a Frachtbrief oder ein Kontenbuch. Um zu vermeiden, dass die Behälter das Öffnen der Container öffnen, wurden zuerst Toneindrücke der Token an der Außenseite der Behälter platziert, um die Zählung zu erhalten. Die Formen der Eindrücke wurden in stilisierte Markierungen abstrahiert; Schließlich wurden die abstrakten Markierungen systematisch als Ziffern verwendet; Diese Ziffern wurden schließlich als Zahlen formalisiert.
Schließlich waren die Markierungen an der Außenseite der Behälter alles, um die Anzahl zu vermitteln, und die Tonbehälter entwickelten sich zu Tontabletten mit Markierungen für die Anzahl. Schmandt-Besserat 1999 Schätzungen dauerte 4000 Jahre. - ^ Der Intel 4004 (1971) sterben 12 mm2aus 2300 Transistoren; Zum Vergleich: Das Pentium Pro betrug 306 mm2, bestehen aus 5,5 Millionen Transistoren.[87]
- ^ Die meisten wichtigsten 64-Bit Befehlssatz Architekturen sind Erweiterungen früherer Entwürfe. Alle in dieser Tabelle aufgeführten Architekturen, mit Ausnahme von Alpha, existierten in 32-Bit-Formen, bevor ihre 64-Bit-Inkarnationen eingeführt wurden.
- ^ Die Rolle der Steuereinheit bei der Interpretation von Anweisungen hat in der Vergangenheit etwas variiert. Obwohl die Steuereinheit in den meisten modernen Computern ausschließlich für die Interpretation der Anweisungen verantwortlich ist, ist dies nicht immer der Fall. Einige Computer haben Anweisungen, die teilweise von der Steuereinheit mit weiterer Interpretation von einem anderen Gerät interpretiert werden. Zum Beispiel, Edvac, eines der frühesten gespeicherten Programme, verwendete eine zentrale Steuereinheit, die nur vier Anweisungen interpretierte. Alle arithmetischen Anweisungen wurden an seine arithmetische Einheit weitergegeben und dort weiter dekodiert.
- ^ Anweisungen belegen häufig mehr als eine Speicheradresse, daher steigt der Programmzähler normalerweise um die Anzahl der Speicherorte, die zum Speichern einer Anweisung erforderlich sind.
- ^ Der Flash -Speicher kann vor dem Verschleiß auch nur eine begrenzte Häufigkeit neu geschrieben werden, was es für eine starken Zufallszugriffsnutzung weniger nützlich macht.[94]
- ^ Es ist jedoch auch sehr häufig, Supercomputer aus vielen Teilen billiger Warenhardware zu konstruieren. Normalerweise einzelne Computer, die von Netzwerken verbunden sind. Diese sogenannten Computercluster Kann häufig die Leistung von Supercomputer zu viel niedrigeren Kosten liefern als maßgeschneiderte Designs. Während für die meisten der leistungsstärksten Supercomputer immer noch benutzerdefinierte Architekturen verwendet werden, gab es in den letzten Jahren eine Verbreitung von Clustercomputern.[99]
- ^ Sogar einige spätere Computer wurden üblicherweise direkt im Maschinencode programmiert. Etwas Minicomputer wie Dez PDP-8 könnte direkt aus einer Gruppe von Schalter programmiert werden. Diese Methode wurde jedoch normalerweise nur als Teil der verwendet Booten Prozess. Die meisten modernen Computer -BOOT -BOOT -Start Nichtflüchtiger Gedächtnis.
- ^ Es gibt jedoch manchmal eine Form der Maschinensprachenkompatibilität zwischen verschiedenen Computern. Ein x86-64 kompatibler Mikroprozessor wie der AMD Athlon 64 ist in der Lage, die meisten der gleichen Programme auszuführen, die ein Intel Core 2 Der Mikroprozessor kann sowie Programme für frühere Mikroprozessoren wie The Intel Pentien und Intel 80486. Dies steht im Gegensatz zu sehr frühen kommerziellen Computern, die oft einzigartig und mit anderen Computern völlig unvereinbar waren.
- ^ Hochstufe Sprachen sind auch oft interpretiert eher als kompiliert. Interpretierte Sprachen werden im laufenden Betrieb in einen Maschinencode übersetzt, während ein anderes Programm namens ein namens eine Dolmetscher.
- ^ Es ist nicht allgemein wahr, dass Fehler ausschließlich auf die Aufsicht von Programmierern zurückzuführen sind. Computerhardware kann scheitern oder selbst ein grundlegendes Problem haben, das in bestimmten Situationen unerwartete Ergebnisse liefert. Zum Beispiel die Pentium -FDIV -Fehler einige verursacht Intel Mikroprozessoren in den frühen neunziger Jahren, um für bestimmte ungenaue Ergebnisse zu erzielen schwimmender Punkt Abteilungsoperationen. Dies wurde durch einen Fehler im Mikroprozessordesign verursacht und führte zu einem teilweisen Rückruf der betroffenen Geräte.
- ^ Laut dem Kürzer Oxford English Dictionary (6. Ed, 2007), das Wort Computer stammt aus der Mitte des 17. Jahrhunderts, als sie sich auf "eine Person, die Berechnungen tätigt; speziell eine Person, die dafür in einem Observatorium usw. verwendet wurde, bezog usw."
Verweise
- ^ Evans 2018, p. 23.
- ^ a b Smith 2013, p. 6.
- ^ "Computer (n.)". Online -Etymologie -Wörterbuch. Archiviert Aus dem Original am 16. November 2016. Abgerufen 19. August 2021.
- ^ Robson, Eleanor (2008), Mathematik im alten Irak, p. 5,, ISBN 978-0-691-09182-2: Calculi wurden im Irak für primitive Rechnungslegungssysteme bereits 3200–3000 v. Chr. Mit kargenspezifischen Repräsentationssystemen für Zählungen verwendet. Die ausgewogene Rechnungslegung wurde von 3000–2350 v. Chr. Und a verwendet sexagesimal nummer System war 2350–2000 v. Chr. Im Gebrauch.
- ^ Farrg, Graham. (1989). Zahlen durch die Zeitalter (1. Aufl.). Houndmills, Basingstoke, Hampshire: Macmillan Education. ISBN 0-333-49130-0. OCLC 24660570.
{{}}
: CS1 Wartung: Datum und Jahr (Link) - ^ Das Antikythera -Mechanismus -Forschungsprojekt Archiviert 28. April 2008 bei der Wayback -Maschine, Das Antikythera -Mechanismus -Forschungsprojekt. Abgerufen am 1. Juli 2007.
- ^ Marchant, JO (1. November 2006). "Auf der Suche nach verlorener Zeit". Natur. 444 (7119): 534–538. Bibcode:2006Natur.444..534m. doi:10.1038/444534a. PMID 17136067. S2CID 4305761. Archiviert vom Original am 16. Dezember 2021. Abgerufen 12. März 2022.
- ^ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). Geschichte der Menschheit, Band 3: Die großen mittelalterlichen Zivilisationen, p. 649. George Allen & Unwin Ltd, UNESCO.
- ^ Fuat Sezgin "Katalog der Ausstellung des Instituts für die Geschichte der arabisch-islamischen Wissenschaft (an der Johann Wolfgang Goethe University", Frankfurt, Deutschland) Frankfurt Book Fair 2004, S. 35 & 38.
- ^ Charette, François (2006). "Archäologie: High -Tech aus dem alten Griechenland". Natur. 444 (7119): 551–552. Bibcode:2006Natur.444..551c. doi:10.1038/444551a. PMID 17136077. S2CID 33513516.
- ^ Bedini, Silvio A.; Maddison, Francis R. (1966). "Mechanisches Universum: Das Astrarium von Giovanni de 'Donndi". Transaktionen der American Philosophical Society. 56 (5): 1–69. doi:10.2307/1006002. JStor 1006002.
- ^ Preis, Derek de S. (1984). "Eine Geschichte der Berechnung von Maschinen". IEEE MICRO. 4 (1): 22–52. doi:10.1109/mm.1984.291305.
- ^ ŐRen, Tuncer (2001). "Fortschritte in Computer- und Informationswissenschaften: Von Abakus zu holonischen Agenten" (PDF). Turk J Elec Engin. 9 (1): 63–70. Archiviert (PDF) Aus dem Original am 15. September 2009. Abgerufen 21. April 2016.
- ^ Donald Routledge Hill (1985). "Al-Birunis mechanischer Kalender", Annalen der Wissenschaft 42, S. 139–163.
- ^ "Der Autor Automaton, Schweiz". chonday.com. 11. Juli 2013. archiviert von das Original am 20. Februar 2015. Abgerufen 28. Januar 2015.
- ^ a b Ray Girvan, "Die offenbarte Gnade des Mechanismus: Berechnung nach Babbage" Archiviert 3. November 2012 bei der Wayback -Maschine, Wissenschaftliche Computerwelt, Mai/Juni 2003
- ^ Halacy, Daniel Stephen (1970). Charles Babbage, Vater des Computers. Crowell-Collier-Presse. ISBN 978-0-02-741370-0.
- ^ "Babbage". Online -Zeug. Wissenschaftsmuseum. 19. Januar 2007. archiviert von das Original am 7. August 2012. Abgerufen 1. August 2012.
- ^ Graham-Cumming, John (23. Dezember 2010). "Lassen Sie uns Babbag's Ultimate Mechanical Computer bauen". Meinung. Neuer Wissenschaftler. Archiviert Aus dem Original am 5. August 2012. Abgerufen 1. August 2012.
- ^ a b c d Die moderne Geschichte des Computers. Stanford Encyclopedia of Philosophy. 2017. Archiviert Aus dem Original am 12. Juli 2010. Abgerufen 7. Januar 2014.
- ^ Zuse, Horst. "Teil 4: Konrad Zuses Z1- und Z3 -Computer". Das Leben und die Arbeit von Konrad Zuse. EPE online. Archiviert von das Original am 1. Juni 2008. Abgerufen 17. Juni 2008.
- ^ Zuse, Konrad (2010) [1984], Der Computer - mein Leben Übersetzt von McKenna, Patricia und Ross, J. Andrew von: Der Computer, Mein Lebenswerk (1984), Berlin/Heidelberg: Springer-Verlag, ISBN 978-3-642-08151-4
- ^ Salz Trautman, Peggy (20. April 1994). "Ein Computerpionier wurde wieder entdeckt, 50 Jahre lang". Die New York Times. Archiviert von das Original am 4. November 2016. Abgerufen 15. Februar 2017.
- ^ Zuse, Konrad (1993). Der Computer. Mein Lebenswerk (auf Deutsch) (3. Aufl.). Berlin: Springer-Verlag. p. 55. ISBN 978-3-540-56292-4.
- ^ "Crash! Die Geschichte davon: Zuse". Archiviert von das Original am 18. September 2016. Abgerufen 1. Juni 2016.
- ^ Rojas, R. (1998). "Wie man Zuss Z3 zu einem universellen Computer macht". IEEE Annals of the History of Computing. 20 (3): 51–54. doi:10.1109/85.707574. S2CID 14606587.
- ^ Rojas, Raúl. "Wie man Zuss Z3 zu einem universellen Computer macht" (PDF). fu-berlin.de. Archiviert (PDF) Aus dem Original am 9. August 2017. Abgerufen 28. September 2015.
- ^ a b O'Regan, Gerard (2010). Eine kurze Geschichte des Computers. Springer Natur. p. 65. ISBN 9783030665999.
- ^ "Notiz". Des Moines Register. 15. Januar 1941.
- ^ Arthur W. Burks (1989). Der erste elektronische Computer. ISBN 0472081047. Archiviert vom Original am 29. Juli 2020. Abgerufen 1. Juni 2019.
- ^ a b c d Copeland, Jack (2006), Colossus: Die Geheimnisse der Codebraten des Bletchley Parks, Oxford: Oxford University Press, S. 101–115, ISBN 978-0-19-284055-4
- ^ Miller, Joe (10. November 2014). "Die Frau, die Rätsel Cyphers geknackt hat". BBC News. Archiviert Aus dem Original am 10. November 2014. Abgerufen 14. Oktober 2018.
- ^ Bearne, Suzanne (24. Juli 2018). "Treffen Sie die weiblichen Codebrecher des Bletchley Park". Der Wächter. Archiviert Aus dem Original am 7. Februar 2019. Abgerufen 14. Oktober 2018.
- ^ "Bletchleys Code-Cracking Colossus". BBC. Archiviert Aus dem Original am 4. Februar 2010. Abgerufen 24. November 2021.
- ^ "Colossus - die Wiederaufbaugeschichte". Das Nationalmuseum für Computer. Archiviert von das Original am 18. April 2015. Abgerufen 7. Januar 2014.
- ^ Randell, Brian; Fensom, Harry; Milne, Frank A. (15. März 1995), "Nachruf: Allen Coombs", Der Unabhängige, archiviert Aus dem Original am 3. Februar 2012, abgerufen 18. Oktober 2012
- ^ Fensom, Jim (8. November 2010), "Harry Fensom Nachruf", Der Wächter, archiviert Aus dem Original am 17. September 2013, abgerufen 17. Oktober 2012
- ^ John Presper Eckert Jr. und John W. Mauchly, elektronischer numerischer Integrator und Computer, Patentbüro der Vereinigten Staaten, US -Patent 3.120.606, eingereicht am 26. Juni 1947, erstellt am 4. Februar 1964 und ungültig, nachdem er am 19. Oktober 1973 entschieden hatte Honeywell v. Sperry Rand.
- ^ Evans 2018, p. 39.
- ^ Light 1999, p. 459.
- ^ "Generationen von Computer". Techiwarehouse.com. Archiviert von das Original am 2. Juli 2015. Abgerufen 7. Januar 2014.
- ^ Turing, A. M. (1937). "Auf berechnungsfähigen Zahlen, mit einer Anwendung auf das Inentschen -Problem". Verfahren der London Mathematical Society. 2. 42 (1): 230–265. doi:10.1112/PLMS/S2-42.1.230. S2CID 73712.
- ^ Copeland, Jack (2004), Die wesentliche Turing, p. 22: "Von Neumann ... habe mich fest betont, und für andere bin ich sicher, dass die grundlegende Konzeption aufgrund von Turing - als nicht von Babbage, Lovelace und anderen erwartet wird. Brief von Stanley Frankel zu Brian Randell, 1972.
- ^ Enticknap, Nicholas (Sommer 1998), "Das goldene Jubiläum des Computers", Auferstehung (20), ISSN 0958-7403, archiviert von das Original am 9. Januar 2012, abgerufen 19. April 2008
- ^ "Frühe Computer an der Manchester University", Auferstehung, 1 (4), Sommer 1992, ISSN 0958-7403, archiviert von das Original am 28. August 2017, abgerufen 7. Juli 2010
- ^ Frühe elektronische Computer (1946–51), Universität Manchester, archiviert von das Original am 5. Januar 2009, abgerufen 16. November 2008
- ^ Napper, R. B. E.,, Einführung in die Marke 1, Die Universität von Manchester, archiviert von das Original am 26. Oktober 2008, abgerufen 4. November 2008
- ^ Computer Conservation Society, Unser Computer Heritage Pilotstudie: Lieferungen von Ferranti Mark I und Mark I Star Computern, archiviert von das Original am 11. Dezember 2016, abgerufen 9. Januar 2010
- ^ Lavington, Simon. "Eine kurze Geschichte britischer Computer: Die ersten 25 Jahre (1948–1973)". Britische Computergesellschaft. Archiviert von das Original am 5. Juli 2010. Abgerufen 10. Januar 2010.
- ^ Lee, Thomas H. (2003). Das Design von CMOS-Radiofrequenzkreisläufen (PDF). Cambridge University Press. ISBN 9781139643771. Archiviert von das Original (PDF) am 9. Dezember 2019. Abgerufen 31. Juli 2019.
- ^ Puers, Robert; Baldi, Livio; Voorde, Marcel van de; Nooten, Sebastiaan E. Van (2017). Nanoelektronik: Materialien, Geräte, Anwendungen, 2 Volumes. John Wiley & Sons. p. 14. ISBN 9783527340538. Archiviert vom Original am 3. März 2020. Abgerufen 31. Juli 2019.
- ^ a b Moskowitz, Sanford L. (2016). Innovation für fortschrittliche Materialien: Verwaltung der globalen Technologie im 21. Jahrhundert. John Wiley & Sons. S. 165–167. ISBN 9780470508923. Archiviert vom Original am 3. März 2020. Abgerufen 28. August 2019.
- ^ Lavington 1998, S. 34–35.
- ^ a b Cooke-Yarborough, E. H. (Juni 1998), "Einige frühe Transistoranwendungen in Großbritannien", Ingenieurwissenschafts- und Bildungsjournal, 7 (3): 100–106, doi:10.1049/esej: 19980301, ISSN 0963-7346, archiviert vom Original am 8. November 2020, abgerufen 7. Juni 2009(Abonnement erforderlich)
- ^ Cooke-Yarborough, E.H. (1957). Einführung in Transistorschaltungen. Edinburgh: Oliver und Boyd. p. 139.
- ^ "1960: Transistor des Metalloxid -Halbleiters (MOS) demonstriert". Der Siliziummotor: Eine Zeitleiste von Halbleitern in Computern. Computergeschichte Museum. Archiviert Aus dem Original am 27. Oktober 2019. Abgerufen 31. August 2019.
- ^ Motoyoshi, M. (2009). "Through-Silicon über (TSV)". Proceedings of the IEEE. 97 (1): 43–48. doi:10.1109/jproc.2008.2007462. ISSN 0018-9219. S2CID 29105721.
- ^ Young, Ian (12. Dezember 2018). "Transistoren halten das Gesetz von Moore am Leben". Eetimes. Archiviert Aus dem Original am 24. September 2019. Abgerufen 18. Juli 2019.
- ^ Gesetze, David (4. Dezember 2013). "Wer hat den Transistor erfunden?". Computergeschichte Museum. Archiviert vom Original am 13. Dezember 2013. Abgerufen 20. Juli 2019.
- ^ a b Hitinger, William C. (1973). "Metalloxid-Sämiewerkstechnologie". Wissenschaftlicher Amerikaner. 229 (2): 48–59. Bibcode:1973Sciam.229b..48h. doi:10.1038/ScientificAmerican0873-48. ISSN 0036-8733. JStor 24923169.
- ^ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Die richtigen Verbindungen herstellen: Mikrocomputer und elektronische Instrumente. American Chemical Society. p. 389. ISBN 9780841228610. Archiviert vom Original am 30. Dezember 2019. Abgerufen 28. August 2019.
Die relative Einfachheit und geringe Strombedarf von MOSFETs haben die heutige Mikrocomputer -Revolution gefördert.
- ^ Fossum, Jerry G.; Trivedi, Vishal P. (2013). Grundlagen von Ultra-dünn-Körper-MOSFETs und -Finken. Cambridge University Press. p. vii. ISBN 9781107434493. Archiviert vom Original am 3. März 2020. Abgerufen 28. August 2019.
- ^ Marriott, J.W. (10. Juni 2019). "Bemerkungen von Direktor IANCU bei der International Intellektuellen Eigentumskonferenz 2019". US -amerikanisches Patent- und Markenbüro. Archiviert von das Original am 17. Dezember 2019. Abgerufen 20. Juli 2019.
- ^ "Dawon Kahng". Nationale Erfinder Hall of Fame. Archiviert Aus dem Original am 27. Oktober 2019. Abgerufen 27. Juni 2019.
- ^ "Martin Atalla in der Erfinder Hall of Fame, 2009". Archiviert Aus dem Original am 19. September 2019. Abgerufen 21. Juni 2013.
- ^ "Triumph des MOS -Transistors". Youtube. Computergeschichte Museum. 6. August 2010. archiviert von das Original am 18. August 2021. Abgerufen 21. Juli 2019.
- ^ "Die unglückliche Geschichte von Geoffrey Dummer" Archiviert 11. Mai 2013 bei der Wayback -Maschine(n.d.), (html), Elektronische Produktnachrichten, abgerufen am 8. Juli 2008.
- ^ Kilby, Jack (2000), Nobelvortrag (PDF), Stockholm: Nobel Foundation, archiviert (PDF) Aus dem Original am 29. Mai 2008, abgerufen 15. Mai 2008
- ^ Der Chip, den Jack gebaut hat Archiviert 1. Mai 2015 bei der Wayback -Maschine, (ca. 2008), (HTML), Texas Instruments, abgerufen am 29. Mai 2008.
- ^ Jack S. Kilby, Miniaturisierte elektronische Schaltkreise, US -Patentamt, US -Patent 3.138.743, eingereicht am 6. Februar 1959, ausgestellt am 23. Juni 1964.
- ^ Winston, Brian (1998). Medientechnologie und Gesellschaft: Eine Geschichte: Vom Telegraph zum Internet. Routledge. p. 221. ISBN 978-0-415-14230-4. Archiviert vom Original am 29. Juli 2020. Abgerufen 6. Juni 2020.
- ^ Saxena, Arjun N. (2009). Erfindung integrierter Schaltungen: Wichtige Tatsachen entzünden. Welt wissenschaftlich. p. 140. ISBN 9789812814456. Archiviert vom Original am 29. Juli 2020. Abgerufen 28. August 2019.
- ^ a b "Integrierte Schaltkreise". NASA. Archiviert Aus dem Original am 21. Juli 2019. Abgerufen 13. August 2019.
- ^ Robert NoyceEinen Einheitskreis, US -Patent 2981877, "Semiconductor Device-and-Lead-Struktur", ausgestellt 1961-04-25, zugewiesene Fairchild Semiconductor Corporation
- ^ "1959: Praktisches monolithisches integriertes Schaltkreis -Konzept patentiert". Computergeschichte Museum. Archiviert Aus dem Original am 24. Oktober 2019. Abgerufen 13. August 2019.
- ^ Lojek, Bo (2007). Geschichte der Halbleitertechnik. Springer Science & Business Media. p.120. ISBN 9783540342588.
- ^ Bassett, Ross Knox (2007). Zum digitalen Zeitalter: Forschungslabors, Start-up-Unternehmen und der Aufstieg der MOS-Technologie. Johns Hopkins University Press. p. 46. ISBN 9780801886393. Archiviert Aus dem Original am 27. Juli 2020. Abgerufen 31. Juli 2019.
- ^ Huff, Howard R.; Tsuya, H.; Gösele, U. (1998). Siliziummaterialienwissenschaft und -technologie: Verfahren des achten internationalen Symposiums für Siliziummaterialienwissenschaft und -technologie. Elektrochemische Gesellschaft. S. 181–182. ISBN 9781566771931. Archiviert vom Original am 12. Mai 2020. Abgerufen 28. August 2019.
- ^ Kuo, Yue (1. Januar 2013). "Dünnfilmtransistor -Technologie - Past, Gegenwart und Zukunft" (PDF). Die Schnittstelle der elektrochemischen Gesellschaft. 22 (1): 55–61. Bibcode:2013ecsin..22a..55k. doi:10.1149/2.f06131if. ISSN 1064-8208. Archiviert (PDF) vom Original am 29. August 2017. Abgerufen 31. Juli 2019.
- ^ a b "Tortoise of Transistors gewinnt das Rennen - CHM Revolution". Computergeschichte Museum. Archiviert vom Original am 10. März 2020. Abgerufen 22. Juli 2019.
- ^ "1964 - Erste kommerzielle Mos IC eingeführt". Computergeschichte Museum. Archiviert vom Original am 22. Dezember 2015. Abgerufen 31. Juli 2019.
- ^ "1968: Silicon Gate -Technologie für ICs entwickelt". Computergeschichte Museum. Archiviert vom Original am 29. Juli 2020. Abgerufen 22. Juli 2019.
- ^ Kuo, Yue (1. Januar 2013). "Dünnfilmtransistor -Technologie - Past, Gegenwart und Zukunft" (PDF). Die Schnittstelle der elektrochemischen Gesellschaft. 22 (1): 55–61. Bibcode:2013ecsin..22a..55k. doi:10.1149/2.f06131if. ISSN 1064-8208. Archiviert (PDF) vom Original am 29. August 2017. Abgerufen 31. Juli 2019.
- ^ a b "1971: Mikroprozessor integriert die CPU -Funktion in einen einzelnen Chip". Computergeschichte Museum. Archiviert vom Original am 12. August 2021. Abgerufen 22. Juli 2019.
- ^ Colinge, Jean-Pierre; Greer, James C. (2016). Nanodrahttransistoren: Physik von Geräten und Materialien in einer Dimension. Cambridge University Press. p. 2. ISBN 9781107052406. Archiviert vom Original am 17. März 2020. Abgerufen 31. Juli 2019.
- ^ Intels erster Mikroprozessor - der Intel 4004, Intel Corp., November 1971, archiviert von das Original am 13. Mai 2008, abgerufen 17. Mai 2008
- ^ Patterson, David; Hennessy, John (1998). Computerorganisation und Design. San Francisco: Morgan Kaufmann. pp.27–39. ISBN 978-1-55860-428-5.
- ^ Federico Faggin, Das Erstellen des ersten Mikroprozessors Archiviert 27. Oktober 2019 bei der Wayback -Maschine, IEEE Solid-State Circuits Magazine, Winter 2009, IEEE XPLORE
- ^ a b "7 schillernde Smartphone -Verbesserungen mit Snapdragon 835 Chip von Qualcomm". 3. Januar 2017. Archiviert Aus dem Original am 30. September 2019. Abgerufen 5. April 2019.
- ^ Chartier, David (23. Dezember 2008). "Globale Notebook -Sendungen überholen endlich Desktops". ARS Technica. Archiviert Aus dem Original am 4. Juli 2017. Abgerufen 14. Juni 2017.
- ^ IDC (25. Juli 2013). "Laut IDC beschleunigt sich das Wachstum in den weltweiten Mobilfunk- und Smartphone -Märkten im zweiten Quartal". Archiviert von das Original am 26. Juni 2014.
- ^ David J. Eck (2000). Die komplexeste Maschine: Eine Umfrage über Computer und Computer. A K Peters, Ltd. p. 54. ISBN 978-1-56881-128-4.
- ^ Erricos John Kontoghiorghes (2006). Handbuch für parallele Computer und Statistik. CRC Press. p. 45. ISBN 978-0-8247-4067-2.
- ^ Verma & Mielke 1988.
- ^ Donald Eadie (1968). Einführung in den Grundcomputer. Prentice-Hall. p. 12.
- ^ Arpad Barna; Dan I. Porat (1976). Einführung in Mikrocomputer und die Mikroprozessoren. Wiley. p.85. ISBN 978-0-471-05051-3.
- ^ Jerry Peek; Grace Todino; John Strang (2002). Erlernen des Unix -Betriebssystems: Ein prägnanter Handbuch für den neuen Benutzer. O'Reilly. p.130. ISBN 978-0-596-00261-9.
- ^ Gillian M. Davis (2002). Rauschverringerung der Sprachanwendungen. CRC Press. p. 111. ISBN 978-0-8493-0949-6.
- ^ Top500 2006, p.[Seite benötigt].
- ^ Cragon, Harvey (2000). Computerarchitektur und Implementierung. Cambridge University Press. p. 5. ISBN 9780521651684. Archiviert vom Original am 30. Juli 2022. Abgerufen 10. Juni 2022.
- ^ Xu, Zhiwei; Zhang, Jialin (2021). Rechendenken: Eine Perspektive auf die Informatik. Singapur: Springer. p. 60. ISBN 9789811638480. Archiviert vom Original am 30. Juli 2022. Abgerufen 10. Juni 2022.
Es wird als gespeicherte Programmarchitektur oder gespeichertes Programmmodell bezeichnet, auch als von Neumann Architecture bekannt. Wir werden diese Begriffe austauschbar verwenden.
- ^ "Warum abstürzen Computer ab?". Wissenschaftlicher Amerikaner. Archiviert Aus dem Original am 1. Mai 2018. Abgerufen 3. März 2022.
- ^ Taylor, Alexander L., III (16. April 1984). "Der Assistent in der Maschine". Zeit. Archiviert von das Original am 16. März 2007. Abgerufen 17. Februar 2007.
- ^ Agatha C. Hughes (2000). Systeme, Experten und Computer. MIT Press. p. 161. ISBN 978-0-262-08285-3.
Die Erfahrung von Sage hat dazu beigetragen, das erste wirklich große kommerzielle Echtzeitnetzwerk zu ermöglichen: das Säbel Computerized Airline Reservations System
- ^ Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolf, Stephen (1999). "Eine kurze Geschichte des Internets". Arxiv:CS/9901011.
- ^ "Definition des Computers". TheFreedictionary.com. Archiviert Aus dem Original am 26. Dezember 2009. Abgerufen 29. Januar 2012.
- ^ II, Joseph D. Dumas (2005). Computerarchitektur: Grundlagen und Prinzipien des Computerdesigns. CRC Press. p. 340. ISBN 9780849327490. Archiviert vom Original am 23. Juni 2021. Abgerufen 9. November 2020.
Quellen
- Evans, Claire L. (2018). Broad Band: Die unzählige Geschichte der Frauen, die das Internet gemacht haben. New York: Portfolio/Penguin. ISBN 9780735211759. Archiviert vom Original am 28. Februar 2021. Abgerufen 9. November 2020.
- Fuegi, J.; Francis, J. (2003). "Lovelace & Babbage und die Schaffung der 'Notizen von 1843' '". IEEE Annals of the History of Computing. 25 (4): 16. doi:10.1109/mahc.2003.1253887. S2CID 40077111.
- Kempf, Karl (1961). Historische Monographie: Elektronische Computer innerhalb des Ordnance Corps. Aberdeen Proving Ground (Armee der Vereinigten Staaten). Archiviert Aus dem Original am 16. Oktober 2006. Abgerufen 24. Oktober 2006.
- Phillips, Tony (2000). "Der Antikythera -Mechanismus i". American Mathematical Society. Archiviert Aus dem Original am 27. April 2006. Abgerufen 5. April 2006.
- Shannon, Claude Elwood (1940). Eine symbolische Analyse von Relais und Schaltkreisen (These). Massachusetts Institute of Technology. HDL:1721.1/11173.
- Digital Equipment Corporation (1972). PDP-11/40-Prozessorhandbuch (PDF). Maynard, ma: Digital Equipment Corporation. Archiviert (PDF) Aus dem Original am 1. Dezember 2017. Abgerufen 27. November 2017.
- Swade, Doron D. (Februar 1993). "Charles Babbags mechanischer Computer einlösen". Wissenschaftlicher Amerikaner. 268 (2): 86–91. Bibcode:1993Sciam.268b..86s. doi:10.1038/ScientificAmerican0293-86. JStor 24941379.
- Meuer, Hans; Strohmaier, Erich; Simon, Horst; Dongarra, Jack (13. November 2006). "Architekturen teilen im Laufe der Zeit". Top500. Archiviert von das Original am 20. Februar 2007. Abgerufen 27. November 2006.
- Lavington, Simon (1998). Eine Geschichte von Manchester Computern (2. Aufl.). Swindon: Die British Computer Society. ISBN 978-0-902505-01-8.
- Light, Jennifer S. (1999). "Wenn Computer Frauen waren". Technologie und Kultur. 40 (3): 455–483. doi:10.1353/Tech.1999.0128. JStor 25147356. S2CID 108407884.
- Schmandt-Besserat, Denise (1999). "Token: Die kognitive Bedeutung". Documenta praehistorica. Xxvi. Archiviert von das Original am 30. Januar 2012.
- Schmandt-Besserat, Denise (1981). "Entschlüsselung der frühesten Tabletten". Wissenschaft. 211 (4479): 283–285. Bibcode:1981Sci ... 211..283s. doi:10.1126/science.211.4479.283. PMID 17748027.
- Stokes, Jon (2007). Innerhalb der Maschine: Eine illustrierte Einführung in Mikroprozessoren und Computerarchitektur. San Francisco: Keine Stärkepresse. ISBN 978-1-59327-104-6.
- Zuse, Konrad (1993). Der Computer - mein Leben. Berlin: Pringler-Verlag. ISBN 978-0-387-56453-1.
- Filz, Dorr E. (1916). Mechanische Arithmetik oder die Geschichte der Zählmaschine. Chicago: Washington Institute.
- Ifrah, Georges (2001). Die universelle Geschichte des Computers: Vom Abakus zum Quantencomputer. New York: John Wiley & Sons. ISBN 978-0-471-39671-0.
- Berkeley, Edmund (1949). Riesenhirne oder Maschinen, die denken. John Wiley & Sons.
- Cohen, Bernard (2000). "Howard Aiken, Porträt eines Computerpioniers". Physik heute. Cambridge, Massachusetts: Die MIT -Presse. 53 (3): 74–75. Bibcode:2000pht .... 53c..74c. doi:10.1063/1.883007. ISBN 978-0-262-53179-5.
- Ligonnière, Robert (1987). Préhistoire et Histoire des Ordinateurs. Paris: Robert Laffont. ISBN 978-2-221-05261-7.
- Couffignal, Louis (1933). Les machines à calcul; Leursprinzipien, Leur Évolution. Paris: Gauthier-Villars.
- Essinger, James (2004). Jacquards Web, wie ein Handwebes zur Geburt des Informationsalters führte. Oxford University Press. ISBN 978-0-19-280577-5.
- Hyman, Anthony (1985). Charles Babbage: Pionier des Computers. Princeton University Press. ISBN 978-0-691-02377-9.
- Bowden, B. V. (1953). Schneller als gedacht. New York, Toronto, London: Pitman Publishing Corporation.
- Moseley, Maboth (1964). Irascible Genie, Charles Babbage, Erfinder. London: Hutchinson.
- Collier, Bruce (1970). Der kleine Motor, der könnte: die Berechnungsmaschinen von Charles Babbage. Girlande Publishing. ISBN 978-0-8240-0043-1. Archiviert Aus dem Original am 20. Januar 2007. Abgerufen 24. Oktober 2013.
- Randell, Brian (1982). "Vom analytischen Motor zum elektronischen digitalen Computer: Die Beiträge von Ludgate, Torres und Bush" (PDF). Archiviert von das Original (PDF) am 21. September 2013. Abgerufen 29. Oktober 2013.
- Smith, Erika E. (2013). "Erkennen einer kollektiven Erbschaft durch die Geschichte der Frauen im Computer". CLCWEB: Vergleichende Literatur und Kultur. 15 (1): 1–9. doi:10.7771/1481-4374.1972.
- Verma, G.; Mielke, N. (1988). Zuverlässigkeitsleistung von ETOX -basierten Flash -Erinnerungen. IEEE International Zuverlässigkeit Physik Symposium.
Externe Links
- Medien im Zusammenhang mit Computern bei Wikimedia Commons
- Wikiversity hat ein Quiz in diesem Artikel
- Warhol & der Computer (von Chris Garcia) bei CHM