Informatik
Informatik ist das Studium von Berechnung, Automatisierung, und Information.[1] Informatik umfasst theoretische Disziplinen (wie z. Algorithmen, Theorie der Berechnung, Informationstheorie und Automatisierung) zu Praktische Disziplinen (einschließlich der Gestaltung und Implementierung von Hardware- und Software).[2][3][4] Informatik wird allgemein als Bereich von angesehen wissenschaftliche Forschung und anders als Computerprogrammierung.[5]
Algorithmen und Datenstrukturen sind zentral für Informatik.[6] Das Theorie der Berechnung Bedenken abstrakt Berechnungsmodelle und allgemeine Klassen von Probleme Das kann mit ihnen gelöst werden. Die Felder von Kryptographie und Computersicherheit Untersuchung der Mittel zur sicheren Kommunikation und zur Verhinderung Sicherheitslücken. Computergrafik und Computergeometrie adressieren Sie die Erzeugung von Bildern. Programmiersprache Theorie berücksichtigt verschiedene Möglichkeiten zur Beschreibung von Rechenprozessen und Datenbank Theorie betrifft das Management von Datenverträgen von Daten. Menschliche interaktion mit dem Computer untersucht die Schnittstellen, durch die Menschen und Computer interagieren und Softwareentwicklung Konzentriert sich auf das Design und die Prinzipien hinter der Entwicklung von Software. Bereiche wie Betriebssysteme, Netzwerke und eingebettete Systeme Untersuchen Sie die Prinzipien und das Design dahinter Komplexe Systeme. Rechnerarchitektur Beschreibt die Konstruktion von Computerkomponenten und computergestützten Geräten. Künstliche Intelligenz und maschinelles Lernen Ziel ist es, zielorientierte Prozesse wie Problemlösung, Entscheidungsfindung, Umweltanpassung, synthetisieren Planung und Lernen beim Menschen und Tieren. Innerhalb künstlicher Intelligenz, Computer Vision Ziel ist es, Bild- und Videodaten zu verstehen und zu verarbeiten, während Verarbeitung natürlicher Sprache Ziel, textuelle und sprachliche Daten zu verstehen und zu verarbeiten.
Das grundlegende Anliegen der Informatik besteht darin, zu bestimmen, was automatisiert werden kann und was nicht.[7][8][9][10][11] Das Turing Award wird allgemein als die höchste Unterscheidung in der Informatik anerkannt.[12][13]
Geschichte
Die frühesten Grundlagen dessen, was Informatik werden würde digitaler Computer. Maschinen zur Berechnung fester numerischer Aufgaben wie die Abakus haben seit der Antike existiert und bei Berechnungen wie Multiplikation und Teilung unterstützt. Algorithmen Für die Durchführung von Berechnungen gab es seit der Antike noch vor der Entwicklung hoch entwickelter Computergeräte.[16]
Wilhelm Schickard entworfen und gebaut die erste Arbeit mechanischer Taschenrechner 1623.[17] 1673, Gottfried Leibniz zeigte einen digitalen mechanischen Rechner, der als der genannt Stepped Reckoner.[18] Leibniz kann als der erste angesehen werden Informatiker und Informationstheoretiker aus verschiedenen Gründen, einschließlich der Tatsache, dass er das Binärnummernsystem dokumentierte. Im Jahr 1820, Thomas de Colmar startete die mechanischer Taschenrechner Industrie[Anmerkung 1] Als er seine vereinfachte erfand Arithmometer, Die erste berechnende Maschine, die stark genug und zuverlässig genug ist, um täglich in einer Büroumgebung verwendet zu werden. Charles Babbage begann das Design des ersten Automatischer mechanischer Taschenrechner, seine Differenzmotor, im Jahr 1822, was ihm schließlich die Idee des ersten gab Programmierbarer mechanischer Rechner, seine Analytischer Motor.[19] Er begann 1834 mit der Entwicklung dieser Maschine und "in weniger als zwei Jahren hatte er viele der herausragenden Merkmale des modernen Computers ausgelöst".[20] "Ein entscheidender Schritt war die Einführung eines gestörten Kartensystems, das aus dem abgeleitet ist Jacquard Loom"[20] es unendlich programmierbar machen.[Anmerkung 2] 1843 während der Übersetzung eines französischen Artikels über die analytische Motor Ada Lovelace schrieb in einer der vielen Notizen, die sie beinhaltete, einen Algorithmus zur Berechnung des Bernoulli -Zahlen, der als der erste veröffentlichte Algorithmus angesehen wird, der jeweils speziell für die Implementierung auf einem Computer zugeschnitten ist.[21] Um 1885, Herman Hollerith erfand die Tabulator, was verwendete geschlagene Karten statistische Informationen zu verarbeiten; Schließlich wurde seine Firma Teil von IBM. Babbage folgen, obwohl er sich seiner früheren Arbeit nicht bewusst ist, Percy Ludgate 1909 veröffentlicht[22] Der 2. der einzigen beiden Konstruktionen für mechanische analytische Motoren in der Geschichte. 1937, einhundert Jahre nach Babbags unmöglichem Traum, Howard Aiken Überzeugtes IBM, der alle Arten von Stanzkartenausrüstung herstellte und auch im Taschenrechnergeschäft war[23] Um seinen riesigen programmierbaren Taschenrechner zu entwickeln, die ASCC/Harvard Mark ibasierend auf Babbag's Analytical Engine, die selbst Karten und eine zentrale Computereinheit verwendete. Als die Maschine fertig war, begrüßten einige sie als "Babbage's Dream wurde wahr".[24]
In den 1940er Jahren mit der Entwicklung neuer und mächtiger Computer Maschinen wie die Atanasoff -berry -Computer und Eniac, der Begriff Computer kam, um sich eher auf die Maschinen als auf ihre menschlichen Vorgänger zu beziehen.[25] Als klar wurde, dass Computer für mehr als nur mathematische Berechnungen verwendet werden konnten, erweiterte sich das Gebiet der Informatik auf das Studium Berechnung Im Algemeinen. 1945, IBM gründete die Watson Scientific Computing Laboratory bei Universität von Columbia in New York City. Das renovierte Bruderschaftshaus auf Manhattans West Side war IBMs erstes Labor, das sich der reinen Wissenschaft widmete. Das Labor ist der Vorläufer der IBM -Forschungsabteilung, die heute weltweit Forschungseinrichtungen betreibt.[26] Letztendlich war die enge Beziehung zwischen der IBM und der Columbia University maßgeblich an der Entstehung einer neuen wissenschaftlichen Disziplin beteiligt, wobei Columbia 1946 eines der ersten akademischen Kurse in Informatik in Informatik anbot.[27] Die Informatik wurde in den 1950er und frühen 1960er Jahren als eigenständige akademische Disziplin eingerichtet.[28][29] Das erste Informatik -Studienprogramm der Welt, das Cambridge -Diplom in Informatik, begann am Universität von Cambridge Computerlabor 1953. Die erste Informatikabteilung in den Vereinigten Staaten wurde gegründet bei Purdue Universität 1962.[30] Seitdem praktische Computer verfügbar wurden, sind viele Anwendungen des Computers zu unterschiedlichen Studienbereichen in ihren eigenen Rechten geworden.
Etymologie
Obwohl erstmals 1956 vorgeschlagen,[31] Der Begriff "Informatik" erscheint in einem Artikel von 1959 in 1959 in Kommunikation der ACM,[32] in dem Louis Fein für die Schaffung von a argumentiert Graduiertenschule in Computerwissenschaften analog zur Schaffung von Harvard Business School 1921.[33] Louis rechtfertigt den Namen, indem er das argumentiert, wie ManagementwissenschaftDas Thema wird von Natur aus angewendet und interdisziplinär, während die für eine akademischen Disziplin typischen Merkmale typisch sind.[32] Seine Bemühungen und diejenigen anderer wie Numerischer Analyst George Forsythe, wurden belohnt: Universitäten schuf solche Abteilungen, beginnend mit Purdue im Jahr 1962.[34] Trotz seines Namens beinhaltet eine erhebliche Menge an Informatik nicht das Studium der Computer selbst. Aus diesem Grund wurden mehrere alternative Namen vorgeschlagen.[35] Bestimmte Abteilungen der großen Universitäten bevorzugen den Begriff Informatikgenau diesen Unterschied betonen. Dänischer Wissenschaftler Peter Naur schlug den Begriff vor Datalogie,[36] Um die Tatsache widerzuspiegeln, dass sich die wissenschaftliche Disziplin um Daten- und Datenbehandlung dreht, während sie nicht unbedingt Computer beteiligt. Die erste wissenschaftliche Einrichtung, die den Begriff nutzte, war das 1969 gegründete Abteilung für Datalogie der Universität Kopenhagen. Peter Naur war der erste Professor in Datalogy. Der Begriff wird hauptsächlich in den skandinavischen Ländern verwendet. Ein alternativer Begriff, der ebenfalls von Naur vorgeschlagen wird, ist Datenwissenschaft; Dies wird jetzt für a verwendet Multidisziplinär Datenanalyse, einschließlich Statistiken und Datenbanken.
In den frühen Berechnungstagen wurden eine Reihe von Begriffen für die Praktiker des Computergebiets in der vorgeschlagen Kommunikation der ACM—Turingineer, Turologe, Flow-Charts-Man, Angewandter metematischer, und angewandt Epistemologe.[37] Drei Monate später in derselben Zeitschrift, Komptologe wurde vorgeschlagen, im nächsten Jahr von gefolgt von Hypologe.[38] Der Begriff Computer wurde auch vorgeschlagen.[39] In Europa werden Begriffe aus vertraglichen Übersetzungen des Ausdrucks "automatische Informationen" (z. B. "Informazione automatisch" in Italienisch) oder "Informationen und Mathematik" verwendet, z. Informatique (Französisch), Informatik (Deutsch), Informatica (Italienisch, Niederländisch), Informática (Spanisch, Portugiesisch), Informatika (Slawische Sprachen und ungarisch) oder Plirroforiki (πληροφοριesseG, was Informatik bedeutet) in griechisch. Ähnliche Wörter wurden auch in Großbritannien angenommen (wie in der Fakultät für Informatik, Universität von Edinburgh).[40] "In den USA, jedoch, Informatik ist mit Applied Computing oder Computing im Kontext einer anderen Domäne verknüpft. "[41]
Ein folklorisches Zitat, das oft zugeschrieben wird - aber mit ziemlicher Sicherheit nicht zuerst formuliert -Edsger Dijkstrastellt fest, dass "Informatik nicht mehr um Computer als bei Astronomie geht, um Teleskope."[Notiz 3] Das Design und die Bereitstellung von Computern und Computersystemen werden im Allgemeinen als Provinz der Disziplinen als Informatik angesehen. Zum Beispiel wird die Untersuchung von Computerhardware normalerweise als Teil von als Teil von betrachtet Technische Informatik, während das Studium der Werbung Computersysteme und ihre Bereitstellung wird oft als Informationstechnologie bezeichnet oder Informationssysteme. Es gab jedoch einen Ideenaustausch zwischen den verschiedenen computerbezogenen Disziplinen. Informatikforschung schneidet häufig auch andere Disziplinen, wie z. Kognitionswissenschaft, Linguistik, Mathematik, Physik, Biologie, Erdkunde, Statistiken, Philosophie, und Logik.
Die Informatik wird von einigen als eine viel engere Beziehung zur Mathematik angesehen als viele wissenschaftliche Disziplinen. Einige Beobachter sagen, dass Computing eine mathematische Wissenschaft ist.[28] Die frühe Informatik wurde stark von der Arbeit von Mathematikern wie nach wie vor beeinflusst Kurt Gödel, Alan Turing, John von Neumann, Rózsa Péter und Alonzo -Kirche und dort gibt es weiterhin ein nützlicher Ideenaustausch zwischen den beiden Feldern in Bereichen wie z. Mathematische Logik, Kategoriestheorie, Domain -Theorie, und Algebra.[31]
Die Beziehung zwischen Informatik und Software -Engineering ist ein umstrittenes Thema, das weiter durcheinander gebracht wird von Streitigkeiten Was den Begriff "Software -Engineering" bedeutet und wie Informatik definiert ist.[42] David ParnasEin Hinweis aus der Beziehung zwischen anderen Ingenieur- und Wissenschaftsdisziplinen hat behauptet, dass der Hauptaugenmerk der Informatik die Eigenschaften der Berechnung im Allgemeinen untersucht, während der Hauptaugenmerk des Software -Engineering die Gestaltung spezifischer Berechnungen zur Erreichung praktischer Ziele liegt. die beiden getrennten, aber komplementären Disziplinen machen.[43]
Die akademischen, politischen und finanzierenden Aspekte der Informatik hängen dazu, ob eine Abteilung mit einem mathematischen Schwerpunkt oder mit einem technischen Schwerpunkt gebildet wird. Informatikabteilungen mit mathematischer Betonung und mit einer numerischen Orientierung überlegen Computerwissenschaft. Beide Arten von Abteilungen bemühen sich, die Bereiche Bildung zu überbrücken, wenn nicht alle Forschungsergebnisse.
Philosophie
Erkenntnistheorie der Informatik
Trotz des Wortes "Wissenschaft" in seinem Namen gibt es eine Debatte darüber, ob Informatik eine Disziplin von Naturwissenschaften, Mathematik oder Ingenieurwesen ist oder nicht.[44] Allen Newell und Herbert A. Simon argumentiert 1975,
Informatik ist eine empirische Disziplin. Wir hätten es eine experimentelle Wissenschaft genannt, aber wie Astronomie, Wirtschaft und Geologie passt einige ihrer einzigartigen Formen der Beobachtung und Erfahrung nicht zu einem engen Stereotyp der experimentellen Methode. Trotzdem sind sie Experimente. Jede neue Maschine, die gebaut wird, ist ein Experiment. Der Bau der Maschine stellt die Natur eine Frage; und wir hören auf die Antwort zu, indem wir die Maschine im Betrieb beobachten und nach allen verfügbaren Analyse- und Messmitteln analysieren.[44]
Seitdem wurde argumentiert, dass Informatik als empirische Wissenschaft eingestuft werden kann, da sie empirische Tests verwendet, um die zu bewerten Korrektheit von ProgrammenAber ein Problem bleibt bei der Definition der Gesetze und Theoreme der Informatik (falls vorhanden) und die Natur der Experimente in der Informatik.[44] Befürworter der Klassifizierung von Informatik als technische Disziplin argumentieren, dass die Zuverlässigkeit von Computersystemen auf die gleiche Weise untersucht wird wie Brücken in Tiefbau und Flugzeuge in Raumfahrttechnik.[44] Sie argumentieren auch, dass empirische Wissenschaften zwar beobachten, was derzeit existiert, aber die Informatik beobachtet, was möglich ist, und während Wissenschaftler Gesetze aus Beobachtung entdecken, wurden in der Informatik keine angemessenen Gesetze gefunden, und stattdessen befasst sich mit der Schaffung von Phänomenen.[44]
Befürworter der Klassifizierung von Informatik als mathematische Disziplin argumentieren, dass Computerprogramme physikalische Realisierungen mathematischer Einheiten und Programme sind deduktiv begründet durch mathematisches Formale Methoden.[44] Informatiker Edsger W. Dijkstra und Tony Hoare Betrachten Sie die Anweisungen für Computerprogramme als mathematische Sätze und interpretieren formelle Semantik für Programmiersprachen als mathematisch Axiomatische Systeme.[44]
Paradigmen der Informatik
Eine Reihe von Informatikern hat sich für die Unterscheidung von drei getrennten Paradigmen in der Informatik ausgelöst. Peter Wegner argumentierte, dass diese Paradigmen Wissenschaft, Technologie und Mathematik sind.[45] Peter DenningDie Arbeitsgruppe argumentierte, dass sie Theorie, Abstraktion (Modellierung) und Design sind.[46] Amnon H. Eden beschrieb sie als "rationalistisches Paradigma" (die Informatik als einen Zweig der Mathematik behandelt, der in der theoretischen Informatik weit verbreitet ist und hauptsächlich einsetzt deduktive Argumentation), das "technokratische Paradigma" (das in technischen Ansätzen, am deutlichsten in der Software-Engineering) und das "wissenschaftliche Paradigma" (das sich computerbezogene Artefakte aus empirischer Perspektive von computerbezogenen Artefakten nähert Naturwissenschaften,[47] identifizierbar in einigen Zweigen von künstliche Intelligenz).[48] Die Informatik konzentriert sich auf Methoden, die an Design, Spezifikation, Programmierung, Überprüfung, Implementierung und Test von von Menschen hergestellten Computersystemen beteiligt sind.[49]
Felder
Bei der Informatik geht es nicht mehr um Computer als bei Astronomie um Teleskope.
Als Disziplin erstreckt sich die Informatik über eine Reihe von Themen aus theoretischen Studien von Algorithmen und den Grenzen der Berechnung auf die praktischen Probleme der Implementierung von Computersystemen in Hardware und Software.[50][51] CSAB, früher als Computing Sciences Accreditation Board bezeichnet, das aus Vertretern der Verband für Rechenmaschinen (ACM) und die IEEE Computer Society (IEEE CS)[52]- Identifiziert vier Bereiche, die für die Disziplin der Informatik von entscheidender Bedeutung sind: Theorie der Berechnung, Algorithmen und Datenstrukturen, Programmiermethodik und Sprachen, und Computerelemente und Architektur. Zusätzlich zu diesen vier Bereichen identifiziert CSAB auch Felder wie Software -Engineering, künstliche Intelligenz, Computernetzwerk und Kommunikation, Datenbanksysteme, parallele Berechnung, verteilte Berechnung, Interaktion zwischen Mensch und Compute, Computergrafiken, Betriebssysteme sowie numerisch und numerisch und Symbolische Berechnung als wichtige Bereiche der Informatik.[50]
Theoretische Informatik
Theoretische Informatik ist mathematisch und abstrakt im Geist, leitet jedoch seine Motivation aus der praktischen und alltäglichen Berechnung ab. Ziel ist es, die Art der Berechnung zu verstehen und als Folge dieses Verständnisses effizientere Methoden zu bieten.
Theorie der Berechnung
Entsprechend Peter DenningDie grundlegende Frage, die der Informatik zugrunde liegt, lautet: "Was kann automatisiert werden?"[28] Die Theorie der Berechnung konzentriert sich auf die Beantwortung grundlegender Fragen darüber, was berechnet werden kann und welche Menge an Ressourcen erforderlich sind, um diese Berechnungen auszuführen. Um die erste Frage zu beantworten, Computerbarkeitstheorie Untersucht, welche Rechenprobleme bei verschiedenen theoretischen Lösungen löslich sind Berechnungsmodelle. Die zweite Frage wird von behandelt von Computerkomplexitätstheorie, die die Zeit- und Raumkosten untersucht, die mit unterschiedlichen Ansätzen zur Lösung einer Vielzahl von Rechenproblemen verbunden sind.
Die Berühmten P = np? Problem eines der der Millennium Prize Problems,[53] ist ein offenes Problem in der Berechnungstheorie.
Automatenheorie | Formelle Sprachen | Computerbarkeitstheorie | Computerkomplexitätstheorie |
Berechnungsmodelle | Quantencomputertheorie | Logikkreistheorie | Mobilfunk Automaten |
Informations- und Codierungstheorie
Informationstheorie, eng verwandt mit Wahrscheinlichkeit und Statistikenbezieht sich auf die Quantifizierung von Informationen. Dies wurde von entwickelt von Claude Shannon grundlegende Grenzen finden Signalverarbeitung Operationen wie Komprimieren von Daten und beim zuverlässigen Speichern und Kommunikation von Daten.[54] Die Codierungstheorie ist die Untersuchung der Eigenschaften von Codes (Systeme zum Konvertieren von Informationen von einem Formular in ein anderes) und deren Fitness für eine bestimmte Anwendung. Codes werden für verwendet Datenkompression, Kryptographie, Fehlererkennung und Korrekturund in jüngerer Zeit auch für Netzwerkcodierung. Codes werden zum Zwecke der Gestaltung effizienter und zuverlässig Datenübertragung Methoden.[55]
Codierungstheorie | Kanalkapazität | Algorithmische Informationstheorie | Signalerkennungstheorie | Kolmogorov -Komplexität |
Datenstrukturen und Algorithmen
Datenstrukturen und Algorithmen sind die Studien zu häufig verwendeten Rechenmethoden und deren Recheneffizienz.
O(n2) | |||||
Analyse von Algorithmen | Algorithmus Design | Datenstrukturen | Kombinatorische Optimierung | Computergeometrie | Randomisierte Algorithmen |
Programmiersprache Theorie und formale Methoden
Die Programmiersprache Theorie ist ein Zweig der Informatik, der sich mit Design, Implementierung, Analyse, Charakterisierung und Klassifizierung von befasst Programmiersprachen und ihr Individuum Merkmale. Es fällt in die Disziplin der Informatik, sowohl je nach als auch Auswirkungen auf die Informatik Mathematik, Software Engineering und Linguistik. Es ist ein aktiver Forschungsbereich mit zahlreichen engagierten akademischen Zeitschriften.
Formale Methoden sind eine bestimmte Art von Art von mathematisch basierte Technik für die Spezifikation, Entwicklung und Überprüfung von Software und Hardware- Systeme.[56] Die Verwendung formaler Methoden für Software und Hardwaredesign wird durch die Erwartung motiviert, dass die Durchführung einer geeigneten mathematischen Analyse wie in anderen technischen Disziplinen zur Zuverlässigkeit und Robustheit eines Designs beitragen kann. Sie bilden eine wichtige theoretische Untermauerung für Software -Engineering, insbesondere wenn es sich um Sicherheit handelt. Formale Methoden sind eine nützliche Ergänzung zu Softwaretests, da sie bei der Vermeidung von Fehlern helfen und auch einen Rahmen für das Testen geben können. Für den industriellen Gebrauch ist die Werkzeugunterstützung erforderlich. Die hohen Kosten für die Verwendung formaler Methoden bedeuten jedoch, dass sie normalerweise nur bei der Entwicklung von hoher Integrität verwendet werden und lebenskritische Systeme, wo Sicherheit oder Sicherheit ist von größter Bedeutung. Formale Methoden werden am besten als Anwendung einer ziemlich breiten Vielfalt von beschrieben Theoretische Informatik insbesondere Grundlagen Logik Kalkül, formelle Sprachen, Automatenheorie, und Programmsemantik, aber auch Typsysteme und Algebraische Datentypen zu Problemen in der Software- und Hardwarespezifikation und -überprüfung.
Formelle Semantik | Typentheorie | Compiler -Design | Programmiersprachen | Formelle Überprüfung | Automatisierter Theorem beweisen |
Computersysteme und Rechenprozesse
Künstliche Intelligenz
Künstliche Intelligenz (KI) zielt darauf ab, zielorientierte Prozesse wie Problemlösung, Entscheidungsfindung, Umweltanpassung, Lernen und Kommunikation bei Menschen und Tieren zu synthetisieren. Von seiner Herkunft in Kybernetik und in der Dartmouth -Konferenz (1956) war die künstliche Intelligenzforschung notwendigerweise interdisziplinär und stützt sich auf Fachgebiete wie z. angewandte Mathematik, Symbolische Logik, Semiotik, Elektrotechnik, Philosophie des Geistes, Neurophysiologie, und soziale Intelligenz. KI wird im populären Geist mit assoziiert Roboterentwicklung, aber das Hauptfeld der praktischen Anwendung war als eingebettete Komponente in Bereichen von Bereichen Software-Entwicklung, die rechnerisches Verständnis erfordern. Der Ausgangspunkt Ende der 1940er Jahre war Alan Turing's Frage "Können Computer denken?", und die Frage bleibt effektiv unbeantwortet, obwohl die Turing-Test wird immer noch verwendet, um die Computerausgabe auf der Skala der menschlichen Intelligenz zu bewerten. Die Automatisierung bewertender und prädiktiver Aufgaben war jedoch zunehmend erfolgreicher als Ersatz für die Überwachung und Intervention der Menschen in Bereichen der Computeranwendung, die komplexe reale Daten beinhalten.
Computerarchitektur und Organisation
Computerarchitektur oder digitale Computerorganisation ist das konzeptionelle Design und die grundlegende Betriebsstruktur eines Computersystems. Es konzentriert sich hauptsächlich auf die Art und Weise, wie die zentrale Verarbeitungseinheit intern ausführt und auf Adressen im Speicher zugreift.[57] Computeringenieure studieren Computerlogik und Design von Computerhardwarevon Individuum Prozessor Komponenten, Mikrocontroller, persönliche Computer zu Supercomputer und eingebettete Systeme. Der Begriff „Architektur“ in der Computerliteratur kann auf die Arbeit von Lyle R. Johnson und verfolgt werden Frederick P. Brooks, Jr., Mitglieder der Maschinenorganisationsabteilung im Hauptforschungszentrum von IBM im Jahr 1959.
Gleichzeitig, paralleles und verteiltes Computing
Die Parallelität ist eine Eigenschaft von Systemen, in denen mehrere Berechnungen gleichzeitig ausgeführt werden und möglicherweise miteinander interagieren.[58] Für die allgemeine gleichzeitige Berechnung wurde eine Reihe mathematischer Modelle entwickelt, einschließlich der allgemeinen gleichzeitigen Berechnung Petri Nets, Prozesskalkül und die Parallel -Zufallszugriffsmaschine Modell.[59] Wenn mehrere Computer in einem Netzwerk während der Nutzung der Parallelität verbunden sind, wird dies als verteiltes System bezeichnet. Computer in diesem verteilten System haben einen eigenen privaten Speicher, und Informationen können ausgetauscht werden, um gemeinsame Ziele zu erreichen.[60]
Computernetzwerke
Dieser Zweig der Informatik zielt darauf ab, Netzwerke zwischen Computern weltweit zu verwalten.
Computersicherheit und Kryptographie
Computersicherheit ist ein Zweig der Computertechnologie mit dem Ziel, Informationen vor nicht autorisierten Zugriff, Störung oder Änderung zu schützen und gleichzeitig die Zugänglichkeit und Benutzerfreundlichkeit des Systems für seine beabsichtigten Benutzer beizubehalten.
Historisch Kryptographie ist die Kunst des Schreibens und Entschlüsselungsbotschaften. Die moderne Kryptographie ist die wissenschaftliche Untersuchung von Problemen im Zusammenhang mit verteilten Berechnungen, die angegriffen werden können.[61] Die in der modernen Kryptographie untersuchten Technologien umfassen symmetrisch und asymmetrisch Verschlüsselung, digitale Signaturen, Kryptografische Hash -Funktionen, Schlüsselversorgungsprotokolle, Blockchain, Null-Wissen-Beweise, und verstümmelte Schaltungen.
Datenbanken und Data Mining
Eine Datenbank soll große Datenmengen organisieren, speichern und abrufen. Digitale Datenbanken werden mithilfe von Datenbankverwaltungssystemen verwaltet, um Daten zu speichern, zu erstellen, zu warten und zu durchsuchen Datenbankmodelle und Abfragesprachen. Data Mining ist ein Prozess, in dem Muster in großen Datensätzen entdeckt werden.
Computergrafik und Visualisierung
Computergrafik ist die Untersuchung digitaler visueller Inhalte und beinhaltet die Synthese und Manipulation von Bilddaten. Die Studie ist mit vielen anderen Bereichen der Informatik verbunden, einschließlich Computer Vision, Bildverarbeitung, und Computergeometrieund wird stark in den Feldern von Spezialeffekten angewendet und Videospiele.
2D -Computergrafik | Computeranimation | Rendering | Gemischte Realität | Virtuelle Realität | Solide Modellierung |
Bild- und Tonverarbeitung
Information Kann die Form von Bildern, Ton, Video oder anderen Multimedia annehmen. Bits von Informationen können über übertragen werden Signale. Es ist wird bearbeitet ist der zentrale Begriff von Informatik, die europäische Sicht auf Computer, die Informationsverarbeitungsalgorithmen unabhängig von der Art des Informationsträgers untersucht - sei es elektrisch, mechanisch oder biologisch. Dieses Feld spielt eine wichtige Rolle in Informationstheorie, Telekommunikation, Informationsingenieurswesen und hat Anwendungen in Medizinisches Bild Computing und Sprachsynthese, unter anderen. Was ist die Untergrenze für die Komplexität von Schnelle Fourier-Transformation Algorithmen? ist einer von ungelöste Probleme in der theoretischen Informatik.
FFT -Algorithmen | Bildverarbeitung | Spracherkennung | Datenkompression | Medizinisches Bild Computing | Sprachsynthese |
Angewandte Informatik
Computerwissenschaft, Finanzierung und Ingenieurwesen
Wissenschaftliches rechnen (oder Computerwissenschaft) ist das Studiengebiet, das sich mit dem Bau befasst Mathematische Modelle und quantitative Analyse Techniken und Verwendung von Computern zur Analyse und Lösung wissenschaftlich Probleme. Eine große Verwendung des wissenschaftlichen Computers ist Simulation von verschiedenen Prozessen, einschließlich Berechnungen Flüssigkeitsdynamik, physische, elektrische und elektronische Systeme und Schaltkreise sowie Gesellschaften und soziale Situationen (insbesondere Kriegsspiele) zusammen mit ihren Lebensräumen. Moderne Computer ermöglichen eine Optimierung von Designs wie komplettem Flugzeug. Bemerkenswert im elektrischen und elektronischen Schaltungsdesign sind Gewürz,[62] sowie Software zur physischen Realisierung neuer (oder geänderter) Designs. Letzteres enthält eine wichtige Designsoftware für integrierte Schaltkreise.[63]
Numerische Analyse | Computerphysik | Computerchemie | Bioinformatik | Neuroinformatik | Psychoinformatik | Medizinische Informatik | Computertechnik | Computermusikologie |
Social Computing und Human -Computer -Interaktion
Social Computing ist ein Bereich, der sich mit dem Schnittpunkt von sozialem Verhalten und Rechensystemen befasst. Human -Computer -Interaktionsforschung entwickelt Theorien, Prinzipien und Richtlinien für Benutzeroberflächendesigner.
Softwareentwicklung
Software -Engineering ist die Untersuchung des Entwerfens, Implementierens und Änderns der Software, um sicherzustellen, dass sie von hoher Qualität, erschwinglich, wartbar und schnell aufgebaut ist. Es ist ein systematischer Ansatz für das Softwaredesign, das die Anwendung von technischen Praktiken auf Software umfasst. Software Engineering befasst sich mit der Organisation und Analyse von Software - sie befasst sich nicht nur mit der Erstellung oder Herstellung neuer Software, sondern der internen Anordnung und Wartung. Zum Beispiel Softwaretest, Systemtechnik, Technische Schulden und Softwareentwicklungsprozesse.
Entdeckungen
Der Philosoph des Computers Bill Rapaport Bekannt drei Tolle Erkenntnisse der Informatik:[64]
- Gottfried Wilhelm Leibniz's, George Boole's, Alan Turing's, Claude Shannonund und und Samuel Morse's Insight: Es gibt nur zwei Objekte Dass ein Computer zu tun hat, um "alles" zu repräsentieren.[Anmerkung 4]
- Alle Informationen über jedes rechenbare Problem können nur mit 0 und 1 (oder einem anderen herrlichem Paar, das zwischen zwei leicht unterscheidbaren Zuständen wie "Ein/Aus", "magnetisiert/de-Magnetisierte", "hoch", dargestellt werden kann, die zwischen zwei leicht zu unterscheiden sind -Voltage/niedrige Spannung "usw.).
- Alan Turing's Insight: Es gibt nur fünf Aktionen dass ein Computer ausführen muss, um "alles" zu tun.
- Jeder Algorithmus kann in einer Sprache für einen Computer ausgedrückt werden, der aus nur fünf grundlegenden Anweisungen besteht:[65]
- einen Ort nach links bewegen;
- sich rechts einen Ort bewegen;
- Lesen Sie das Symbol am aktuellen Ort;
- Drucken 0 am aktuellen Ort;
- Drucken Sie 1 am aktuellen Standort.
- Jeder Algorithmus kann in einer Sprache für einen Computer ausgedrückt werden, der aus nur fünf grundlegenden Anweisungen besteht:[65]
- Corrado Böhm und Giuseppe Jacopinis Einsicht: Es gibt nur Drei Möglichkeiten des Kombinierens Diese Aktionen (in komplexere) werden benötigt, damit ein Computer "alles" macht.[66]
- Es sind nur drei Regeln erforderlich, um alle grundlegenden Anweisungen in komplexere zu kombinieren:
- Reihenfolge: Tu das zuerst, dann mach das;
- Auswahl: Wenn ein solcher und der Fall der Fall ist, dann tun Sie das, sonst tun Sie das;
- Wiederholung: Während solch ein Fall ist, tun Sie dies.
- Beachten Sie, dass die drei Regeln von Boehms und Jacopinis Einsichten durch die Verwendung von weiter vereinfacht werden können gehe zu (was bedeutet, dass es elementarer ist als Strukturierte Programmierung).
- Es sind nur drei Regeln erforderlich, um alle grundlegenden Anweisungen in komplexere zu kombinieren:
Programmierparadigmen
Programmiersprachen können verwendet werden, um unterschiedliche Aufgaben auf unterschiedliche Weise zu erledigen. Zu den gängigen Programmierparadigmen gehören:
- Funktionelle Programmierung, Ein Stil des Aufbaus der Struktur und Elemente von Computerprogrammen, die die Berechnung als Bewertung mathematischer Funktionen behandeln und Zustand und veränderliche Daten vermeiden. Es handelt sich um ein deklaratives Programmierparadigma, was bedeutet, dass die Programmierung mit Ausdrücken oder Erklärungen anstelle von Aussagen durchgeführt wird.[67]
- Imperative Programmierung, ein Programmierparadigma, das Aussagen verwendet, die den Status eines Programms ändern.[68] Genauso wie die imperative Stimmung in natürlichen Sprachen Befehle ausdrückt, besteht ein imperatives Programm aus Befehlen, die der Computer ausführen kann. Imperatives Programmieren konzentriert sich auf die Beschreibung der Funktionsweise eines Programms.
- Objekt orientierte Programmierung, ein Programmierparadigma basierend auf dem Konzept von "Objekten", das Daten in Form von Feldern enthalten kann, die häufig als Attribute bezeichnet werden; und Code in Form von Verfahren, die häufig als Methoden bezeichnet werden. Ein Merkmal von Objekten ist, dass die Prozeduren eines Objekts auf die Datenfelder des Objekts zugreifen und häufig ändern können, mit dem sie zugeordnet sind. Somit werden objektorientierte Computerprogramme aus Objekten hergestellt, die miteinander interagieren.[69]
- Service-orientiertes Programmieren, ein Programmierparadigma, das "Dienste" als Computerarbeit verwendet, um integrierte Geschäftsanwendungen zu entwerfen und zu implementieren missionkritisch Softwareprogramme
Viele Sprachen bieten Unterstützung für mehrere Paradigmen und machen die Unterscheidung mehr zu Stil als bei technischen Fähigkeiten.[70]
Akademie
Konferenzen sind wichtige Ereignisse für die Informatikforschung. Während dieser Konferenzen präsentieren Forscher aus dem öffentlichen und privaten Sektor ihre jüngsten Arbeiten und treffen sich. Anders als in den meisten anderen akademischen Bereichen in Informatik, das Prestige von Konferenz Unterlagen ist größer als die von Journal Publications.[71][72] Eine vorgeschlagene Erklärung hierfür ist die schnelle Entwicklung dieses relativ neuen Feldes erfordert eine schnelle Überprüfung und Verteilung der Ergebnisse, eine Aufgabe, die von Konferenzen besser behandelt wird als von Zeitschriften.[73]
Ausbildung
Informatik, bekannt durch seine nahen Synonyme, Computer, Computerstudien, wurde seit den Tagen von Tagen in britischen Schulen unterrichtet Stapelverarbeitung, markieren sensible Karten und Papier Klebeband aber normalerweise zu einigen ausgewählten Schülern.[74] 1981 produzierte die BBC a Mikrocomputer und Klassenzimmernetzwerk und Computerstudien wurden für GCE gemeinsam O-Level; O-Ebene Studenten (11–16-Jährige) und Informatik zu Ein Level Studenten. Seine Bedeutung wurde anerkannt und es wurde ein obligatorischer Teil der Nationaler lehrplanFür die Key Stage 3 & 4. im September 2014 wurde es zu einem Anspruch für alle Schüler über 4 Jahre.[75]
In dem UNSMit 14.000 Schulbezirken, die den Lehrplan entschieden haben, wurde die Bestimmung gebrochen.[76] Laut einem Bericht von 2010 von der Verband für Rechenmaschinen (ACM) und Informatik -Lehrerverband (CSTA) haben nur 14 von 50 Bundesstaaten bedeutende Bildungsstandards für die Informatik der High School verabschiedet.[77] Laut einem Bericht von 2021 bieten nur 51% der Gymnasien in den USA Informatik an[78].
Israel, Neuseeland und Südkorea haben Informatik in ihre nationalen Lehrpläne für Sekundarschulbildung aufgenommen.[79][80] und mehrere andere folgen.[81]
Siehe auch
- Technische Informatik
- Computerprogrammierung
- Digitale Revolution
- Informations-und Kommunikationstechnologie
- Informationstechnologie
- Liste der Informatiker
- Liste der Informatikpreise
- Liste wichtiger Veröffentlichungen in Informatik
- Liste der Pioniere in der Informatik
- Liste der ungelösten Probleme in der Informatik
- Programmiersprache
- Softwareentwicklung
Anmerkungen
- ^ 1851
- ^ "Die Einführung von Stanzkarten in den neuen Motor war nicht nur als bequemere Form der Kontrolle als die Trommeln oder weil Programme nun unbegrenzt sein könnten und ohne die Gefahr einer Einführung von Fehlern bei der Festlegung des Maschine von Hand; es war auch wichtig, weil es Babbage das Gefühl kristallisierte, dass er etwas wirklich Neues erfunden hatte, viel mehr als eine anspruchsvolle Berechnungsmaschine. " Bruce Collier, 1970
- ^ Siehe den Eintrag "Informatik" über Wikiquote für die Geschichte dieses Zitats.
- ^ Das Wort "alles" ist in Anführungszeichen geschrieben, weil es Dinge gibt, die Computer nicht tun können. Ein Beispiel ist: die Frage zu beantworten, ob ein willkürlich gegebenes Computerprogramm irgendwann für immer abgeschlossen oder ausgeführt wird (die Halting problem).
Verweise
- ^ "Was ist Informatik? - Informatik. Die Universität von York". www.cs.york.ac.uk. Abgerufen 11. Juni, 2020.
- ^ "WordNet -Suche - 3.1". WordNetweb.princeton.edu. Abgerufen 14. Mai, 2012.
- ^ "Definition der Informatik | Dictionary.com". www.dictionary.com. Abgerufen 11. Juni, 2020.
- ^ "Was ist Informatik? | Bachelor -Informatik bei UMD". Undergrad.cs.umd.edu. Abgerufen 15. Juli, 2022.
- ^ Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.; Young, P. R. (Februar 1989). "Berechnung als Disziplin". Computer. 22 (2): 63–70. doi:10.1109/2.19833. ISSN 1558-0814.
Diejenigen in der Disziplin wissen, dass Informatik weit mehr als das Programmieren umfasst.
- ^ Harel, David (2014). Algorithmie Der Geist des Computers. Springer Berlin. ISBN 978-3-642-44135-6. OCLC 876384882.
- ^ The MIT Press (30. April 1980). Was kann automatisiert werden? Forschungsstudie für Informatik und Ingenieurwesen | Die MIT -Presse. Mitpress.mit.edu. Informatikserie. MIT Press. ISBN 9780262010603.
{{}}
: CS1 Wartung: URL-Status (Link) - ^ Patton, Richard D.; Patton, Peter C. (2009), NOF, Shimon Y. (Hrsg.), "Was kann automatisiert werden? Was kann nicht automatisiert werden?", Springerhandbuch der Automatisierung, Springer Handbooks, Berlin, Heidelberg: Springer, S. 305–313, doi:10.1007/978-3-540-78831-7_18, ISBN 978-3-540-78831-7, abgerufen 3. März, 2022
- ^ Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.; Young, P. R. (Februar 1989). "Berechnung als Disziplin". Computer. 22 (2): 63–70. doi:10.1109/2.19833. ISSN 1558-0814.
Die Disziplin des Computers ist die systematische Untersuchung von algorithmischen Prozessen, die Informationen beschreiben und transformieren, ihre Theorie, Analyse, Design, Effizienz, Implementierung und Anwendung. Die grundlegende Frage, die allen Berechnungen zugrunde liegt, lautet: "Was kann (effizient) automatisiert werden?"
- ^ Forsythe, George (5. bis 10. August 1969). "Informatik und Bildung". Verfahren des IFIP -Kongresses 1968.
Die Frage "Was kann automatisiert werden?" ist eine der inspirierendsten philosophischen und praktischen Fragen der zeitgenössischen Zivilisation.
- ^ Knuth, Donald E. (1. August 1972). "George Forsythe und die Entwicklung der Informatik". Kommunikation der ACM. 15 (8): 721–726. doi:10.1145/361532.361538. ISSN 0001-0782. S2CID 12512057.
- ^ Hanson, Vicki L. (23. Januar 2017). "50 Jahre des Turing Award" feiern ". Kommunikation der ACM. 60 (2): 5. doi:10.1145/3033604. ISSN 0001-0782. S2CID 29984960.
- ^ Scott, Eric; Martins, Marcella Scoczynski Ribeiro; Yafrani, Mohamed El; Volz, Vanessa; Wilson, Dennis G (5. Juni 2018). "ACM markiert 50 Jahre des ACM A. Turing Award und Computings größte Errungenschaften". ACM Sigevolution. 10 (3): 9–11. doi:10.1145/3231560.3231563. S2CID 47021559.
- ^ "Charles Babbage Institute: Wer war Charles Babbage?". cbi.umn.edu. Abgerufen 28. Dezember, 2016.
- ^ "Ada Lovelace | Babbage Engine | Computer History Museum". www.computerHistory.org. Abgerufen 28. Dezember, 2016.
- ^ "Geschichte der Informatik". cs.uwaterloo.ca. Abgerufen 15. Juli, 2022.
- ^ "Wilhelm Schickard - Ein Computerpionier" (PDF) (auf Deutsch). Archiviert von das Original (PDF) am 19. September 2020. Abgerufen 4. Dezember, 2016.
- ^ Keates, Fiona (25. Juni 2012). "Eine kurze Geschichte des Computers". Das Repository. Die königliche Gesellschaft.
- ^ "Wissenschaftsmuseum, Babbag's Analytical Engine, 1834-1871 (Versuchsmodell)". Abgerufen 11. Mai, 2020.
- ^ a b Anthony Hyman (1982). Charles Babbage, Pionier des Computers. ISBN 9780691083032.
- ^ "Eine Auswahl und Anpassung aus Adas Notizen in Ada, der Zauberin der Zahlen", von Betty Alexandra Toole Ed.D. Strawberry Press, Mill Valley, CA ". Archiviert von das Original am 10. Februar 2006. Abgerufen 4. Mai, 2006.
- ^ "Die John Gabriel Byrne Informatiksammlung" (PDF). Archiviert von das Original am 16. April 2019. Abgerufen 8. August, 2019.
- ^ "In diesem Sinne benötigte Aiken IBM, dessen Technologie die Verwendung von Stanzkarten, die Akkumulation numerischer Daten und die Übertragung numerischer Daten von einem Register zum anderen beinhaltete". Bernard Cohen, S.44 (2000)
- ^ Brian Randell, p. 187, 1975
- ^ Das Verband für Rechenmaschinen (ACM) wurde 1947 gegründet.
- ^ "IBM Archives: 1945". Ibm.com. 23. Januar 2003. Abgerufen 19. März, 2019.
- ^ "IBM100 - Die Ursprünge der Informatik". Ibm.com. 15. September 1995. Abgerufen 19. März, 2019.
- ^ a b c Denning, Peter J. (2000). "Informatik: Die Disziplin" (PDF). Enzyklopädie der Informatik. Archiviert von das Original (PDF) am 25. Mai 2006.
- ^ "Einige EDSAC -Statistiken". Universität von Cambridge. Abgerufen 19. November, 2011.
- ^ "Informatik Pionier Samuel D. Conte stirbt bei 85". Purdue Informatik. 1. Juli 2002. Abgerufen 12. Dezember, 2014.
- ^ a b Tedre, Matti (2014). Die Wissenschaft des Computers: Gestaltung einer Disziplin. Taylor und Francis / CRC Press.
- ^ a b Louis Fine (1960). "Die Rolle der Universität in Computern, Datenverarbeitung und verwandten Feldern". Kommunikation der ACM. 2 (9): 7–14. doi:10.1145/368424.368427. S2CID 6740821.
- ^ "Stanford University Oral History". Universität in Stanford. Abgerufen 30. Mai, 2013.
- ^ Donald Knuth (1972). "George Forsythe und die Entwicklung der Informatik". Comms. ACM. Archiviert 20. Oktober 2013 bei der Wayback -Maschine
- ^ Matti Tedre (2006). "Die Entwicklung der Informatik: Eine soziokulturelle Perspektive" (PDF). p. 260. Abgerufen 12. Dezember, 2014.
- ^ Peter Naur (1966). "Die Wissenschaft der Datalogie". Kommunikation der ACM. 9 (7): 485. doi:10.1145/365719.366510. S2CID 47558402.
- ^ Weiss, E.A.; Corley, Henry P.T. "Briefe an die Redaktion". Kommunikation der ACM. 1 (4): 6. doi:10.1145/368796.368802. S2CID 5379449.
- ^ Kommunikation des ACM 2 (1): S.4
- ^ IEEE Computer 28 (12): S.136
- ^ P. Mounier-Kuhn, L'EFORTATIQUE en France, de la Seconde Guerre Mondiale au Plan Calcul. L'Émergence d'une Science, Paris, Welpen, 2010, Ch. 3 & 4.
- ^ Groth, Dennis P. (Februar 2010). "Warum ein Informatikabschluss?". Kommunikation der ACM. Cacm.acm.org.
- ^ Tedre, M. (2011). "Computer als Wissenschaft: Eine Umfrage über konkurrierende Standpunkte". Köpfe und Maschinen. 21 (3): 361–387. doi:10.1007/s11023-011-9240-4. S2CID 14263916.
- ^ Parnas, D.L. (1998). "Software -Engineering -Programme sind keine Informatikprogramme". Annalen der Software -Engineering. 6: 19–37. doi:10.1023/a: 1018949113292. S2CID 35786237., p. 19: "Anstatt Software -Engineering als Unterfeld der Informatik zu behandeln, behandle ich es als Element des Sets, Bauingenieurwesen, Maschinenbau, Chemieingenieurwesen, Elektrotechnik, [...]"
- ^ a b c d e f g "Die Philosophie der Informatik". Die Philosophie der Informatik (Stanford Encyclopedia of Philosophy). Metaphysics Research Lab, Stanford University. 2021.
- ^ Wegner, P. (13. bis 15. Oktober 1976). Forschungsparadigmen in der Informatik - Vorgänge der 2. Internationalen Konferenz für Software -Engineering. San Francisco, Kalifornien, USA: IEEE Computer Society Press, Los Alamitos, CA.
- ^ Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.; Young, P. R. (Januar 1989). "Computer als Disziplin". Kommunikation der ACM. 32: 9–23. doi:10.1145/63238.63239. S2CID 723103.
- ^ Denning, Peter J. (2007). "Computing ist eine Naturwissenschaft". Kommunikation der ACM. 50 (7): 13–18. doi:10.1145/1272516.1272529. S2CID 20045303.
- ^ Eden, A. H. (2007). "Drei Paradigmen der Informatik" (PDF). Köpfe und Maschinen. 17 (2): 135–167. Citeseerx 10.1.1.304.7763. doi:10.1007/s11023-007-9060-8. S2CID 3023076. Archiviert von das Original (PDF) am 15. Februar 2016.
- ^ Turner, Raymond; Angius, Nicola (2019). "Die Philosophie der Informatik". In Zalta, Edward N. (Hrsg.). Die Stanford -Enzyklopädie der Philosophie.
- ^ a b "Informatik als Beruf". Computing Sciences Accreditation Board. 28. Mai 1997. archiviert von das Original am 17. Juni 2008. Abgerufen 23. Mai, 2010.
- ^ Ausschuss für die Grundlagen der Informatik: Herausforderungen und Chancen, National Research Council (2004). Informatik: Reflexionen auf dem Feld, Reflexionen vom Feld. National Academies Press. ISBN 978-0-309-09301-9.
- ^ "CSAB führende Computerausbildung". CSAB. 3. August 2011. Abgerufen 19. November, 2011.
- ^ Clay Mathematics Institute P = np Archiviert 14. Oktober 2013 bei der Wayback -Maschine
- ^ P. Collins, Graham (14. Oktober 2002). "Claude E. Shannon: Gründer der Informationstheorie". Wissenschaftlicher Amerikaner. Abgerufen 12. Dezember, 2014.
- ^ Van-nam huynh; Vladik Kreinovich; Songsak Sriboonchitta; 2012. Unsicherheitsanalyse in Ökonometrie mit Anwendungen. Springer Science & Business Media. p. 63. ISBN978-3-642-35443-4.
- ^ Phillip A. Laplante, 2010. Enzyklopädie von Software Engineering Drei-Volumen-Set (Druck). CRC Press. p. 309. ISBN978-1-351-24926-3.
- ^ A. Thatted, Ronald (7. April 1997). "Rechnerarchitektur" (PDF). Die Universität von Chicago.
- ^ Jiacun Wang, 2017. Echtzeit eingebettete Systeme. Wiley. p. 12. ISBN978-1-119-42070-5.
- ^ Gordana dodig-crnkovic; Raffaela Giovagnoli; 2013. Berechnung der Natur: Turing Hubtzehltichperspektive. Springer Science & Business Media. p. 247. ISBN978-3-642-37225-4.
- ^ Simon Elias Bibri; 2018. Smart Sustainable Städte der Zukunft: Das ungenutzte Potenzial von Big Data Analytics und Kontextbewusser für die Weiterentwicklung der Nachhaltigkeit. Springer. p. 74. ISBN978-3-319-73981-6.
- ^ Katz, Jonathan (2008). Einführung in die moderne Kryptographie. Yehuda Lindell. Boca Raton: Chapman & Hall/CRC. ISBN 978-1-58488-551-1. OCLC 137325053.
- ^ Muhammad H. Rashid, 2016. Gewürz für Stromeelektronik und elektrische Leistung. CRC Press. p. 6. ISBN978-1-4398-6047-2.
- ^ "Was ist eine integrierte Schaltung (IC)? Eine wichtige Komponente der modernen Elektronik". Whatis.com. Abgerufen 15. November, 2021.
- ^ Rapaport, William J. (20. September 2013). "Was ist Berechnung?". State University of New York in Buffalo.
- ^ B. Jack Copeland, 2012. Alan Turings elektronisches Gehirn: Der Kampf um den Aufbau des Ass, den schnellsten Computer der Welt. OUP Oxford. p. 107. ISBN978-0-19-960915-4.
- ^ Charles W. Herbert, 2010. Eine Einführung in das Programmieren mit Alice 2.2. Cengage -Lernen. p. 122. ISBN0-538-47866-7.
- ^ Md. Rezaul Karim; Sridhar Alla; 2017. Scala und Spark für Big Data Analytics: Erforschen Sie die Konzepte der funktionalen Programmierung, des Datenstreamings und des maschinellen Lernens. Packt Publishing Ltd. p. 87. ISBN978-1-78355-050-0.
- ^ Lex Sheehan, 2017. Lernfunktionales Programmieren in Go: Ändern Sie die Art und Weise, wie Sie Ihre Anwendungen mithilfe funktionaler Programmierung in GO nähern. Packt Publishing Ltd. p. 16. ISBN978-1-78728-604-7.
- ^ Evelio Padilla, 2015. Umstation Automatisierungssysteme: Design und Implementierung. Wiley. p. 245. ISBN978-1-118-98730-8.
- ^ "Multi-Paradigm-Programmiersprache". Entwickler.mozilla.org. Mozilla Foundation. Archiviert von das Original am 21. August 2013.
- ^ Meyer, Bertrand (April 2009). "Standpunkt: Forschungsbewertung für Informatik". Kommunikation der ACM. 25 (4): 31–34. doi:10.1145/1498765.1498780. S2CID 8625066.
- ^ Patterson, David (August 1999). "Bewertung von Informatikern und Ingenieuren auf Werbung und Amtszeit". Computing Research Association.
- ^ Fortnow, Lance (August 2009). "Standpunkt: Zeit für Informatik, aufzuwachsen". Kommunikation der ACM. 52 (8): 33–35. doi:10.1145/1536616.1536631.
- ^ Burns, Judith (3. April 2016). "Informatik A-Level 1970er Jahre". Abgerufen 9. Februar, 2019.
- ^ Jones, Michael (Oktober 1915). "Entwicklung eines Informatik -Lehrplans in England: Erforschen von Ansätzen in den USA" (PDF). Winston Churchill Memorial Trust. Archiviert von das Original (PDF) am 22. Oktober 2016. Abgerufen 9. Februar, 2019.
- ^ "Informatik: Nicht nur ein Wahlkörper mehr". Bildungswoche. 25. Februar 2014.
- ^ Wilson, Cameron; Sudol, Leigh Ann; Stephenson, Chris; Stehlik, Mark (2010). "Laufen auf leer: Das Versäumnis, K -12 -Informatik im digitalen Zeitalter zu unterrichten" (PDF). ACM.
- ^ "2021 Stand der Informatik Bildung: Beschleunigung von Maßnahmen durch Interessenvertretung" (PDF). Code.org, CSTA & ECEP Alliance. 2021.
- ^ "A ist für Algorithmus". Der Ökonom. 26. April 2014.
- ^ "Computing in der Schule internationale Vergleiche" (PDF). Archiviert von das Original (PDF) am 8. Mai 2013. Abgerufen 20. Juli, 2015.
- ^ "Hinzufügen von Codierung zum Lehrplan". Die New York Times. 23. März 2014. Archiviert von das Original am 1. Januar 2022.
Weitere Lektüre
Überblick
- Tucker, Allen B. (2004). Informatikhandbuch (2. Aufl.). Chapman und Hall/CRC. ISBN 978-1-58488-360-9.
- "Innerhalb von mehr als 70 Kapiteln, jede neue oder maßgeblich überarbeitete, kann man alle Art von Informationen und Referenzen über Informatik finden, die man sich vorstellen kann. […] Insgesamt gibt es absolut nichts über Informatik, das nicht gefunden werden kann in Die 2,5-Kilogramm-Ecclopaedia mit seinen 110 Umfrageartikeln […]. " (Christoph Meinel, Zentralblatt Math)
- Van Leeuwen, Januar (1994). Handbuch der theoretischen Informatik. Die MIT -Presse. ISBN 978-0-262-72020-5.
- "[…] Dieses Set ist das einzigartigste und möglicherweise nützlichste für die [theoretische Informatik] Community, um sowohl Lehre als auch Forschung zu unterstützen […]. Von diesen Bereichen oder von jemandem, der in einem Thema in der Forschung teilnehmen möchte, oder von Ausbildern, die rechtzeitige Informationen zu einem Thema finden möchten, das sie außerhalb ihrer Hauptberichte unterrichten. " (Rocky Ross, Sigact News)
- Ralston, Anthony; Reilly, Edwin D.; Hemmendier, David (2000). Enzyklopädie der Informatik (4. Aufl.). Grove's Wörterbücher. ISBN 978-1-56159-248-7.
- "Seit 1976 ist dies die endgültige Referenzarbeit auf Computer, Computer und Informatik. […] Alphabetisch angeordnet und in breite Themenbereiche eingeteilt, decken die Einträge Hardware, Computersysteme, Informationen und Daten, Software, die Mathematik des Computers ab , Theorie der Berechnung, Methoden, Anwendungen und Berechnung von Milieu. Die Redakteure haben eine lobenswerte Aufgabe geleistet, historische Perspektive und praktische Referenzinformationen zu verbinden. Die Enzyklopädie bleibt für die meisten Referenzsammlungen der öffentlichen und akademischen Bibliothek unerlässlich. " (Joe Accardin, Nordost -Illinois Univ., Chicago)
- Edwin D. Reilly (2003). Meilensteine in Informatik und Informationstechnologie. Greenwood Publishing Group. ISBN 978-1-57356-521-9.
Ausgewählte Literatur
- Knuth, Donald E. (1996). Ausgewählte Arbeiten über Informatik. CSLI -Veröffentlichungen, Cambridge University Press.
- Collier, Bruce (1990). Der kleine Motor, der könnte: die Berechnungsmaschinen von Charles Babbage. Garland Publishing Inc. ISBN 978-0-8240-0043-1.
- Cohen, Bernard (2000). Howard Aiken, Porträt eines Computerpioniers. Die MIT -Presse. ISBN 978-0-262-53179-5.
- Tedre, Matti (2014). Die Wissenschaft des Computers: Gestaltung einer Disziplin. CRC Press, Taylor & Francis.
- Randell, Brian (1973). Die Ursprünge digitaler Computer, ausgewählte Papiere. Springer-Verlag. ISBN 978-3-540-06169-4.
- "Das Interesse von 1966 bis 1993 liegt nicht nur in den Inhalt jeder dieser Papiere - noch rechtzeitig -, sondern auch im Zusammenhang, so dass sich die Ideen, die sich zu unterschiedlichen Zeiten ausdrücken, einander gut ergänzen." (N. Bernard, Zentralblatt Math)
Artikel
- Peter J. Denning. Ist Informatik?, Kommunikation der ACM, April 2005.
- Peter J. Denning, Große Prinzipien in der Berechnung von Lehrplänen, Technisches Symposium für Informatikunterricht, 2004.
- Forschungsbewertung für Informatik, Informatik Europa Bericht Archiviert 18. Oktober 2017 bei der Wayback -Maschine. Kürzer Journalversion: Bertrand Meyer, Christine Choppy, Jan Van Leeuwen und Jorgen Staunstrup, Forschungsbewertung für Informatik, in Kommunikation der ACM, vol. 52, Nr. 4, S. 31–34, April 2009.
Lehrplan und Klassifizierung
- Verband für Rechenmaschinen. 1998 ACM Computing -Klassifizierungssystem. 1998.
- Joint Task Force of Association for Computing Machinery (ACM), Assoziation für Informationssysteme (Ais) und IEEE Computer Society (IEEE CS). Computing Curricula 2005: Der Übersichtsbericht. 30. September 2005.
- Norman Gibbs, Allen Tucker. "Ein Modelllehrplan für einen Abschluss in Informatik für freie Künste". Kommunikation der ACM, Band 29 Ausgabe 3, März 1986.
Externe Links
- Informatik bei Curlie
- Wissenschaftliche Gesellschaften in Informatik Archiviert 23. Juni 2011 bei der Wayback -Maschine
- Was ist Informatik?
- Best Papers Awards in Informatik seit 1996
- Fotografien von Informatikern durch Bertrand Meyer
- Eecs.berkeley.edu
Bibliographie und akademische Suchmaschinen
- Citeseerx (Artikel): Suchmaschine, digitale Bibliothek und Repository für wissenschaftliche und akademische Arbeiten mit Schwerpunkt auf Computer- und Informationswissenschaft.
- DBLP Informatik Bibliographie (Artikel): Informatik -Bibliographie -Website an der Universität Trier in Deutschland.
- Die Sammlung von Bibliographien der Informatik (Sammlung von Bibliografien von Informatik)
Professionelle Organisationen
Miser
- Informatik - Stack Exchange: Eine von der Community geführte Frage-und-Antwort-Site für Informatik
- Was ist Informatik Archiviert 18. Februar 2015 bei der Wayback -Maschine
- Ist Informatik?
- Informatik (Software) muss als unabhängige Disziplin betrachtet werden.