(Descartes; 02-03; S.3)
Maschinenrechnen
Zweihundert Jahre später hatten sich die Naturwissenschaften
etabliert; Grenzen ergaben sich eher durch vergleichsweise bescheidene
Möglichkeiten zur Gewinnung von Messergebnissen und zur Berechnung
und Veranschaulichung von Relationen mit vielen Elementen.
Letztere Schwierigkeit wurde durch Versuche,
vorgegebene Rechenschritte zu mechanisieren, seit der Mitte des
19. Jahrhunderts zu überwinden versucht. (Eine kleine und sicher
unvollständige Geschichte
des Maschinenrechnens findet sich hier.) Zu nennen sind die
Analytische Maschine des Briten Charles Babbage, sowie die Bemühungen
und Konzepte seiner Landsleute Ada Lovelace und George Boole zur
Programmierung einer solchen Maschine.
Noch einmal rund 100 Jahre später konzipierten
der Brite Alan Mathison Turing und der Wahl-Amerikaner John von
Neumann schließlich Maschinen, die jedes Problem lösen können
sollten, vorausgesetzt es sei in eine Formel übersetzbar.
Keine 25 Jahre später konstruierten amerikanische
Informatiker und Ingenieure die ersten "Computer", d.h.
Maschinen bestehend aus elektronischen Integrierten Schaltkreisen
- die Urform der heute geläufigen "chips" -, Eingabe-
und Sicht- bzw. Ausgabegeräten.
Schließlich setzte in den 1980er Jahren die "chip and data-processing
revolution" ein, d.h. es wurde möglich, chips massenweise
zu erschwinglichen Preisen zu produzieren und Programme wurden
geschaffen, die Turings und seiner Vorgänger Konzepte praktisch
umsetzten. (weiter geht's hier)