Die Geschichte der Entstehung und Entwicklung der Informationstechnologie. Das Konzept der Informationstechnologie

Die Geschichte der Entstehung und Entwicklung der Informationstechnologie.

Die Geschichte der Informationstechnologie hat ihre Wurzeln in der Antike. Das erste einfachste digitale Gerät ist der Abakus. Alles, was durch das Stück berechnet werden konnte, wurde mit solchen berechnet digitale Geräte.

1949 wurde der erste Röhrencomputer gebaut – ein Universalcomputer einer neuen Generation. In Verwaltungstätigkeiten wurden Computer der ersten Generation zur Lösung individueller, arbeitsintensivster Aufgaben, beispielsweise der Lohn- und Materialabrechnung, sowie zur Lösung individueller Optimierungen eingesetzt. Aufgaben.

Seit 1955 werden Computer auf Transistoren hergestellt, ihre Abmessungen sind kleiner geworden, der Stromverbrauch ist gesunken und gestiegen. Seit 1960 wurde die Produktion von Computern auf Basis integrierter Schaltkreise (Chip) gestartet. Die auf Transistoren und Mikroschaltungen basierende Computertechnologie bedeutete die Schaffung von Computern der zweiten Generation

1964 mit elektronische Schaltkreise Computer der dritten Generation wurden mit einem kleinen und mittleren Integrationsgrad erstellt. In den späten 60er Jahren erschienen die ersten Minicomputer und 1971 der erste Mikroprozessor. Seit dieser Zeit wurden nicht einzelne Computer entwickelt und konstruiert, sondern viele Komponenten der Computertechnik, die auf dem Einsatz von Software basieren. Software wird als eigenständiger und zugleich integraler Bestandteil der Computertechnik betrachtet.

Mitte der 1970er Jahre wurden Computer der vierten Generation mit großen und ultragroßen integrierten Schaltkreisen mit einer Kapazität von mehreren Megabyte entwickelt. Wenn solche Computer ausgeschaltet werden, werden die Daten Arbeitsspeicher werden auf die Festplatte übertragen, wenn sie eingeschaltet sind, erfolgt ein Selbstladen.

Seit 1982 ist die Entwicklung von Computern der fünften Generation mit Fokus auf Wissensverarbeitung im Gange. Zuvor glaubte man, dass die Verarbeitung von Wissen nur für den Menschen charakteristisch sei. Bei Managementtätigkeiten werden mit Hilfe von Computern der fünften Generation komplexe wirtschaftliche Probleme gelöst, ein objektorientierter Ansatz zur Lösung individueller Probleme wird bereitgestellt. Für Informatik Diese Generation zeichnet sich durch ein breites Anwendungsspektrum, eine intelligente Schnittstelle, das Vorhandensein von Informationsberatungssystemen und Entscheidungsunterstützungssystemen, eine interaktive Benutzerbedienung sowie eine Netzwerkorganisation von Informationsstrukturen aus. Mit der Entwicklung von Computern der fünften Generation tauchte der Begriff NIT (Neue Informationstechnologie) auf, der die Kombination von Computertechnologie, Kommunikations- und Bürogeräten bedeutet.

Das Informationskonzept. Grundlegende Eigenschaften von Informationen.

Das Informationskonzept ist eines der wichtigsten in der modernen Wissenschaft. Die Bedeutung von Informationen im Leben der Gesellschaft wächst rapide, die Methoden der Arbeit mit Informationen ändern sich und der Anwendungsbereich neuer Informationstechnologien erweitert sich.

Information- Dies sind Informationen über Objekte und Phänomene der Umwelt, ihre Parameter, Eigenschaften und ihren Zustand, die den Grad der Unsicherheit und Unvollständigkeit des Wissens über sie verringern.

Unter Information versteht man nicht die Objekte und Prozesse selbst, sondern deren Widerspiegelung oder Darstellung in Form von Zahlen, Formeln, Beschreibungen, Zeichnungen, Symbolen, Mustern.

Grundlegende Eigenschaften von Informationen: Zuverlässigkeit und Vollständigkeit; Wert und Relevanz; Klarheit und Verständlichkeit.

Informationen sind zuverlässig, wenn sie den wahren Sachverhalt nicht verfälschen. Informationen sind vollständig, wenn sie zum Verständnis und zur Entscheidungsfindung ausreichen. Der Wert von Informationen hängt davon ab, welche Aufgaben mit ihrer Hilfe gelöst werden. Informationen auf dem neuesten Stand zu halten ist unerlässlich, wenn man in einem sich ständig verändernden Umfeld arbeitet. Informationen werden klar und nützlich, wenn sie in der Sprache ausgedrückt werden, die von denen gesprochen wird, für die sie bestimmt sind.

Merkmale moderner Computereinrichtungen.

Eigenschaften des Mikroprozessors. Existieren verschiedene Modelle Mikroprozessoren, die von verschiedenen Firmen hergestellt werden. Die Hauptmerkmale des MP sind die Taktfrequenz und die Bittiefe des Prozessors. Die Betriebsart des Mikroprozessors wird durch eine Mikroschaltung eingestellt, die als Taktfrequenzgenerator bezeichnet wird. Dies ist eine Art Metronom innerhalb des Computers, eine bestimmte Anzahl von Zyklen wird für die Ausführung jeder Operation durch den Prozessor zugewiesen. Taktfrequenz messen. in Megahertz.

Das nächste Merkmal ist die Prozessorleistung. Die Bittiefe ist die maximale Länge eines Binärcodes, der vom Prozessor als Ganzes verarbeitet oder übertragen werden kann. Die meisten modernen PCs verwenden 32-Bit-Prozessoren. Die leistungsstärksten Maschinen haben 64-Bit-Prozessoren.

Die Größe des internen (RAM) Speichers. Der Computerspeicher wird in zufälligen (internen) Speicher und langfristigen (externen) Speicher unterteilt. Die Leistung der Maschine ist stark von der Lautstärke abhängig interner Speicher. Wenn für einige Programme nicht genügend interner Speicher vorhanden ist, beginnt der Computer, einen Teil der Daten in den externen Speicher zu übertragen, was seine Leistung drastisch verringert. Moderne Programme benötigen RAM von mehreren zehn und hundert Megabyte. Moderne Programme benötigen Hunderte von Megabyte RAM, um gut zu laufen.

Eigenschaften externer Speichergeräte. Externe Speichergeräte sind Laufwerke auf magnetischen und optischen Datenträgern. Eingebettet in Systemeinheit Magnetplatten werden Festplatten oder Festplatten genannt. Lesen/Schreiben zu Festplatte schneller produziert als alle anderen Typen externe Medien, aber immer noch langsamer als im RAM. Je mehr Volumen Festplatte, umso besser. Auf modernen PCs sind Festplatten installiert, deren Volumen in Gigabyte gemessen wird: Dutzende und Hunderte von Gigabyte. Wenn Sie einen Computer kaufen, erhalten Sie die erforderlichen Programme auf der Festplatte. Üblicherweise bestellt der Käufer selbst die Zusammenstellung der Computersoftware.

Alle anderen externen Speichermedien sind Wechselmedien, dh sie können in das Laufwerk eingelegt und aus dem Laufwerk entfernt werden. Dazu gehören Disketten - CD-ROM, CD-RW, DVD-ROM.

In letzter Zeit in der Schicht Disketten Flash-Speicher sind das wichtigste Mittel zum Übertragen von Informationen von einem Computer auf einen anderen. Flash-Speicher ist elektronisches Gerät Externer Speicher zum Lesen und Schreiben von Informationen im Dateiformat Flash-Speicher ist wie Festplatten ein nichtflüchtiges Gerät. Im Vergleich zu Festplatten hat Flash-Speicher jedoch ein viel größeres Informationsvolumen (Hunderte und Tausende von Megabyte). Und die Geschwindigkeit des Lesens und Schreibens von Daten auf einem Flash-Laufwerk nähert sich der Geschwindigkeit von RAM,

Alle anderen Gerätetypen gelten als E/A-Geräte. Obligatorisch sind Tastatur, Monitor und Manipulator (normalerweise eine Maus). Zusatzgeräte: Drucker, Modem, Scanner, Soundsystem und einige andere Die Wahl dieser Geräte hängt von den Bedürfnissen und finanziellen Möglichkeiten des Käufers ab.

Die Entstehung des OS

Mitte der 40er Jahre entstanden die ersten Röhrencomputer. Die Programmierung erfolgte ausschließlich in Maschinensprache. Es gab keine Systemsoftware, außer Bibliotheken mit mathematischen und Dienstprogramm-Unterprogrammen. Betriebssysteme wurden immer noch nicht angezeigt, alle Aufgaben zur Organisation des Rechenprozesses wurden von jedem Programmierer manuell über das Bedienfeld gelöst.

Seit Mitte der 50er Jahre begann eine neue Periode in der Entwicklung der Computertechnologie, verbunden mit der Entstehung einer neuen technischen Basis - Halbleiterelementen. Die Geschwindigkeit der Prozessoren hat zugenommen, zugenommen. die Menge an RAM und externem Speicher.

Um eine effektive zu organisieren teilenÜbersetzer, Bibliotheksprogramme und Lader wurden die Positionen der Operatoren in das Personal vieler Rechenzentren eingeführt. Aber die meiste Zeit war der Prozessor im Leerlauf und wartete darauf, dass der Bediener die nächste Aufgabe startete. Um dieses Problem zu lösen, wurden die ersten Systeme entwickelt Stapelverarbeitung, das die gesamte Abfolge von Bedieneraktionen automatisierte, um den Berechnungsprozess zu organisieren. Frühe Stapelverarbeitungssysteme waren der Prototyp moderner Betriebssysteme, sie wurden die ersten Systemprogramme, die nicht dazu bestimmt waren, Daten zu verarbeiten, sondern den Rechenprozess zu steuern.

Bei der Implementierung von Stapelverarbeitungssystemen wurde eine formalisierte Job-Control-Sprache entwickelt, mit deren Hilfe der Programmierer dem System und dem Bediener mitteilt, welche Aktionen und in welcher Reihenfolge er auf dem Computer ausführen möchte. Ein typischer Satz von Anweisungen umfasste normalerweise ein Zeichen für den Beginn eines separaten Werks, einen Übersetzeraufruf, einen Laderaufruf, Zeichen für den Beginn und das Ende der Quelldaten.

Der Bediener stellte ein Paket von Aufgaben zusammen, die später ohne seine Beteiligung nacheinander vom Steuerprogramm - dem Monitor - zur Ausführung gestartet wurden. Darüber hinaus war der Monitor in der Lage, die häufigsten Notfallsituationen, die während des Betriebs von Benutzerprogrammen auftreten, wie das Fehlen von Anfangsdaten, Registerüberlauf, Division durch Null, Zugriff auf einen nicht vorhandenen Speicherbereich usw., selbstständig zu behandeln Das Paket war normalerweise ein Satz Lochkarten, aber um die Arbeit zu beschleunigen, konnte es auf ein bequemeres und geräumigeres Medium wie Magnetband oder übertragen werden Magnetplatte. Das Monitorprogramm selbst wurde in den ersten Implementierungen auch auf Lochkarten oder Lochstreifen und in späteren Implementierungen auf Magnetband und Magnetplatten gespeichert.

Frühe Stapelverarbeitungssysteme reduzierten den Zeitaufwand für Hilfsaktivitäten zur Organisation des Rechenprozesses erheblich, wodurch ein weiterer Schritt zur Steigerung der Effizienz der Computernutzung unternommen wurde. Gleichzeitig verloren die Benutzerprogrammierer jedoch den direkten Zugriff auf den Computer, was ihre Effizienz verringerte - jede Korrektur erforderte viel mehr Zeit als bei der interaktiven Arbeit an der Konsole der Maschine.

8. Integrierte Anwendungspakete. Vorteile ihrer Verwendung bei der Implementierung in Informationstechnologien.

Integrierte Pakete- ein Satz mehrerer Softwareprodukte, die sich funktional ergänzen und einheitliche Informationstechnologien unterstützen, die auf einer gemeinsamen Rechen- und Betriebsplattform implementiert sind.

Die gängigsten integrierten Pakete, deren Bestandteile sind:

Texteditor;

Tabellenprozessor;

Veranstalter;

Support-Tools Email;

Präsentationsprogramme;

Grafikeditor.

Die Komponenten integrierter Pakete können isoliert voneinander arbeiten, aber die Hauptvorteile integrierter Pakete ergeben sich, wenn sie sinnvoll miteinander kombiniert werden. Nutzer von integrierten Paketen haben dadurch eine einheitliche Schnittstelle für verschiedene Komponenten. die relative Leichtigkeit des Prozesses ihrer Entwicklung.

Unterscheidungsmerkmale diese Klasse Software-Tools Sind:

Vollständigkeit der Informationstechnologie für Endnutzer;

Dieselbe Art von Endbenutzeroberfläche für alle im integrierten Paket enthaltenen Programme - gemeinsame Menübefehle, Standardsymbole derselben Funktionen, Standardaufbau und Arbeit mit dem Dialog. Fenster usw.;

Gemeinsamer Dienst für Programme des integrierten Pakets (z. B. Wörterbuch und Rechtschreibprüfung, Diagrammerstellung, Datenkonverter usw.);

Einfacher Austausch und Verweise auf Objekte, die von Programmen des integrierten Pakets erstellt wurden (es werden zwei Methoden verwendet: DDE - dynamischer Datenaustausch und OLE - dynamische Verknüpfung durch Objekte), einheitliche Übertragung von Objekten;

Verfügbarkeit einer einzigen Sprachplattform zum Analysieren von Makros, Benutzerprogrammen;

Die Möglichkeit, Dokumente zu erstellen, die die Funktionen integrieren verschiedene Programme im integrierten Paket enthalten.

Integrierte Pakete sind auch in der Gruppenarbeit in einem Netzwerk mit vielen Benutzern effektiv. Beispielsweise können Sie aus dem Anwendungsprogramm, in dem der Benutzer arbeitet, Dokumente und Datendateien an einen anderen Benutzer senden, während Sie Standards für die Übertragung von Daten in Form von Objekten über ein Netzwerk oder per E-Mail unterstützen.

Das Konzept des Stils.

Stil- Dies ist eine Art Befehl, mit dem Sie alle für einen bestimmten Stil angegebenen Formatierungsfunktionen gleichzeitig auf einen bestimmten Teil des Textes anwenden können: - Schriftarten; - Verschiebungen vom linken und rechten Rand; - Zeilenabstand; - Ausrichtung der Kanten; - Einzüge; - Erlaubnis oder Verbot von Übertragungen.

Einträge im Inhaltsverzeichnis können manuell eingegeben werden und Tabulatoren können verwendet werden, um gepunktete Linien oder gepunktete Einzüge zwischen Einträgen und ihren Seitenzahlen zu erstellen. Mehr der schnelle Weg Das Erstellen eines Inhaltsverzeichnisses erfolgt "automatisch". Um das Inhaltsverzeichnis in der Gruppe Ausrichtung zentriert zu platzieren, wählen Sie die Option Zentriert, um den Absatzanfang anzuzeigen, drücken Sie die TAB-Taste.

Tabellenbearbeitung.

Der Word-Editor hat zwei alternative Wege Tabellen bearbeiten: mit der Maus und über Menübefehle.

Jede Tabelle besteht aus einer bestimmten Anzahl von Zellen. Wenn die Darstellung von Tabellentrennlinien über den Befehl Tabelle / Raster anzeigen aktiviert ist, sind alle Zellen der Tabelle deutlich sichtbar. Die Tabulatortaste wird verwendet, um den Textcursor über die Tabellenzellen zu bewegen.

Sie können Text in einer Tabelle mit der Maus oder mit den Tastaturkürzeln auswählen. Um einzelne Zeichen in einer Tabelle hervorzuheben, können Sie die Shift-Tastenkombinationen in Kombination mit den Cursortasten verwenden. Um eine einzelne Tabellenzelle mit der Maus auszuwählen, können Sie in diese Zelle dreifach klicken oder den Auswahlbalken verwenden, den jede Tabellenzelle zwischen der Gitterlinie und dem Zellentext hat.

Um eine separate Spalte der Tabelle mit der Maus auszuwählen, müssen Sie den Mauszeiger an den oberen Rand der Tabelle bewegen, wo er die Form eines nach unten zeigenden schwarzen Pfeils annimmt, und dann mit der Maus klicken. Das Auswählen einer Tabellenzeile ähnelt dem Auswählen einer Textzeile: Verwenden Sie die Auswahlleiste links vom Dokumentrand.

Um einzelne Zeilen und Spalten einer Tabelle auszuwählen, können Sie auch die Menübefehle Tabelle / Zeile auswählen und Tabelle / Spalte auswählen verwenden.

Um Spalten oder Zeilen einzufügen, wählen Sie einfach die Spalte oder Zeile aus und klicken Sie auf die Schaltfläche Tabelle/Einfügen/ und drücken Sie die entsprechende Schaltfläche.

Um Zeilen, Spalten oder Zellen zu löschen, wählen Sie die Zeile, Spalte oder Zelle aus, die Sie löschen möchten, wählen Sie Tabelle / Zellen löschen, Zeilen löschen oder Spalten löschen.

Das Bearbeiten einer Tabelle umfasst auch das Ändern der Größe von Zeilen, Spalten und Zellen.

Um eine Zelle in mehrere aufzuteilen, klicken Sie einfach darauf Rechtsklick Maus und wählen Sie den Befehl Zellen teilen oder den Menübefehl Tabelle / Zellen teilen. Geben Sie als Nächstes an, in wie viele Zeilen und Spalten Sie die ausgewählte Zelle aufteilen möchten, und klicken Sie auf OK.

Um zwei oder mehr Zellen zu einer zusammenzuführen, wählen Sie diese Zellen aus und führen Sie dann den Befehl Tabelle/Zellen verbinden aus oder verwenden Sie einen ähnlichen Befehl aus dem Kontextmenü.

Um die Spaltenbreite anzupassen, wählen Sie die Spalten aus, deren Breite Sie ändern möchten, wählen Sie dann das Menü Tabelle / Zellenhöhe und -breite, klicken Sie auf die Registerkarte Spalte, geben Sie dann den gewünschten Breitenwert in das Feld Spaltenbreite ein und klicken Sie auf OK.

Um die Zeilenhöhe anzupassen, wählen Sie die Zeilen aus, deren Höhe Sie ändern möchten; Wählen Sie Tabellen-/Zellenhöhe und -breite aus dem Menü, klicken Sie auf die Registerkarte Zeile in der Liste Zeilenhöhe, um den genauen Wert anzugeben.

Wenn sich die Tabelle über mehrere Seiten des Dokuments erstreckt, können Sie die automatische Wiederholung der ersten Zeile der Tabelle einstellen, indem Sie den Menübefehl Tabelle / Überschriften wählen.

25. Termin und allgemeine Charakteristiken Tabelleneditor Microsoft Excel.

Microsoft Excel ist ein leistungsstarker Tabelleneditor, der entwickelt wurde, um alle Tabellenverarbeitungsprozesse durchzuführen: von der Erstellung Tabellendokumente, bevor mathematische Funktionen berechnet und grafisch dargestellt sowie ausgedruckt werden.

Es funktioniert mit vielen Schriftarten, sowohl mit Russisch als auch mit allen einundzwanzig Sprachen der Welt. Eine der vielen nützlichen Eigenschaften von Excel umfasst die automatische Textkorrektur durch Zellen, den automatischen Zeilenumbruch und die Rechtschreibkorrektur von Wörtern, das Speichern von Text in einem bestimmten festgelegten Zeitraum, das Vorhandensein von Mastern von Standardtabellen, Leerzeichen und Vorlagen, mit denen Sie erstellen können B. Vorabbericht, Bilanz in wenigen Minuten, Stundenzettel, Rechnung, Finanzvorlagen und mehr. Excel sucht nach einem bestimmten Wort oder Textfragment, ersetzt es durch das angegebene Fragment, löscht es, kopiert es in die interne Zwischenablage oder ersetzt es durch Schriftart, Schriftart oder Schriftgröße sowie durch hochgestellte oder tiefgestellte Zeichen.

Darin ähnelt Excel in vielerlei Hinsicht einem Texteditor. Microsoft Word, aber es hat auch seine eigenen Besonderheiten: Für jede Zelle können Sie Zahlenformate, Ausrichtung, Zellenzusammenführung, Textrichtung unter beliebigen Graden usw. festlegen. Mit Hilfe von Excel-Makros können Sie Grafikobjekte, Bilder, Musikmodule einbinden *. wav.

Um den Zugriff auf das Dokument einzuschränken, können Sie ein Kennwort für Tabellen festlegen, das Excel beim Laden von Tabellen abfragt, um Aktionen mit ihnen auszuführen. Mit Excel können Sie viele Fenster öffnen, um gleichzeitig mit mehreren Tabellen zu arbeiten.

Vektorgrafiken.

Vektorgrafiken sind Bilder, die mit mathematischen Formeln erstellt (oder besser beschrieben) werden. Im Gegensatz zu Rastergrafiken, die nichts anderes als eine Anordnung farbiger Pixel sind und Informationen für jedes von ihnen speichern, sind Vektorgrafiken eine Reihe von grafischen Grundelementen, die durch mathematische Formeln beschrieben werden. Um beispielsweise eine Linie auf dem Bildschirm zu bauen, müssen Sie nur die Koordinaten der Start- und Endpunkte der Linie und die Farbe kennen, mit der Sie sie zeichnen möchten, und ein Polygon bauen. - Scheitelkoordinaten, Füllfarbe und ggf. Strichfarbe.

Nachteile von Vektorgrafiken:

Rastergrafiken.

Rastergrafiken sind Bilder, die aus Pixeln bestehen – kleinen farbigen Quadraten, die in einem rechteckigen Gitter angeordnet sind. Ein Pixel ist die kleinste Einheit eines digitalen Bildes. Qualität Bitmap hängt direkt von der Anzahl der Pixel ab, aus denen es besteht - je mehr Pixel, desto mehr Details können angezeigt werden. Es wird nicht funktionieren, ein Rasterbild durch dummes Heranzoomen zu vergrößern - die Anzahl der Pixel kann nicht erhöht werden, ich glaube, davon waren viele Leute überzeugt, als sie versuchten, kleine Details in einem kleinen digitalen Foto zu erkennen, indem sie es auf dem Bildschirm vergrößerten ; Als Ergebnis dieser Aktion war es nicht möglich, etwas anderes als zunehmende Quadrate zu erkennen (es sind nur Pixel). Nur CIA-Agenten in Hollywood-Filmen gelingt ein solcher Trick, wenn sie anhand der Vergrößerung des Bildes der externen Überwachungskamera die Nummernschilder des Autos erkennen. Wenn Sie kein Mitarbeiter dieser Struktur sind und keine solche magische Ausrüstung besitzen, wird nichts für Sie funktionieren.

Ein Bitmap-Bild hat mehrere Eigenschaften. Für einen Fotohändler sind die wichtigsten: Auflösung, Größe und Farbmodell.

Die Auflösung ist die Anzahl der Pixel pro Zoll (ppi – Pixel pro Zoll), um die Anzeige auf dem Bildschirm zu beschreiben, oder die Anzahl der Punkte pro Zoll (dpi – Punkt pro Zoll), um Bilder zu drucken.

Größe – Die Gesamtzahl der Pixel in einem Bild, normalerweise in Mp (Megapixel) gemessen, ist einfach das Ergebnis der Multiplikation der Anzahl der Pixel in der Höhe mit der Anzahl der Pixel in der Breite des Bildes.

Ein Farbmodell ist ein Merkmal eines Bildes, das seine Darstellung anhand von Farbkanälen beschreibt.

Nachteile von Rastergrafiken:

Rasterformat

Rasterbilder entstehen beim Scannen von mehrfarbigen Illustrationen und Fotografien sowie bei der Verwendung von digitalen Foto- und Videokameras. Mit einem Bitmap-Grafikeditor können Sie direkt auf Ihrem Computer ein Bitmap-Bild erstellen.

Ein Bitmap-Bild wird aus Punkten unterschiedlicher Farbe (Pixel) erstellt, die Zeilen und Spalten bilden. Jedes Pixel kann jede Farbe aus einer Palette annehmen, die Zehntausende oder sogar Zehnmillionen von Farben enthält, sodass Bitmap-Bilder eine hohe Wiedergabetreue bei der Farbwiedergabe und Halbtönen bieten. Die Qualität eines Bitmap-Bildes steigt mit zunehmender räumlicher Auflösung (Anzahl der Pixel im Bild horizontal und vertikal) und der Anzahl der Farben in der Palette.

Vorteile von Rastergrafiken:

Fähigkeit, Bilder beliebiger Komplexität zu reproduzieren. Wie viele Details in einem Bild wiedergegeben werden, hängt weitgehend von der Anzahl der Pixel ab.

Präzise Wiedergabe von Farbübergängen.

Das Vorhandensein vieler Programme zum Anzeigen und Bearbeiten von Rastergrafiken. Die überwiegende Mehrheit der Programme unterstützt die gleichen Rastergrafikdateiformate. Die Rasterdarstellung ist vielleicht die "älteste" Art, digitale Bilder zu speichern.

Nachteile von Rastergrafiken:

Große Dateigröße. Tatsächlich müssen Sie für jedes Pixel Informationen über seine Koordinaten und seine Farbe speichern.

Die Unmöglichkeit, das Bild ohne Qualitätsverlust zu skalieren (insbesondere zu vergrößern).

Vektorgrafiken- Dies sind Bilder, die mit mathematischen Formeln erstellt (oder besser gesagt, beschrieben) werden. Im Gegensatz zu Rastergrafiken, die nichts anderes als eine Anordnung farbiger Pixel sind und Informationen für jedes von ihnen speichern, sind Vektorgrafiken eine Reihe von grafischen Grundelementen, die durch mathematische Formeln beschrieben werden.

Dank dieser Art der Präsentation grafische Informationen, kann ein Vektorbild nicht nur nach oben und unten skaliert werden, sondern Sie können auch die Grundelemente neu anordnen und ihre Form ändern, um völlig unterschiedliche Bilder aus denselben Objekten zu erstellen.

Vorteile von Vektorgrafiken:

Kleine Dateigröße mit relativ einfacher Bilddetaillierung.

Möglichkeit der unbegrenzten Skalierung ohne Qualitätsverlust.

Möglichkeit zum Bewegen, Drehen, Dehnen, Gruppieren usw. ohne Qualitätsverlust.

Möglichkeit, Objekte entlang einer Achse senkrecht zur Bildschirmebene zu positionieren (entlang der z-Achse - „über“, „unter“, „über allem“, „unter allem“).

Fähigkeit, boolesche Transformationen an Objekten durchzuführen - Addition, Subtraktion, Schnittmenge, Addition.

Steuerung der Linienstärke bei jedem Bildmaßstab.

Nachteile von Vektorgrafiken:

Große Dateigröße mit komplexen Bilddetails. (Es gibt Zeiten, in denen die Größe des Vektorbildes aufgrund vieler kleiner komplexer Details viel größer ist als die Größe seiner Rasterkopie.)

Schwierigkeiten bei der Übertragung eines fotorealistischen Bildes (folgt aus dem 1. Fehler)

Kompatibilitätsprobleme von Programmen, mit denen gearbeitet wird Vektorgrafiken, während nicht alle Programme selbst "gängige" Formate (wie eps), die in anderen Editoren erstellt wurden, öffnen (oder korrekt anzeigen).

Das Konzept der Farbe in der Grafik.

Farbe ist sowohl für die Physik als auch für die Physiologie ein äußerst schwieriges Problem, da sie sowohl psychophysiologischer als auch physikalischer Natur ist. Die Farbwahrnehmung hängt von den physikalischen Eigenschaften des Lichts ab, d.h. elektromagnetische Energie, von ihrer Wechselwirkung mit physikalischen Substanzen sowie von ihrer Interpretation durch das menschliche visuelle System. Mit anderen Worten, die Farbe eines Objekts hängt nicht nur vom Objekt selbst ab, sondern auch von der Lichtquelle, die das Objekt beleuchtet, und vom menschlichen Sehsystem. Außerdem reflektieren einige Gegenstände Licht (Karton, Papier), während andere es durchlassen (Glas, Wasser). Wird eine Fläche, die nur blaues Licht reflektiert, mit rotem Licht beleuchtet, erscheint sie schwarz. Wenn eine grüne Lichtquelle durch ein Glas betrachtet wird, das nur rotes Licht durchlässt, erscheint sie ebenfalls schwarz.
In der Computergrafik werden zwei primäre Farbmischsysteme verwendet: additiv – Rot, Grün, Blau (RGB) und subtraktiv – Cyan, Magenta, Gelb (CMY). Die Farben des einen Systems sind komplementär zu den Farben des anderen: Cyan zu Rot, Magenta zu Grün und Gelb zu Blau. Die Komplementärfarbe ist die Differenz zwischen Weiß und der gegebenen Farbe.
Subtraktiv Das CMY-Farbsystem wird für reflektierende Oberflächen wie Druckfarben, Folien und nicht leuchtende Bildschirme verwendet.
Zusatzstoff Das RGB-Farbsystem ist nützlich für leuchtende Oberflächen wie CRT-Bildschirme oder Farblampen.

Zusatzstoff Farbe wird durch die Kombination von Licht verschiedener Farben erhalten. In diesem Schema ist das Fehlen aller Farben Schwarz und das Vorhandensein aller Farben Weiß. Planen Zusatzstoff Farben arbeitet mit emittiertem Licht, wie z. B. ein Computermonitor. Im Schema subtraktiv Blumen, der Vorgang ist umgekehrt. Hier wird jede Farbe durch Subtrahieren anderer Farben vom gesamten Lichtstrahl erhalten. In diesem Schema weiße Farbe erscheint als Ergebnis der Abwesenheit aller Farben, während ihre Anwesenheit Schwarz ergibt. Planen subtraktiv Farben arbeitet mit reflektiertem Licht.

RGB-Farbsystem

Ein Computermonitor erzeugt Farbe direkt durch die Emission von Licht und verwendet das RGB-Farbschema. Wenn Sie den Monitorbildschirm aus nächster Nähe betrachten, werden Sie feststellen, dass er aus winzigen roten, grünen und blauen Punkten besteht. Der Computer kann die Lichtmenge steuern, die durch jeden farbigen Punkt emittiert wird, und durch Kombinieren verschiedener Kombinationen beliebiger Farben kann er jede Farbe erzeugen. Bedingt durch die Beschaffenheit von Computermonitoren ist das RGB-Schema das beliebteste und am weitesten verbreitete, hat aber einen Nachteil: Computerzeichnungen müssen nicht immer nur auf dem Monitor vorhanden sein, manchmal müssen sie gedruckt werden, dann muss ein anderes Farbsystem her verwendet werden - CMYK.

CMYK-Farbsystem

Dieses System war weithin bekannt, lange bevor Computer zur Erstellung verwendet wurden grafische Bilder. Computer werden verwendet, um Bildfarben in CMYK-Farben zu trennen, und ihre speziellen Modelle wurden für den Druck entwickelt. Das Konvertieren von Farben vom RGB-System in das CMYK-System ist mit einer Reihe von Problemen konfrontiert. Die Hauptschwierigkeit liegt darin, dass sich Farben in verschiedenen Systemen ändern können. Diese Systeme haben eine andere Art, Farben zu erhalten, und was wir auf dem Bildschirm von Monitoren sehen, kann beim Drucken niemals exakt wiederholt werden. Derzeit gibt es Programme, mit denen Sie direkt in CMYK-Farben arbeiten können. Vektorgrafikprogramme verfügen bereits zuverlässig über diese Fähigkeit, und Rastergrafikprogramme bieten Benutzern erst seit kurzem die Möglichkeit, mit CMYK-Farben zu arbeiten und das Aussehen der Zeichnung im Druck feinabzustimmen.

PowerPoint-Präsentationen.

Das einfachste und gebräuchlichste elektronische Präsentationsformat ist die PowerPoint-Präsentation. Mit diesem Programm können Sie Audio- und Videodateien in Ihrer Präsentation verwenden und einfache Animationen erstellen. Der Hauptvorteil dieses Präsentationsformats ist die Möglichkeit, Änderungen an der Präsentation ohne besondere Kenntnisse und Fähigkeiten vorzunehmen und sie an unterschiedliche Zielgruppen und Ziele anzupassen.

PDF-Präsentationen

Eine andere Ansicht ist ganz einfach Computerpräsentation ist eine Präsentation in pdf-Format. Dies ist eine Version des elektronischen Katalogs, die bequem per E-Mail verteilt, auf der Website veröffentlicht und auf einem Drucker gedruckt werden kann. Der Hauptvorteil einer Präsentation im pdf-Format ist ihr geringes Gewicht, wodurch die Datei einfach und unkompliziert per E-Mail verteilt werden kann. Die pdf-Präsentation ist statisch und für jeden Drucker geeignet und Betriebssystem, aber das ist auch ein Nachteil.

Video Präsentation

In dieser Art von Präsentation Computergrafik und andere animierte Spezialeffekte weichen einem Live-Bild - einem Videobild. Diese Art der Präsentation gehört der Vergangenheit an und ist auf die begrenzten Möglichkeiten von Video zurückzuführen

wie gewöhnliche Präsentationen, die länger als 5-7 Minuten dauern, vom Publikum nicht wahrgenommen werden und es in einem solchen Zeitraum nicht möglich ist, alle notwendigen Informationen per Video zu zeigen. Außerdem wird das Video mit langweiligen Unternehmensfilmen und anderen langweiligen Formaten in Verbindung gebracht – das ist ein weiterer Nachteil dieser Präsentationsform. Der Hauptvorteil ist ein lebendiges, vertrauenswürdiges Bild.

multimediale Präsentation

Multimedia-Präsentationen - die umfangreichste Art von Präsentationen in Bezug auf ihre Möglichkeiten. Dieses Präsentationsformat ermöglicht die Einbindung von Ton, Videodateien, Animationen, 3D-Objekte und alle anderen Elemente ohne Qualitätseinbußen. Der wichtigste und unbestreitbare Vorteil von Multimedia-Präsentationen ist die Möglichkeit, praktisch jedes Format in sie einzufügen - Power-Point-Präsentationen, PDF-Präsentationen und Video-Präsentationen.

Flash-Präsentationen

Fast alle der besten Multimedia-Präsentationen basieren auf Flash (Flash)-Präsentationen. Eine Flash-Präsentation ist eine Präsentation, die als einzelne Datei erstellt wurde, ohne Ordner und Austausch von Dokumenten, mit der Möglichkeit, die Präsentation automatisch zu starten, wenn eine Festplatte mit der hellsten gesättigten Animation geladen wird. Ein weiterer Vorteil einer Flash-basierten Präsentation ist ihr relativ geringes Gewicht, das es ermöglicht, solche Präsentationen ins Internet zu stellen oder auf Mini-Discs zu geben.

Die richtige Strukturierung der Präsentation erleichtert es den Zuhörern, die Informationen wahrzunehmen. Bei der Rede empfiehlt es sich, sich an die bekannte Drei-Teile-Regel zu halten: Einleitung – Hauptteil – Schluss. An die Präsentation schließt sich eine Frage-Antwort-Runde an. So werden im Aufbau der Präsentation vier funktionale Teile unterschieden, von denen jeder seine eigenen Aufgaben und Mittel hat: Wenden wir uns den „Schock“-Teilen der Präsentation zu – Schluss und Einleitung. Ja, in genau dieser Reihenfolge: Bei der Vorbereitung wird zuerst der Schlussteil geschrieben und erst dann der Einleitungsteil. Warum? Denn der Abschluss ist der wichtigste Teil der Präsentation, der den Zuhörern vor allem in Erinnerung bleiben soll. Der Inhalt der gesamten Präsentation sollte genau auf einen erfolgreichen Abschluss ausgerichtet sein. Fast immer treffen die Menschen am Ende der Präsentation die endgültige Entscheidung. Erinnern Sie sich daher im letzten Teil noch einmal an die Hauptidee, konzentrieren Sie sich auf wichtige Details und betonen Sie die Vorteile Ihres Vorschlags. Einleitung und Schluss sind die hellsten Momente der Präsentation, jedes Wort sollte durchdacht und abgewogen werden.

PowerPoint-Fenster

Beim Start von PowerPoint wird eine leere Titelfolie erstellt und im Programmfenster angezeigt.

Wie in anderen Anwendungen Microsoft Office Am oberen Rand des PowerPoint-Fensters befindet sich die Titelleiste, darunter das Hauptmenü und die Symbolleisten.

Das Hauptmenü enthält ein Diashow-Element, das in anderen Anwendungsfenstern nicht verfügbar ist. Damit können Sie sehen, wie die Diashow abgespielt wird. Am unteren Rand des Fensters befindet sich die Statusleiste. Es zeigt erklärende Beschriftungen: Nummer der aktuellen Folie, Anzahl der Folien, Art der Präsentation.

Die Einstellungen für die Anzeige von PowerPoint nach dem Start werden durch die Einstellungen bestimmt, die auf der Registerkarte „Ansicht“ des Befehlsdialogfelds „Optionen“ im Menü „Extras“ vorgenommen wurden. Auf dieser Registerkarte können Sie das Kontrollkästchen Startaufgabenseite aktivieren, wodurch der Aufgabenbereich Erste Schritte auf der rechten Seite des Fensters angezeigt wird.

Folien können im Quer- oder Hochformat sein. Um zwischen den Folien zu wechseln, können Sie die Bildlaufleiste oder die darauf befindlichen Schaltflächen verwenden: Nächste Folie (Nächste Folie) und Vorherige Folie (Vorherige Folie). Die Tasten PageUp und PageDown dienen demselben Zweck. Unten links im Präsentationsfenster befinden sich Schaltflächen, mit denen Sie den Ansichtsmodus Ihrer Präsentation ändern können.

Es gibt fünf Modi in PowerPoint, die eine Vielzahl von Optionen zum Erstellen, Erstellen und Präsentieren von Präsentationen bieten. In der Folienansicht können Sie einzelne Folien bearbeiten. In der Foliensortieransicht können Sie die Reihenfolge und den Status der Folien in Ihrer Präsentation ändern. Der Notizseitenmodus ist für die Eingabe von Abstracts oder einer kurzen Zusammenfassung des Berichts vorgesehen. Im Show-Modus können Sie die Präsentation auf Ihrem Computer zeigen. Die Folien nehmen den gesamten Bildschirm ein. Das Umschalten zwischen den Modi erfolgt über die Schaltflächen am unteren Rand des Präsentationsfensters.

Modi können auch über Menübefehle aufgerufen werden.

Sie können Ihre Präsentationen in der Gliederungs- und Folienansicht anpassen. In der Gliederungsansicht können alle Folien gleichzeitig angezeigt und bearbeitet werden, während in der Folienansicht nur die aktuelle Folie angepasst werden kann.

Der Foliensortiermodus bietet eine weitere Möglichkeit, mit Folien zu arbeiten, bei der die gesamte Präsentation als eine Reihe von Folien präsentiert wird, die in einer bestimmten Reihenfolge auf einer hellen Oberfläche angeordnet sind. In diesem Modus können Sie wie im Strukturmodus die Reihenfolge der Folien in der Präsentation ändern.

Die Geschichte der Informationstechnologie hat ihre Wurzeln in der Antike. Der erste Schritt kann als die Erfindung des einfachsten digitalen Geräts betrachtet werden - Konten. Der Abakus wurde völlig unabhängig und fast gleichzeitig im antiken Griechenland, im antiken Rom, in China, Japan und Rus erfunden.

Der Abakus wurde im antiken Griechenland genannt Abakus, also ein Brett oder sogar ein „Salamis-Brett“ (Salamis-Insel in der Ägäis). Der Abakus war ein geschliffenes Brett mit Rillen, auf denen Zahlen mit Kieselsteinen angegeben waren. Die erste Rille bedeutete Einheiten, die zweite - Zehner und so weiter. Während des Zählens konnte jeder von ihnen mehr als 10 Kieselsteine ​​​​ansammeln, was bedeutete, einen Kieselstein in die nächste Rille hinzuzufügen. In Rom existierte der Abakus in einer anderen Form: Holzbretter wurden durch Marmorplatten ersetzt, Kugeln wurden ebenfalls aus Marmor hergestellt.

In China unterschied sich der "Suan-Pan"-Abakus geringfügig von den griechischen und römischen. Sie basierten nicht auf der Zahl zehn, sondern auf der Zahl fünf. Im oberen Teil der "Suan-Pfanne" befanden sich Reihen von fünf Einheiten und im unteren Teil - zwei. Wenn es beispielsweise erforderlich war, die Zahl acht widerzuspiegeln, wurde ein Knochen im unteren Teil und drei im Einheitenteil platziert. In Japan gab es ein ähnliches Gerät, nur hieß es schon „Serobyan“.

In Rus waren die Werte viel einfacher – ein Haufen Einheiten und ein Haufen Zehner mit Knochen oder Kieselsteinen. Aber im fünfzehnten Jahrhundert weit verbreitet wird der „board count“, also die verwendung eines holzrahmens mit horizontalen seilen, an denen die knochen aufgereiht wurden.

Gewöhnliche Abakus waren die Vorfahren moderner digitaler Geräte. Wenn jedoch einige der Objekte der umgebenden materiellen Welt einer direkten Zählung, Stück für Stück Berechnung zugänglich waren, dann erforderten andere eine vorläufige Messung numerischer Werte. Dementsprechend haben sich historisch zwei Richtungen in der Entwicklung der Computer- und Computertechnologie entwickelt: digital und analog.

Die analoge Richtung, basierend auf der Berechnung eines unbekannten physischen Objekts (Prozesses) in Analogie zum Modell eines bekannten Objekts (Prozesses), erhielt die größte Entwicklung in der Zeit des späten 19. bis Mitte des 20. Jahrhunderts. Der Begründer der analogen Richtung ist der Autor der Idee der logarithmischen Rechnung, der schottische Baron John Napier, der 1614 den wissenschaftlichen Band „Beschreibung der erstaunlichen Logarithmentafel“ verfasste. John Napier hat die Funktionen nicht nur theoretisch begründet, sondern auch eine praktische Tabelle binärer Logarithmen entwickelt.



Das Prinzip von John Napiers Erfindung besteht darin, den Logarithmus (den Exponenten, mit dem eine Zahl erhöht werden muss) einer gegebenen Zahl zuzuordnen. Die Erfindung hat die Durchführung von Multiplikations- und Divisionsoperationen vereinfacht, da es beim Multiplizieren ausreicht, die Logarithmen von Zahlen zu addieren.

1617 erfand Napier eine Methode zum Multiplizieren von Zahlen mit Stöcken. Eine spezielle Vorrichtung bestand aus in Segmente unterteilten Stäben, die so angeordnet werden konnten, dass beim Addieren von Zahlen in horizontal nebeneinander liegenden Segmenten das Ergebnis der Multiplikation dieser Zahlen erhalten wurde.

Etwas später erstellte der Engländer Henry Briggs die erste Dezimallogarithmentabelle. Basierend auf der Theorie und Logarithmentafeln entstanden die ersten Rechenschieber. 1620 verwendete der Engländer Edmund Gunther für Berechnungen auf einem damals beliebten Proportionalzirkel eine spezielle Platte, auf der die Logarithmen von Zahlen und trigonometrischen Größen parallel zueinander aufgetragen waren (die sogenannten „Günther-Skalen“). . 1623 erfand William Oughtred den rechteckigen Rechenschieber, und Richard Delamain erfand 1630 den Zirkelmaßstab. 1775 fügte der Bibliothekar John Robertson dem Lineal einen "Schieberegler" hinzu, um das Ablesen von Zahlen aus verschiedenen Skalen zu erleichtern. Und schließlich 1851-1854. Der Franzose Amedey Mannheim veränderte das Design des Lineals dramatisch und gab es fast moderner Look. Die vollständige Dominanz des Rechenschiebers hielt bis in die 1920er und 1930er Jahre an. XX Jahrhundert, bis zum Erscheinen elektrischer Arithmometer, die es ermöglichten, einfache arithmetische Berechnungen mit viel größerer Genauigkeit durchzuführen. Der Rechenschieber verlor nach und nach seine Stellung, erwies sich aber als unentbehrlich für komplexe trigonometrische Berechnungen und ist daher erhalten geblieben und wird bis heute verwendet.



Die meisten Menschen, die einen Rechenschieber verwenden, können typische Berechnungen erfolgreich durchführen. Allerdings komplexe Operationen zur Berechnung von Integralen, Differentialen , Momente von Funktionen etc., die nach speziellen Algorithmen in mehreren Stufen durchgeführt werden und eine gute mathematische Vorbereitung erfordern, bereiten erhebliche Schwierigkeiten. All dies führte zu einer Zeit zum Erscheinen einer ganzen Klasse analoger Geräte, die entwickelt wurden, um bestimmte mathematische Indikatoren und Größen durch einen Benutzer zu berechnen, der in Sachen höherer Mathematik nicht allzu versiert ist. Anfang bis Mitte des 19. Jahrhunderts wurden erstellt: ein Planimeter (Berechnung der Fläche von flachen Figuren), ein Curvimeter (Bestimmung der Länge von Kurven), ein Differenzierer, ein Integrator, ein Integrator (grafische Ergebnisse der Integration ), ein Integrimeter (Integrieren von Graphen) usw. . Geräte. Der Autor des ersten Planimeters (1814) ist der Erfinder Hermann. 1854 erschien der Amsler-Polarplanimeter. Das erste und zweite Moment der Funktion wurden mit einem Integrator von Koradi berechnet. Es gab universelle Blocksätze, zum Beispiel den kombinierten Integrator KI-3, aus dem der Benutzer nach seinen eigenen Wünschen das erforderliche Gerät auswählen konnte.

Die digitale Richtung in der Entwicklung der Computertechnik erwies sich als vielversprechender und bildet heute die Basis Computertechnologie und Technologie. Sogar Leonardo da Vinci zu Beginn des 16. Jahrhunderts. erstellte eine Skizze eines 13-Bit-Addierers mit Zehnzahnringen. Obwohl ein auf diesen Zeichnungen basierendes Arbeitsgerät erst im 20. Jahrhundert gebaut wurde, wurde die Realität von Leonardo da Vincis Projekt bestätigt.

1623 beschrieb Professor Wilhelm Schickard in seinen Briefen an I. Kepler die Konstruktion einer Rechenmaschine, der sogenannten „Zähluhr“. Die Maschine wurde auch nicht gebaut, aber jetzt wurde anhand der Beschreibung ein funktionierendes Modell davon erstellt.

Der französische Philosoph und Mechaniker Blaise Pascal schuf 1642 die erste gebaute mechanische Digitalmaschine, die Zahlen mit entsprechendem Ziffernzuwachs summieren konnte. Der Zweck dieser Maschine war es, die Arbeit von Pater B. Pascal, einem Steuerinspektor, zu erleichtern. Die Maschine sah aus wie eine Kiste mit zahlreichen Zahnrädern, darunter das Hauptdesignzahnrad. Das berechnete Zahnrad wurde mit Hilfe eines Ratschenmechanismus mit einem Hebel verbunden, dessen Abweichung es ermöglichte, einstellige Zahlen in den Zähler einzugeben und zu summieren. Es war ziemlich schwierig, auf einer solchen Maschine Berechnungen mit mehrstelligen Zahlen durchzuführen.

1657 entwickelten die beiden Engländer R. Bissacar und S. Patridge völlig unabhängig voneinander einen rechteckigen Rechenschieber. In unveränderter Form existiert der Rechenschieber bis heute.

1673 erfand der berühmte deutsche Philosoph und Mathematiker Gottfried Wilhelm Leibniz einen mechanischen Rechner - eine fortschrittlichere Rechenmaschine, die grundlegende Arithmetik ausführen kann. Mittels binäres System Die Rechenmaschine konnte addieren, subtrahieren, multiplizieren, dividieren und Quadratwurzeln ziehen.

Im Jahr 1700 veröffentlichte Charles Perrault das Buch seines Bruders „Sammlung einer großen Anzahl von Maschinen seiner eigenen Erfindung von Claude Perrault“. Das Buch beschreibt eine Addiermaschine mit Zahnstangen anstelle von Zahnrädern, die als "rhabdologischer Abakus" bezeichnet wird. Der Name der Maschine besteht aus zwei Wörtern: dem alten "Abakus" und "Rhabdologie" - der mittelalterlichen Wissenschaft der Durchführung von Rechenoperationen mit kleinen Stäbchen mit Zahlen.

Gottfried Wilheim Leibniz schreibt 1703 in Fortsetzung einer Reihe seiner Werke die Abhandlung Explication de I „Arithmetique Binaire“ über die Verwendung des binären Zahlensystems in Computern Später, 1727, basierend auf den Arbeiten von Leibniz, Jacob Leopolds Rechenmaschine wurde erstellt.

Deutscher Mathematiker und Astronom Christian Ludwig Gersten im Jahr 1723 eine Rechenmaschine geschaffen. Beim Multiplizieren von Zahlen berechnete die Maschine den Quotienten und die Anzahl der aufeinanderfolgenden Additionen. Außerdem konnte die Korrektheit der Dateneingabe kontrolliert werden.

1751 erfindet der Franzose Perera nach den Ideen von Pascal und Perrault eine Rechenmaschine. Im Gegensatz zu anderen Geräten war es kompakter, da sich seine Zählräder nicht auf parallelen Achsen befanden, sondern auf einer einzigen Achse, die durch die gesamte Maschine ging.

1820 erfolgte die erste industrielle Produktion digitaler Rechenmaschinen . Die Meisterschaft gehört hier dem Franzosen Thomas de Kalmar. In Russland zu den ersten Rechenmaschinen dieser Art Bunyakovskys Selbstberichte (1867) sind enthalten. 1874 verbesserte ein Ingenieur aus St. Petersburg, Vilgodt Odner, das Design der Addiermaschine erheblich, indem er Räder mit einziehbaren Zähnen (Odner-Räder) zur Eingabe von Zahlen verwendete. Odners Arithmometer ermöglichten Rechenoperationen mit einer Geschwindigkeit von bis zu 250 Rechenoperationen mit vierstelligen Ziffern in einer Stunde.

Gut möglich, dass die Entwicklung der digitalen Rechentechnik auf dem Niveau kleiner Maschinen geblieben wäre, wäre da nicht die Entdeckung des Franzosen Joseph Marie Jacquard gewesen, der Anfang des 19 ) um einen Webstuhl zu steuern. Jacquards Maschine wurde mit einem ganzen Stapel Lochkarten programmiert, von denen jeder eine Shuttle-Bewegung steuerte, sodass der Bediener beim Wechseln zu einem neuen Muster einen Stapel Lochkarten durch einen anderen ersetzte. Wissenschaftler haben versucht, diese Entdeckung zu nutzen, um eine grundlegend neue Rechenmaschine zu schaffen, die Operationen ohne menschliches Eingreifen ausführt.

1822 schuf der englische Mathematiker Charles Babbage eine programmgesteuerte Rechenmaschine, die der Prototyp der heutigen ist Peripheriegeräte Eingabe und Druck. Es bestand aus manuell gedrehten Zahnrädern und Rollen.

Ende der 80er. Im 19. Jahrhundert gelang es Herman Hollerith, einem Mitarbeiter des US National Census Bureau, einen statistischen Tabulator zu entwickeln, der Lochkarten automatisch verarbeiten konnte. Die Schaffung des Tabulators markierte den Beginn der Produktion einer neuen Klasse digitaler Zähl- und Stanzmaschinen (Rechen- und Analysemaschinen), die sich von der Klasse kleiner Maschinen im ursprünglichen System zur Dateneingabe von Lochkarten unterschied. Mitte des 20. Jahrhunderts wurden Perforiermaschinen von IBM und Remington Rand in Form von ziemlich komplexen perforierten Komplexen hergestellt. Dazu gehörten Locher (Lochkarten füllen), Kontrolllocher (Nachfüllen und Prüfen auf Fehlausrichtung der Löcher), Sortiermaschinen (Lochkarten nach bestimmten Merkmalen gruppieren), Streumaschinen (genaueres Layout von Lochkarten und Zusammenstellen von Funktionstabellen). ), Tabulatoren (Lesen von Lochkarten, Rechnen und Drucken von Rechenergebnissen), Multiplayer (Multiplikationsoperationen für auf Lochkarten geschriebene Zahlen). Topmodels Perforierte Komplexe verarbeiteten bis zu 650 Karten pro Minute, und der Multiplayer multiplizierte 870 achtstellige Zahlen innerhalb einer Stunde. Das fortschrittlichste Modell des elektronischen Lochers IBM Modell 604, der 1948 auf den Markt kam, verfügte über ein programmierbares Datenverarbeitungs-Befehlsfeld und bot die Möglichkeit, mit jeder Lochkarte bis zu 60 Operationen durchzuführen.

Zu Beginn des 20. Jahrhunderts erschienen Addiertasten mit Tasten zur Eingabe von Zahlen. Die Erhöhung des Automatisierungsgrades der Arbeit von Addiermaschinen ermöglichte die Schaffung automatischer Zählmaschinen oder sogenannter kleiner Rechenmaschinen mit elektrischem Antrieb und automatische Ausführung bis zu 3 Tausend Operationen mit drei- und vierstelligen Zahlen pro Stunde. Im industriellen Maßstab wurden kleine Rechenmaschinen in der ersten Hälfte des 20. Jahrhunderts von den Firmen Friden, Burroughs, Monro usw. hergestellt. Eine Vielzahl von kleinen Maschinen waren Buchhaltungs-, Zähl- und Schreib- sowie Zähl- und Textmaschinen, die in Europa von Olivetti hergestellt wurden , und in den USA durch das National Cash Register (NCR). In Russland waren in dieser Zeit "Mercedes" weit verbreitet - Buchhaltungsmaschinen, mit denen Daten eingegeben und die Endsalden (Salden) auf synthetischen Buchhaltungskonten berechnet werden konnten.

Basierend auf den Ideen und Erfindungen von Babbage und Hollerith konnte Professor Howard Aiken von der Harvard University in den Jahren 1937-1943 etwas erschaffen. Computer-Stanzmaschine hohes Level namens "Mark-1", das an elektromagnetischen Relais arbeitete. 1947 erschien eine Maschine dieser Serie "Mark-2" mit 13.000 Relais.

Etwa zur gleichen Zeit erschienen theoretische Voraussetzungen und technische Möglichkeit die Schaffung einer perfekteren Maschine für elektrische Lampen. 1943 begannen Mitarbeiter der University of Pennsylvania (USA) unter der Leitung von John Mauchly und Prosper Eckert unter Beteiligung des berühmten Mathematikers John von Neumann mit der Entwicklung einer solchen Maschine. Das Ergebnis ihrer gemeinsamen Bemühungen war der Röhrencomputer ENIAC (1946), der 18.000 Lampen enthielt und 150 kW Strom verbrauchte. Während der Arbeit an der Röhrenmaschine veröffentlichte John von Neumann einen Bericht (1945), der eines der wichtigsten wissenschaftlichen Dokumente in der Theorie der Entwicklung der Computertechnologie ist. Der Bericht begründete die Prinzipien des Designs und der Funktionsweise von Universalcomputern einer neuen Computergeneration, die das Beste aufnahm, was von vielen Generationen von Wissenschaftlern, Theoretikern und Praktikern geschaffen wurde.

Dies führte zur Schaffung von Computern, den sogenannten erste Generation. Sie zeichnen sich durch die Verwendung von Vakuumröhrentechnologie, Speichersystemen auf Quecksilber-Verzögerungsleitungen, Magnettrommeln und Williams-Kathodenstrahlröhren aus. Die Dateneingabe erfolgte über Lochstreifen, Lochkarten und Magnetbänder mit gespeicherten Programmen. Drucker verwendet wurden. Die Geschwindigkeit von Computern der ersten Generation überschritt 20.000 Operationen pro Sekunde nicht.

Darüber hinaus schritt die Entwicklung der digitalen Computertechnologie schnell voran. 1949 baute der englische Forscher Maurice Wilkes nach Neumanns Prinzipien den ersten Computer. Bis Mitte der 50er Jahre. Lampenmaschinen wurden im industriellen Maßstab hergestellt. Die wissenschaftliche Forschung auf dem Gebiet der Elektronik eröffnete jedoch neue Entwicklungsperspektiven. Die führende Position in diesem Bereich wurde von den Vereinigten Staaten besetzt. 1948 erfanden Walter Brattain und John Bardeen von AT&T den Transistor, und 1954 verwendete Gordon Tip von Texas Instruments Silizium zur Herstellung des Transistors. Seit 1955 werden auf Transistoren basierende Computer hergestellt, die im Vergleich zu Lampenmaschinen kleinere Abmessungen, eine höhere Geschwindigkeit und einen geringeren Stromverbrauch aufweisen. Computer wurden von Hand unter einem Mikroskop zusammengebaut.

Die Verwendung von Transistoren markierte den Übergang zu Computern zweite Generation. Transistoren ersetzten Vakuumröhren und Computer wurden zuverlässiger und schneller (bis zu 500.000 Operationen pro Sekunde). Verbesserte und funktionale Geräte - Arbeiten mit Magnetbändern, Speicher auf Magnetplatten.

1958 wurden die erste Intervall-Mikroschaltung (Jack Kilby - Texas Instruments) und die erste industrielle integrierte Schaltung (Chip) erfunden, deren Autor Robert Noyce später (1968) das weltberühmte Unternehmen Intel (INTegrated ELectronics) gründete. Noch schneller und kleiner waren Computer auf Basis integrierter Schaltkreise, die seit 1960 produziert werden.

1959 kamen Forscher von Datapoint zu der wichtigen Schlussfolgerung, dass der Computer eine zentrale arithmetisch-logische Einheit benötigt, die Berechnungen, Programme und Geräte steuern kann. Es ging um den Mikroprozessor. Die Mitarbeiter von Datapoint haben sich grundlegend weiterentwickelt technische Lösungen auf die Entwicklung eines Mikroprozessors und begann Mitte der 60er Jahre gemeinsam mit Intel mit der industriellen Feinabstimmung. Die ersten Ergebnisse waren nicht ganz erfolgreich: Intel-Mikroprozessoren liefen viel langsamer als erwartet. Die Zusammenarbeit zwischen Datapoint und Intel ist beendet.

Computer wurden 1964 entwickelt dritte Generation unter Verwendung elektronischer Schaltungen mit niedrigem und mittlerem Integrationsgrad (bis zu 1000 Komponenten pro Chip). Seit dieser Zeit begannen sie, nicht einen einzigen Computer zu entwerfen, sondern eine ganze Familie von Computern, die auf der Verwendung von Software basierten. Ein Beispiel für Computer der dritten Generation können die damals geschaffenen amerikanischen IBM 360 sowie die sowjetischen EU 1030 und 1060 sein. In den späten 60er Jahren. Minicomputer erschienen und 1971 - der erste Mikroprozessor. Ein Jahr später veröffentlichte Intel den ersten weithin bekannten Intel 8008-Mikroprozessor und im April 1974 den Intel 8080-Mikroprozessor der zweiten Generation.

Seit Mitte der 70er. Computer wurden entwickelt vierte Generation. Sie zeichnen sich durch die Verwendung großer und sehr großer integrierter Schaltungen (bis zu einer Million Bauelemente pro Chip) aus. Die ersten Computer der vierten Generation wurden von Amdahl Corp. Diese Computer setzten Hocein integrierte Schaltkreise mehrere Megabyte groß. Beim Ausschalten wurden die RAM-Daten auf die Festplatte übertragen. Beim Einschalten bootete es. Die Leistung von Computern der vierten Generation beträgt Hunderte Millionen Operationen pro Sekunde.

Ebenfalls Mitte der 70er Jahre erschienen die ersten Personal Computer. Die weitere Geschichte der Computer ist eng mit der Entwicklung der Mikroprozessortechnik verbunden. 1975, basierend auf Intel-Prozessor 8080 wurde der erste Massen-PC Altair geschaffen. Bis Ende der 1970er Jahre dank der Bemühungen von Intel, der die neuesten Mikroprozessoren Intel 8086 und Intel 8088 entwickelte, gab es Voraussetzungen für die Verbesserung der Rechen- und ergonomischen Eigenschaften von Computern. Während dieser Zeit schloss sich der größte Elektrokonzern IBM der Konkurrenz auf dem Markt an und versuchte, einen Personal Computer auf Basis des Intel 8088-Prozessors zu entwickeln.Im August 1981 erschien der IBM PC, der schnell immense Popularität erlangte. Das gelungene Design des IBM-PCs prädestinierte seinen Einsatz als Standard persönliche Computer Ende des 20. Jahrhunderts

Computer werden seit 1982 entwickelt fünfte Generation. Ihre Grundlage ist die Orientierung an der Verarbeitung von Wissen. Wissenschaftler sind zuversichtlich, dass die Verarbeitung von Wissen, die nur für einen Menschen charakteristisch ist, auch von einem Computer durchgeführt werden kann, um die gestellten Probleme zu lösen und adäquate Entscheidungen zu treffen.

1984 stellte Microsoft die ersten Muster des Betriebssystems vor Windows-Systeme. Die Amerikaner betrachten diese Erfindung immer noch als eine der herausragenden Entdeckungen des 20. Jahrhunderts.

Ein wichtiger Vorschlag wurde im März 1989 von Tim Berners-Lee, einem Mitarbeiter des Internationalen Europäischen Forschungszentrums (CERN), gemacht. Die Essenz der Idee bestand darin, ein neues verteiltes Informationssystem namens World Wide Web zu schaffen. Ein auf Hypertext basierendes Informationssystem könnte die Informationsressourcen des CERN (Berichtsdatenbanken, Dokumentation, Postanschriften usw.) integrieren. Das Projekt wurde 1990 angenommen.

63 Jahre nach dem Tod von C. Babbage wurde "jemand" gefunden, der es sich zur Aufgabe gemacht hat, eine Maschine zu schaffen, die vom Funktionsprinzip her ähnlich derjenigen ist, der C. Babbage sein Leben geschenkt hat. Es stellte sich heraus, dass es sich um den deutschen Studenten Konrad Zuse (1910 - 1985) handelte. Er begann 1934 mit der Entwicklung der Maschine, ein Jahr vor seinem Abschluss als Ingenieur. Conrad wusste nichts über die Maschine von Babbage oder über die Arbeit von Leibniz oder über die Boolesche Algebra, die sich zum Entwerfen von Schaltungen mit Elementen eignet, die nur zwei stabile Zustände haben.

Dennoch entpuppte er sich als würdiger Erbe von W. Leibniz und J. Boole, da er das bereits vergessene Binärsystem der Analysis wieder zum Leben erweckte und bei der Berechnung von Schaltkreisen etwas Ähnliches wie die Boolesche Algebra verwendete. 1937 Maschine Z1 (also Zuse 1) war fertig und fing an zu arbeiten.

Es war wie Babbages Maschine rein mechanisch. Der Einsatz des Binärsystems wirkte Wunder – die Maschine nahm auf dem Tisch in der Wohnung des Erfinders nur zwei Quadratmeter ein. Die Länge der Wörter betrug 22 Binärziffern. Operationen wurden mit Gleitkommazahlen durchgeführt. Für die Mantisse und ihr Zeichen wurden 15 Ziffern zugewiesen, für die Reihenfolge - 7. Der Speicher (auch auf mechanischen Elementen) enthielt 64 Wörter (gegenüber 1000 für Babbage, was auch die Größe der Maschine reduzierte). Die Zahlen und das Programm wurden manuell eingegeben. Ein Jahr später erschienen ein Dateneingabegerät und Programme in der Maschine, wobei ein Filmstreifen verwendet wurde, auf dem Informationen perforiert waren, und ein mechanisches Rechengerät ersetzte die sequentielle AU durch Telefonrelais. Dabei half K. Zuse der österreichische Ingenieur Helmut Schreyer, ein Spezialist auf dem Gebiet der Elektronik. Die verbesserte Maschine wurde Z2 genannt. 1941 erstellt Zuse unter Beteiligung von G. Schreier einen Relaiscomputer mit Programmsteuerung (Z3), der 2000 Relais enthält und die Hauptmerkmale von Z1 und Z2 wiederholt. Er wurde der weltweit erste vollständig relaisgesteuerte Digitalrechner mit Programmsteuerung und wurde erfolgreich betrieben. Seine Abmessungen übertrafen die von Z1 und Z2 nur geringfügig.

Bereits 1938 schlug G. Schreier vor, beim Bau von Z2 Elektronenröhren anstelle von Telefonrelais zu verwenden. K. Zuse stimmte seinem Vorschlag nicht zu. Aber während des Zweiten Weltkriegs kam er selbst zu dem Schluss, dass eine Lampenversion der Maschine möglich ist. Sie überbrachten diese Botschaft einem Kreis gelehrter Männer und wurden verspottet und verurteilt. Die Zahl, die sie angaben - 2000 Elektronenröhren, die zum Bau einer Maschine benötigt werden, könnte die heißesten Köpfe kühlen. Nur einer der Zuhörer unterstützte ihren Plan. Sie hörten nicht auf und unterbreiteten dem Militärdezernat ihre Überlegungen, dass die neue Maschine zum Entschlüsseln von alliierten Funksprüchen verwendet werden könne.

Doch die Chance, in Deutschland nicht nur das erste Relais, sondern auch den weltweit ersten elektronischen Computer zu bauen, wurde verpasst.

Zu dieser Zeit organisierte K. Zuse eine kleine Firma, und durch ihre Bemühungen wurden zwei spezialisierte Relaismaschinen S1 und S2 geschaffen. Die erste - um die Flügel von "fliegenden Torpedos" zu berechnen - Projektile, die London bombardierten, die zweite - um sie zu kontrollieren. Es stellte sich heraus, dass es der erste Steuercomputer der Welt war.

Am Ende des Krieges erstellt K. Zuse einen weiteren Relaiscomputer - Z4. Es wird die einzige überlebende aller von ihm entwickelten Maschinen sein. Der Rest wird bei der Bombardierung Berlins und der Fabriken, in denen sie hergestellt wurden, zerstört.

Und so setzte K. Zuse gleich mehrere Meilensteine ​​in der Geschichte der Computerentwicklung: Er verwendete als weltweit erster das binäre Rechensystem beim Bau eines Computers (1937), er schuf den weltweit ersten Relaiscomputer mit Programmsteuerung (1941) und ein digitaler spezialisierter Steuerrechner (1943).

Diese wirklich brillanten Errungenschaften hatten jedoch keinen wesentlichen Einfluss auf die Entwicklung der Computertechnologie in der Welt.

Tatsache ist, dass es aufgrund der Geheimhaltung der Arbeiten keine Veröffentlichungen über sie und keine Werbung gab und sie daher erst wenige Jahre nach Ende des Zweiten Weltkriegs bekannt wurden.

Anders verliefen die Ereignisse in den USA. 1944 schuf der Wissenschaftler der Harvard University, Howard Aiken (1900-1973), den ersten in den USA (damals galt er als der erste der Welt). Relais-mechanischer Digitalcomputer MARK-1. In Bezug auf seine Eigenschaften (Leistung, Speicherkapazität) war es ähnlich wie Z3, unterschied sich jedoch erheblich in der Größe (Länge 17 m, Höhe 2,5 m, Gewicht 5 Tonnen, 500.000 mechanische Teile).

Die Maschine verwendete das Dezimalzahlensystem. Wie in Babbages Maschine wurden Zahnräder in den Zählern und Speicherregistern verwendet. Die Steuerung und Kommunikation zwischen ihnen erfolgte mit Hilfe von Relais, deren Anzahl 3000 überstieg. G. Aiken verbarg nicht die Tatsache, dass er sich bei der Konstruktion der Maschine viel von C. Babbage ausgeliehen hatte. „Wenn Babbage am Leben wäre, hätte ich nichts zu tun“, sagte er. Bemerkenswerte Qualität der Maschine war ihre Zuverlässigkeit. An der Harvard University installiert, arbeitete sie dort 16 Jahre lang.

Nach MARK-1 erstellt der Wissenschaftler drei weitere Maschinen (MARK-2, MARK-3 und MARK-4) und verwendet ebenfalls Relais, keine Vakuumröhren, was durch die Unzuverlässigkeit der letzteren erklärt wird.

Im Gegensatz zu den Arbeiten von Zuse, die im Geheimen durchgeführt wurden, wurde die Entwicklung des MARK1 offen durchgeführt und die Schaffung einer für damalige Zeiten ungewöhnlichen Maschine wurde in vielen Ländern schnell erkannt. Die Tochter von K. Zuse, der beim Militärgeheimdienst arbeitete und sich zu dieser Zeit in Norwegen aufhielt, schickte ihrem Vater einen Zeitungsausschnitt, der die grandiose Leistung des amerikanischen Wissenschaftlers ankündigte.

K. Zuse konnte triumphieren. Er war dem aufstrebenden Gegner in vielerlei Hinsicht voraus. Später wird er ihm einen Brief schicken und ihm davon erzählen. Und die deutsche Regierung wird ihm 1980 800.000 Mark geben, um den Z1 nachzubauen, was er zusammen mit den Studenten tat, die ihm halfen. K. Zuse schenkte seinen auferstandenen Erstgeborenen dem Museum für Rechentechnik in Padeborn zur ewigen Aufbewahrung.

Ich möchte die Geschichte von G. Aiken mit einer kuriosen Episode fortsetzen. Tatsache ist, dass die Arbeiten zur Erstellung von MARK1 in den Produktionsstätten von IBM durchgeführt wurden. Sein damaliger Chef Tom Watson, der Ordnung in allem liebte, bestand darauf, dass das riesige Auto in Glas und Stahl „gekleidet“ wurde, was es sehr respektabel machte. Als die Maschine zur Universität transportiert und der Öffentlichkeit präsentiert wurde, wurde der Name T. Watson unter den Schöpfern der Maschine nicht erwähnt, was den Chef von IBM, der eine halbe Million Dollar in die Entwicklung der Maschine investierte, furchtbar verärgerte . Er beschloss, G. Aiken gegenüber „seine Nase abzuwischen“. Als Ergebnis erschien ein relaiselektronisches Monster, in riesigen Schränken, in denen 23.000 Relais und 13.000 Vakuumröhren untergebracht waren. Die Maschine war funktionsunfähig. Am Ende wurde sie in New York ausgestellt, um sie dem unerfahrenen Publikum zu zeigen. Dieser Riese beendete die Zeit der elektromechanischen Digitalrechner.

Als G. Aiken an die Universität zurückkehrte, war er der erste auf der Welt, der begann, Vorlesungen über ein damals neues Fach zu halten, das jetzt Informatik heißt - die Wissenschaft der Computer, und er war auch einer der ersten, der die Verwendung vorschlug von Maschinen im kaufmännischen Rechnen und Wirtschaften. Das Motiv für die Schaffung von MARK-1 war der Wunsch von G. Aiken, sich bei den zahlreichen Berechnungen zu helfen, die er bei der Vorbereitung seiner Dissertationsarbeit (übrigens dem Studium der Eigenschaften von Vakuumröhren gewidmet) durchführen musste.

Es rückte jedoch die Zeit näher, in der das Volumen der Siedlungsarbeit in den entwickelten Ländern wie ein Schneeball zu wachsen begann, vor allem im Bereich der militärischen Ausrüstung, was durch den Zweiten Weltkrieg erleichtert wurde.

1941 wandten sich Mitarbeiter des Ballistic Research Laboratory in Aberdeen Ordnance Range in den Vereinigten Staaten an die nahe gelegene technische Schule der University of Pennsylvania, um Hilfe bei der Zusammenstellung von Schusstabellen für Artilleriegeschütze zu erhalten, wobei sie sich auf den Bush-Differenzialanalysator stützten, ein sperriges mechanisches Analog-Computing Gerät, erhältlich in der Schule. Ein Mitarbeiter der Schule, der Physiker John Mauchly (1907-1986), der sich für Meteorologie interessierte und mehrere einfache digitale Geräte auf Vakuumröhren herstellte, um Probleme auf diesem Gebiet zu lösen, schlug etwas anderes vor. Er wurde (im August 1942) aufgestellt und an das US-Militärministerium geschickt, um einen Vorschlag zu machen, einen (damals) leistungsstarken Computer auf Vakuumröhren zu bauen. Diese wirklich historischen fünf Seiten wurden von Militärbeamten ad acta gelegt, und Mauchlys Vorschlag wäre wahrscheinlich folgenlos geblieben, wenn sich die Mitarbeiter des Testgeländes nicht dafür interessiert hätten. Sie sicherten die Finanzierung des Projekts, und im April 1943 wurde ein Vertrag zwischen dem Testgelände und der University of Pennsylvania unterzeichnet, um einen Computer namens Electronic Digital Integrator and Computer (ENIAC) zu bauen. Dafür wurden 400.000 Dollar bereitgestellt. An den Arbeiten waren etwa 200 Personen beteiligt, darunter mehrere Dutzend Mathematiker und Ingenieure.

Die Arbeit wurde von J. Mauchly und dem talentierten Elektronikingenieur Presper Eckert (1919 - 1995) geleitet. Er war es, der vorschlug, für das Auto Vakuumröhren zu verwenden, die von Militärvertretern abgelehnt wurden (sie waren kostenlos erhältlich). Angesichts der Tatsache, dass die erforderliche Anzahl von Lampen fast 20.000 betrug und die für die Erstellung der Maschine bereitgestellten Mittel sehr begrenzt waren, war dies eine kluge Entscheidung. Er schlug auch vor, die Glühfadenspannung der Lampe zu reduzieren, was die Zuverlässigkeit ihres Betriebs erheblich erhöhte. Die harte Arbeit endete Ende 1945. ENIAC wurde zur Prüfung vorgestellt und hat diese erfolgreich bestanden. Anfang 1946 begann die Maschine, echte Aufgaben zu zählen. In der Größe war es beeindruckender als MARK-1: 26 m lang, 6 m hoch, 35 Tonnen schwer. Aber es war nicht die Größe, die auffiel, sondern die Leistung - sie war 1000-mal höher als die Leistung des MARK-1. Das war das Ergebnis der Verwendung von Vakuumröhren!

Ansonsten unterschied sich ENIAC kaum von MARK-1. Es wurde das Dezimalsystem verwendet. Wortlänge - 10 Dezimalstellen. Die Kapazität des elektronischen Speichers beträgt 20 Wörter. Eingabe von Programmen - über das Schaltfeld, was viele Unannehmlichkeiten verursachte: Das Ändern des Programms dauerte viele Stunden und sogar Tage.

1945, als die Arbeit an der Schaffung von ENIAC abgeschlossen war und seine Schöpfer bereits einen neuen elektronischen Digitalcomputer EDVAK entwickelten, in dem sie beabsichtigten, Programme im RAM zu platzieren, um den Hauptnachteil von ENIAC zu beseitigen - die Schwierigkeit, Berechnungen einzugeben Programme, ein hervorragender Mathematiker, Mitglied des Mathattan-Projekts zur Herstellung einer Atombombe John von Neumann (1903-1957). Es sollte gesagt werden, dass die Entwickler der Maschine anscheinend nicht um diese Hilfe gebeten haben. Wahrscheinlich hat J. Neumann selbst die Initiative ergriffen, als er von seinem Freund G. Goldstein, einem Mathematiker, der in der Militärabteilung arbeitete, von ENIAC hörte. Er schätzte sofort die Aussichten für die Entwicklung neuer Technologien und beteiligte sich aktiv an der Fertigstellung der Arbeiten zur Gründung von EDVAK. Der Teil des Berichtes, den er über die Maschine verfasste, enthielt eine allgemeine Beschreibung der EDVAK und die Grundprinzipien der Konstruktion der Maschine (1945).

Es wurde von G. Goldstein (ohne Zustimmung von J. Mauchly und P. Eckert) reproduziert und an eine Reihe von Organisationen versandt. 1946 Neumann, Goldstein und Burks (die alle drei am Princeton Institute for Advanced Study arbeiteten) schrieben einen weiteren Bericht („Preliminary Discussion on Logical Device Design“, Juni 1946), der eine detaillierte und detaillierte Beschreibung der Prinzipien des Aufbaus digitaler Elektronik enthielt Computers. Im selben Jahr wurde der Bericht auf der Sommersitzung der University of Pennsylvania verteilt.

Die im Bericht dargelegten Grundsätze waren wie folgt.

  • 1. Maschinen auf elektronischen Elementen sollten nicht im dezimalen, sondern im binären Rechensystem arbeiten.
  • 2. Das Programm muss sich in einem der Blöcke der Maschine befinden – in einem Speichergerät mit ausreichender Kapazität und angemessener Geschwindigkeit zum Abrufen und Schreiben von Programmanweisungen.
  • 3. Das Programm sowie die Zahlen, mit denen die Maschine arbeitet, sind im Binärcode geschrieben. In der Darstellungsform sind Befehle und Zahlen also vom gleichen Typ. Dieser Umstand führt zu folgenden wichtigen Konsequenzen:
    • - Zwischenergebnisse von Berechnungen, Konstanten und andere Zahlen können auf demselben Speichergerät wie das Programm abgelegt werden;
    • - Die numerische Form des Programmdatensatzes ermöglicht es der Maschine, Operationen an den Größen durchzuführen, die die Programmbefehle codieren.
  • 4. Schwierigkeiten bei der physikalischen Implementierung eines Speichergeräts, dessen Geschwindigkeit der Arbeitsgeschwindigkeit entspricht Logikschaltungen, erfordert eine hierarchische Organisation des Gedächtnisses.
  • 5. Die arithmetische Vorrichtung der Maschine ist auf der Grundlage von Schaltungen entworfen, die die Additionsoperation ausführen, die Schaffung spezieller Vorrichtungen zur Durchführung anderer Operationen ist nicht ratsam.
  • 6. Die Maschine verwendet ein paralleles Organisationsprinzip des Rechenprozesses (Operationen an Wörtern werden gleichzeitig für alle Ziffern durchgeführt).

Es kann nicht gesagt werden, dass die aufgeführten Prinzipien der Computerkonstruktion zuerst von J. Neumann und anderen Autoren zum Ausdruck gebracht wurden. Ihr Verdienst besteht darin, dass sie es nach der Verallgemeinerung der gesammelten Erfahrungen beim Bau digitaler Computer geschafft haben, von den (technischen) Schaltungsbeschreibungen von Maschinen zu ihrer verallgemeinerten logisch klaren Struktur überzugehen und einen wichtigen Schritt von theoretisch wichtigen Grundlagen (Turing-Maschine) in die Praxis zu machen von echte Computer bauen. Der Name J. Neumann lenkte die Aufmerksamkeit auf die Berichte, und die darin zum Ausdruck gebrachten Prinzipien und Strukturen von Computern wurden Neumanns genannt.

Unter der Leitung von J. Neumann am Princeton Institute for Advanced Study wurde 1952 eine weitere MANIAC-Vakuumröhrenmaschine (für Berechnungen zur Herstellung einer Wasserstoffbombe) und 1954 eine weitere, bereits ohne Beteiligung von J. Neumann, erstellt . Letzterer wurde nach dem Wissenschaftler „Joniak“ benannt. Leider wurde J. Neumann nur drei Jahre später schwer krank und starb.

J. Mauchly und P. Eckert, beleidigt durch die Tatsache, dass sie nicht im Bericht der Princeton University erschienen und die Entscheidung, die sie erlitten hatten, Programme in RAM zu stellen, begannen, J. Neumann zugeschrieben zu werden, und andererseits zu sehen dass viele, die wie Pilze nach dem Regen entstanden, Firmen, die den Computermarkt erobern wollten, beschlossen, Patente für ENIAC anzumelden.

Dies wurde ihnen jedoch verweigert. Sorgfältige Konkurrenten fanden Informationen, dass der Mathematikprofessor John Atanasov (1903 - 1996), ein gebürtiger Bulgare, der an der Iowa State Agricultural School arbeitete, in den Jahren 1938 - 1941 zusammen mit seinem Assistenten Clifford Bury ein Modell eines spezialisierten Digitalen entwickelte Computer (unter Verwendung eines binären Zahlensystems) zum Lösen von Systemen algebraischer Gleichungen. Das Layout enthielt 300 elektronische Röhren, hatte Speicher auf Kondensatoren. Damit entpuppte sich Atanasov als Pionier der Lampentechnik im Computerbereich.

Darüber hinaus stellte sich heraus, dass J. Mauchly, wie das Gericht, das den Fall über die Erteilung eines Patents prüfte, herausfand, mit Atanasovs Arbeit nicht vom Hörensagen vertraut war, sondern in den Tagen von fünf Tage in seinem Labor verbrachte die Modellerstellung.

Was die Speicherung von Programmen im RAM und die theoretische Begründung der Haupteigenschaften moderner Computer angeht, waren hier J. Mauchly und P. Eckert nicht die ersten. Bereits 1936 sagte Alan Turing (1912 - 1953), ein genialer Mathematiker, der damals sein bemerkenswertes Werk "On Computable Numbers" veröffentlichte.

Unter der Annahme, dass das wichtigste Merkmal eines Algorithmus (Informationsverarbeitungsaufgabe) die Möglichkeit der mechanischen Natur seiner Ausführung ist, schlug A. Turing eine abstrakte Maschine zum Studium von Algorithmen vor, die sogenannte "Turing-Maschine". Darin nahm er die wesentlichen Eigenschaften vorweg moderner Rechner. Daten mussten von einem in Zellen unterteilten Papierband in die Maschine eingegeben werden. Jeder von ihnen enthielt ein Zeichen oder war leer. Die Maschine konnte die auf dem Band aufgezeichneten Zeichen nicht nur verarbeiten, sondern sie auch ändern, indem sie die alten löschte und neue gemäß den in ihrem internen Speicher gespeicherten Anweisungen schrieb. Dazu wurde es um einen logischen Block ergänzt, der eine Funktionstabelle enthält, die die Reihenfolge der Maschinenaktionen bestimmt. Mit anderen Worten, A. Turing sorgte für das Vorhandensein eines Speichergeräts zum Speichern des Programms der Aktionen der Maschine. Aber nicht nur das bestimmt seine herausragenden Verdienste.

1942 - 1943, auf dem Höhepunkt des Zweiten Weltkriegs, wurde in England unter strengster Geheimhaltung mit seiner Teilnahme in Bletchley Park bei London der weltweit erste spezialisierte Digitalcomputer "Colossus" gebaut und erfolgreich mit Vakuumröhren zur Entschlüsselung von Geheimnissen betrieben Radiogramme Deutsche Radiosender. Sie hat die Aufgabe erfolgreich gemeistert. Einer der Teilnehmer an der Entwicklung der Maschine lobte die Verdienste von A. Turing: „Ich möchte nicht sagen, dass wir dank Turing den Krieg gewonnen haben, aber ich erlaube mir zu sagen, dass wir ihn ohne ihn hätten verlieren können. " Nach dem Krieg beteiligte sich der Wissenschaftler an der Entwicklung eines universellen Röhrencomputers. Der plötzliche Tod im Alter von 41 Jahren hinderte ihn daran, sein herausragendes kreatives Potenzial voll auszuschöpfen. In Gedenken an A. Turing wurde ein Preis für herausragende Arbeiten auf dem Gebiet der Mathematik und Informatik in seinem Namen ins Leben gerufen. Der Computer "Colossus" wurde restauriert und im Museum von Bletchley Park aufbewahrt, wo er geschaffen wurde.

In der Praxis erwiesen sich J. Mauchly und P. Eckert jedoch wirklich als die Ersten, die, nachdem sie die Zweckmäßigkeit der Speicherung des Programms im RAM der Maschine (unabhängig von A. Turing) verstanden hatten, es in eine echte Maschine gesteckt haben - ihre zweite EDVAK-Maschine. Leider verzögerte sich seine Entwicklung und es wurde erst 1951 in Betrieb genommen. Damals funktionierte in England ein Computer mit einem im RAM gespeicherten Programm seit zwei Jahren! Tatsache ist, dass J. Mauchly 1946, auf dem Höhepunkt der Arbeit an EDVAK, an der University of Pennsylvania einen Vorlesungskurs über die Prinzipien des Computerbaus hielt. Unter den Zuhörern war ein junger Wissenschaftler, Maurice Wilks (geb. 1913) von der University of Cambridge, jener Universität, an der C. Babbage vor hundert Jahren ein Projekt für einen digitalen Computer mit Programmsteuerung vorschlug. Als er nach England zurückkehrte, gelang es einem talentierten jungen Wissenschaftler, in sehr kurzer Zeit einen EDSAK-Computer zu bauen ( elektronischer Rechner auf Verzögerungsleitungen) sequentielle Aktion mit Speicher auf Quecksilberröhren unter Verwendung eines binären Berechnungssystems und eines im RAM gespeicherten Programms. 1949 ging die Maschine in Betrieb. So war M. Wilks der erste auf der Welt, dem es gelang, einen Computer mit einem im RAM gespeicherten Programm zu erstellen. 1951 schlug er auch eine Mikroprogrammsteuerung des Betriebs vor. EDSAK wurde zum Prototyp des weltweit ersten seriellen kommerziellen Computers LEO (1953). Heute ist M. Wilks der einzige Überlebende der Computerpioniere der Welt der älteren Generation, derjenigen, die die ersten Computer geschaffen haben. J. Mauchly und P. Eckert versuchten eine eigene Firma zu gründen, die jedoch aufgrund finanzieller Schwierigkeiten verkauft werden musste. Ihre Neuentwicklung - die für gewerbliche Siedlungen konzipierte UNIVAC-Maschine - ging in den Besitz der Firma Remington Rand über und trug in vielerlei Hinsicht zu ihrem Erfolg bei.

Obwohl J. Mauchly und P. Eckert kein Patent für ENIAC erhielten, war seine Schaffung sicherlich ein goldener Meilenstein in der Entwicklung des digitalen Rechnens und markierte den Übergang von mechanischen und elektromechanischen zu elektronischen Digitalcomputern.

1996 feierten viele Länder der Welt auf Initiative der University of Pennsylvania den 50. Jahrestag der Informatik und verbanden dieses Ereignis mit dem 50. Jahrestag von ENIAC. Dafür gab es viele Gründe - vor und nach ENIAC hat kein einziger Computer weltweit eine solche Resonanz hervorgerufen und die Entwicklung der digitalen Computertechnologie nicht so beeinflusst wie die wunderbare Idee von J. Mauchly und P. Eckert.

In der zweiten Hälfte unseres Jahrhunderts verlief die Entwicklung technischer Mittel viel schneller. Noch schneller entwickelten sich die Sphäre der Software, neue Methoden numerischer Berechnungen und die Theorie der künstlichen Intelligenz.

1995 veröffentlichte John Lee, ein amerikanischer Professor für Informatik an der University of Virginia, das Buch Computer Pioneers. Er zählte diejenigen zu den Pionieren, die seit dem Erscheinen der ersten einen bedeutenden Beitrag zur Entwicklung technischer Mittel, Software, Rechenmethoden, der Theorie der künstlichen Intelligenz usw. geleistet haben primitive Mittel Informationsverarbeitung bis heute.

1. Stufe(bis zur zweiten Hälfte des 19. Jahrhunderts) - „manuelle“ Informationstechnologie, deren Werkzeuge sind: Feder, Tintenfass, Rechnungsbuch. Die Kommunikation erfolgt manuell durch postalische Weiterleitung von Briefen, Paketen, Sendungen. Das Hauptziel der Technologie ist es, Informationen in der richtigen Form darzustellen.

2. Stufe(seit Ende des 19. Jahrhunderts) - „mechanische“ Technologie, deren Werkzeuge sind: eine Schreibmaschine, ein Telefon, ein Phonograph, eine Post, die mit fortschrittlicheren Zustellmitteln ausgestattet ist. Das Hauptziel der Technologie besteht darin, Informationen auf bequemere Weise in der richtigen Form darzustellen.

3. Stufe(40-60er Jahre des 20. Jahrhunderts) - „elektrische“ Technologie, deren Werkzeuge sind: große Computer und entsprechende Software, elektrische Schreibmaschinen, Kopierer, tragbare Tonbandgeräte. Der Zweck der Technologie ändert sich. Von der Präsentationsform der Informationen verschiebt sich der Schwerpunkt allmählich hin zur inhaltlichen Gestaltung.

4. Stufe(seit Anfang der 70er Jahre des 20. Jahrhunderts) ist eine „elektronische“ Technologie, deren Hauptwerkzeuge große Computer und auf ihrer Grundlage erstellte automatisierte Steuerungssysteme (ACS) sind, die mit einer breiten Palette grundlegender und spezialisierter Softwaresysteme ausgestattet sind . Der Schwerpunkt der Technik verlagert sich maßgeblich auf die Gestaltung der Inhaltsseite von Informationen.

5. Stufe(seit Mitte der 80er Jahre des 20. Jahrhunderts) - „Computer“ -Technologie, deren Hauptwerkzeug ein Personal Computer mit einer großen Anzahl von Standardsoftwareprodukten für verschiedene Zwecke ist. In dieser Phase werden Entscheidungsunterstützungssysteme erstellt. Ähnliche Systeme verfügen über integrierte Analyseelemente und künstliche Intelligenz für verschiedene Managementebenen. Sie werden auf einem Personalcomputer implementiert und verwenden Telekommunikation. Im Zusammenhang mit dem Übergang zu einer Mikroprozessorbasis ändern sich die technischen Mittel für häusliche, kulturelle und andere Zwecke erheblich. Telekommunikation und lokale Computernetzwerke werden in verschiedenen Bereichen weit verbreitet verwendet.

Die am weitesten verbreiteten Personal Computer zum Bearbeiten von Texten bei der Erstellung von Zeitschriften, Büchern und verschiedenen Arten von Dokumentationen. Die Vorteile von Computern gegenüber Schreibmaschinen liegen auf der Hand: Die Anzahl von Fehlern und Tippfehlern wird reduziert, die Vorbereitung von Materialien beschleunigt und die Qualität ihrer Gestaltung verbessert.

Die Entwicklung der Informationstechnologien ist ohne die Organisation von E-Mail, Kommunikationsnetzen und Informationskommunikation auf der Basis von Computernetzen undenkbar.

Jede neue Nutzung von Computern erfordert in der Regel nicht so sehr die Anschaffung zusätzlicher technische Geräte wie viel Ausstattung mit den richtigen Software-Tools.

Es gibt mehrere Klassifikationen von Software für Computer. Betrachten Sie die Klassifizierung von Software für einen Personal Computer. Es hebt Spiel-, Bildungs- und Geschäftsprogramme sowie Informationssysteme und Softwaretools hervor.

Spielprogramme- eine der Formen spannender Aktivitäten am Computer. Mit Spielprogrammen begann die Massenverbreitung von Personal Computern. Bis zu einem gewissen Grad Computerspiele- Das neue Technologie Erholung. Wenn Sie Spiele spielen, müssen Sie sich erstens an das Sprichwort „Zeit ist Geschäft und Zeit macht Spaß“ erinnern und zweitens daran, dass übermäßige Begeisterung für jedes Spiel schädlich sein kann.

Lernprogramme dienen der Organisation Trainingssitzungen. Diese Programme können für den Unterricht in Logik, Geschichte, Informatik, Russisch, Biologie, Geographie, Mathematik, Physik und anderen akademischen Disziplinen verwendet werden. Computer in solchen Klassen können als verwendet werden elektronische Lehrbücher und Simulatoren, Laborstative sowie Informations- und Referenzsysteme.

Business-Programme dienen der Aufbereitung, Sammlung und Verarbeitung verschiedener Serviceinformationen. Diese Programme können verwendet werden, um die Büroarbeit zu computerisieren – die Pflege der Dokumentation, die Erstellung von Zeitplänen, die Dienstplanung und andere Arbeiten. Dafür verschiedene Texteditoren, Tabellenkalkulationen, grafischer Editor, Datenbanken, Systeme zum Abrufen von Bibliotheksinformationen und andere spezialisierte Programme.

Informationssysteme werden verwendet, um eine Vielzahl von Informationen auf einem Computer zu organisieren, zu sammeln und zu durchsuchen. Dazu gehören Datenbanken, Systeme zum Abrufen von Bibliotheksinformationen, Systeme zum Verkauf und zur Registrierung von Eintrittskarten in Theatern, Bahn- und Flugticketbüros.

Vielversprechend Informationsmedien sind Wissensbasen und Expertensysteme. Mit ihrer Hilfe werden Beratungen zu medizinischen Themen, Informationen zu verschiedenen Dienstleistungen, Hilfe für Erfinder, Beratung von Technologen, Designern und Antworten gegeben, wobei das Verhalten von Experten in einem bestimmten Wissensgebiet und einer bestimmten beruflichen Tätigkeit simuliert wird.

Werkzeug sind Programme und Softwarepakete, mit denen Programmierer Programme erstellen und erstellen automatisierte Systeme. Dazu gehören Texteditoren, Interpreter, Compiler und andere spezielle Softwaretools.

Ob Gaming, Business und Lernprogramme als Mittel zur Organisation von Techniken zur Darstellung von Informationsdiensten dienen, dann schaffen Werkzeugprogramme die Grundlage für bestimmte Programmiertechniken.

Betriebssysteme spielen eine besondere Rolle bei der Funktionsweise von Computern und der Wartung von Softwaretools. Die Arbeit eines jeden Computers beginnt mit dem Laden und Starten des Betriebssystems, das zuvor auf der Systemfestplatte abgelegt wurde.

Grundlegende Auftragsdaten

Einführung

Kapitel 1. Die Entwicklung der Informationstechnologie im Zeitraum vom XIV bis zum XVII Jahrhundert

Kapitel 2. Die Entwicklung der Informationstechnologie vom XVIII bis zum XX Jahrhundert

Abschluss

Glossar

Liste der verwendeten Quellen

Abkürzungsverzeichnis

Einführung

Ich habe dieses Thema gewählt, weil ich es interessant und relevant finde. Als nächstes werde ich versuchen zu erklären, warum ich diese Wahl getroffen habe, und einige historische Daten zu diesem Thema präsentieren.

In der Geschichte der Menschheit gibt es mehrere Stadien, die die menschliche Gesellschaft in ihrer Entwicklung konsequent durchlaufen hat. Diese Phasen unterscheiden sich in der Art und Weise, wie die Gesellschaft ihre Existenz sichert, und in der Art der vom Menschen genutzten Ressourcen, die eine wichtige Rolle bei der Umsetzung dieser Methode spielen. Zu diesen Phasen gehören: die Phasen des Sammelns und Jagens, der Landwirtschaft und der Industrie. In unserer Zeit befinden sich die am weitesten entwickelten Länder der Welt im Endstadium der industriellen Entwicklung der Gesellschaft. Sie vollziehen den Übergang zur nächsten Stufe, die „Information“ genannt wird. In dieser Gesellschaft spielen Informationen eine entscheidende Rolle. Die Infrastruktur der Gesellschaft wird durch die Art und Weise des Sammelns, Verarbeitens, Speicherns und Verteilens von Informationen gebildet. Informationen werden zu einer strategischen Ressource.

Daher ist seit der zweiten Hälfte des 20. Jahrhunderts in der zivilisierten Welt der wichtigste bestimmende Faktor für die sozioökonomische Entwicklung der Gesellschaft der Übergang von der "Ökonomie der Dinge" zur "Ökonomie des Wissens". deutliche Zunahme der Bedeutung und Rolle von Informationen bei der Lösung fast aller Probleme der Weltgemeinschaft. Dies ist ein überzeugender Beweis dafür, dass sich die wissenschaftliche und technologische Revolution allmählich in eine intellektuelle und informationelle Revolution verwandelt, Informationen nicht nur zu einem Kommunikationsgegenstand, sondern auch zu einer profitablen Ware, einem bedingungslosen und effektiven modernen Mittel zur Organisation und Verwaltung der gesellschaftlichen Produktion, der Wissenschaft werden , Kultur, Bildung und sozioökonomische Entwicklung Entwicklung der Gesellschaft als Ganzes.

Moderne Fortschritte in Informatik, Computertechnologie, Betriebsdruck und Telekommunikation haben zu einer neuen Art von Hochtechnologie geführt, nämlich der Informationstechnologie.

Die Ergebnisse der wissenschaftlichen und angewandten Forschung auf dem Gebiet der Informatik, Computertechnologie und Kommunikation haben eine solide Grundlage für die Entstehung eines neuen Wissens- und Produktionszweigs - der Informationsindustrie - geschaffen. Die Welt entwickelt erfolgreich die Industrie der Informationsdienste, der Computerproduktion und der Computerisierung als Technologie für die automatisierte Informationsverarbeitung; Die Industrie und Technologie im Bereich der Telekommunikation hat einen beispiellosen Umfang und Qualitätssprung erreicht – von der einfachsten Kommunikationsleitung bis zur Weltraumleitung, die Millionen von Verbrauchern umfasst und eine breite Palette von Möglichkeiten für den Transport von Informationen und die Verbindung ihrer Verbraucher darstellt.

Dieser Gesamtkomplex (der Verbraucher mit seinen Aufgaben, die Informatik, alle technischen Mittel der Informationsunterstützung, die Informationstechnologie und die Infoetc.) bildet die Infrastruktur und den Informationsraum für die Umsetzung der Informatisierung der Gesellschaft.

Informatisierung ist somit ein komplexer Prozess der Informationsunterstützung für die sozioökonomische Entwicklung der Gesellschaft auf der Grundlage moderner Informationstechnologien und geeigneter technischer Mittel.

Und so ist das Problem der Informatisierung der Gesellschaft zu einer Priorität geworden und seine Bedeutung in der Gesellschaft wächst ständig.

Kapitel 1. Die Entwicklung der Informationstechnologie im Zeitraum vom XIV bis zum XVIII Jahrhundert

Die Geschichte der Schaffung digitaler Computereinrichtungen reicht Jahrhunderte zurück. Es ist faszinierend und lehrreich, die Namen herausragender Wissenschaftler der Welt sind damit verbunden.

In den Tagebüchern des brillanten Italieners Leonardo da Vinci (1452 - 1519) wurden bereits in unserer Zeit eine Reihe von Zeichnungen entdeckt, die sich als Skizze eines Zahnrad-Addiercomputers herausstellten, der 13-stellige Dezimalzahlen addieren konnte. Spezialisten der bekannten amerikanischen Firma IBM reproduzierten die Maschine in Metall und waren von der vollen Realisierbarkeit der Idee des Wissenschaftlers überzeugt. Seine Rechenmaschine kann als Meilenstein in der Geschichte des digitalen Rechnens angesehen werden. Es war der erste digitale Addierer, eine Art Embryo des zukünftigen elektronischen Addierers - das wichtigste Element moderner Computer, noch mechanisch, sehr primitiv (mit manueller Steuerung). In diesen fernen Jahren war der brillante Wissenschaftler wahrscheinlich der einzige Mensch auf der Erde, der die Notwendigkeit verstand, Geräte zu entwickeln, die die Arbeit bei der Durchführung von Berechnungen erleichtern.

Der Bedarf dafür war jedoch so gering, dass erst mehr als hundert Jahre nach dem Tod von Leonardo da Vinci ein weiterer Europäer gefunden wurde - der deutsche Wissenschaftler Wilhelm Schickard (1592-1636), der die Tagebücher natürlich nicht las des großen Italieners, der seine Lösung für dieses Problem vorschlug. Der Grund, der Shikkard veranlasste, eine Rechenmaschine zum Summieren und Multiplizieren von sechsstelligen Dezimalzahlen zu entwickeln, war seine Bekanntschaft mit dem polnischen Astronomen J. Kepler. Nachdem er sich mit der Arbeit des großen Astronomen vertraut gemacht hatte, die hauptsächlich mit Berechnungen zu tun hatte, war Shikkard von der Idee begeistert, ihm bei harter Arbeit zu helfen. In einem an ihn adressierten Brief aus dem Jahr 1623 gibt er eine Zeichnung der Maschine und erklärt, wie sie funktioniert. Leider hat die Geschichte keine Daten über das weitere Schicksal des Autos erhalten. Anscheinend hinderte ein früher Tod an einer Seuche, die Europa heimsuchte, den Wissenschaftler daran, seinen Plan zu verwirklichen.

Die Erfindungen von Leonardo da Vinci und Wilhelm Schickard wurden erst in unserer Zeit bekannt. Sie waren den Zeitgenossen unbekannt.

Im 17. Jahrhundert änderte sich die Situation. 1641 - 1642. Der neunzehnjährige Blaise Pascal (1623 - 1662), damals ein wenig bekannter französischer Wissenschaftler, baut eine funktionierende Rechenmaschine ("pascaline"), siehe Anhang A. Am Anfang baute er sie mit einem einzigen Zweck - um zu helfen sein Vater in den Berechnungen, die bei der Erhebung von Steuern durchgeführt werden. In den nächsten vier Jahren schuf er fortschrittlichere Modelle der Maschine. Sie waren sechs- und acht Bit, auf der Basis von Zahnrädern aufgebaut, konnten Dezimalzahlen addieren und subtrahieren. Es wurden ungefähr 50 Maschinenmodelle erstellt, B. Pascal erhielt ein königliches Privileg für ihre Produktion, aber die "Pascalins" erhielten keine praktische Anwendung, obwohl viel über sie gesprochen und geschrieben wurde (hauptsächlich in Frankreich).

1673 Ein anderer großer Europäer, der deutsche Wissenschaftler Wilhelm Gottfried Leibniz (1646 - 1716), erschafft eine Rechenmaschine (nach Leibniz ein Rechengerät) zum Addieren und Multiplizieren von zwölfstelligen Dezimalzahlen. Zu den Zahnrädern fügte er eine Stufenrolle hinzu, die Multiplikation und Division ermöglichte. "... Meine Maschine ermöglicht es, über große Zahlen sofort zu multiplizieren und zu dividieren, ohne auf sequentielle Addition und Subtraktion zurückgreifen zu müssen", schrieb W. Leibniz an einen seiner Freunde.

In digitalen elektronischen Computern (Computern), die mehr als zwei Jahrhunderte später auftauchten, wurde ein Gerät, das arithmetische Operationen durchführt (dasselbe wie Leibniz 'Arithmetikgerät), Arithmetik genannt. Später, als eine Reihe logischer Operationen hinzugefügt wurden, fingen sie an, es arithmetisch-logisch zu nennen. Es ist zum Hauptgerät moderner Computer geworden.

Damit setzten die beiden Genies des 17. Jahrhunderts die ersten Meilensteine ​​in der Entwicklungsgeschichte des digitalen Rechnens.

Die Verdienste von W. Leibniz beschränken sich jedoch nicht auf die Schaffung eines "Recheninstrumentes". Von seiner Studienzeit bis zu seinem Lebensende beschäftigte er sich mit dem Studium der Eigenschaften des binären Zahlensystems, das später zum wichtigsten bei der Entwicklung von Computern wurde. Er gab ihm eine gewisse mystische Bedeutung und glaubte, dass es auf seiner Grundlage möglich sei, eine universelle Sprache zu schaffen, um die Phänomene der Welt zu erklären und sie in allen Wissenschaften, einschließlich der Philosophie, zu verwenden. Das von W. Leibniz 1697 gezeichnete Bild der Medaille ist erhalten geblieben und erläutert die Beziehung zwischen dem binären und dem dezimalen Rechensystem (siehe Anhang B).

1799 erfand Joseph Marie Jacard (1752 - 1834) in Frankreich den Webstuhl, der Lochkarten verwendete, um das Muster auf den Stoff zu bringen. Die dafür notwendigen Ausgangsdaten wurden in Form von Stanzungen an den entsprechenden Stellen der Lochkarte erfasst. So entstand das erste primitive Gerät zum Speichern und Eingeben von Softwareinformationen (in diesem Fall zur Steuerung des Webprozesses).

An gleicher Stelle entwickelte 1795 der Mathematiker Gaspard Prony (1755 - 1839), der im Auftrag der französischen Regierung Arbeiten zur Umstellung auf das metrische Maßsystem durchführte, zum ersten Mal weltweit eine Technologie Berechnungsschema, das die Arbeitsteilung von Mathematikern in drei Komponenten beinhaltet. Die erste Gruppe aus mehreren hochqualifizierten Mathematikern bestimmte (oder entwickelte) die zur Lösung des Problems erforderlichen Methoden numerischer Berechnungen, die es ihnen ermöglichten, Berechnungen auf arithmetische Operationen zu reduzieren - addieren, subtrahieren, multiplizieren, dividieren. Die Aufgabe der Abfolge von Rechenoperationen und die Bestimmung der zu ihrer Ausführung notwendigen Ausgangsdaten ("Programmierung") wurde von der zweiten, in ihrer Zusammensetzung etwas breiter aufgestellten Gruppe von Mathematikern durchgeführt. Um das kompilierte "Programm", das aus einer Folge von Rechenoperationen besteht, auszuführen, war es nicht erforderlich, hochqualifizierte Spezialisten einzubeziehen. Dieser zeitaufwändigste Teil der Arbeit wurde der dritten und zahlreichsten Gruppe von Rechnern anvertraut. Durch diese Arbeitsteilung konnten die Ergebnisse deutlich beschleunigt und deren Zuverlässigkeit erhöht werden. Aber die Hauptsache war, dass dies den weiteren Automatisierungsprozess, den zeitaufwändigsten (aber auch einfachsten!) dritten Teil der Berechnungen, anregte - den Übergang zur Erstellung digitaler Rechengeräte mit Programmsteuerung einer Arithmetikfolge Operationen.

Dieser letzte Schritt in der Entwicklung digitaler Rechengeräte (mechanischer Typ) wurde von dem englischen Wissenschaftler Charles Babbage (1791 - 1871) gemacht. Als brillanter Mathematiker, ausgezeichnet in numerischen Berechnungsmethoden, bereits erfahren in der Schaffung technischer Mittel zur Erleichterung des Rechenvorgangs (Babbages Differenzmaschine zur Tabellierung von Polynomen, 1812 - 1822), sah er sofort in der von G. Prony vorgeschlagenen Computertechnologie die Möglichkeit der Weiterentwicklung seiner Werke. Die analytische Maschine (wie Babbage sie nannte), deren Projekt er in den Jahren 1836 - 1848 entwickelte, war ein mechanischer Prototyp von Computern, der ein Jahrhundert später auf den Markt kam. Es sollte die gleichen fünf Hauptgeräte wie ein Computer haben: Arithmetik, Speicher, Steuerung, Eingabe, Ausgabe.



Wird geladen...
Spitze